date: 2024-04-06
title: Activation Function
status: DONE
author:
  - AllenYGY
tags:
  - DeepLearning
  - Activation-Function
  - NOTE
created: 2024-04-06T16:42
updated: 2024-05-12T23:15
publish: True
Activation Function
Requirement要求
- 增加非线性表达  使得神经网络可以拟合任意函数 
- 连续可导的函数  可以使用梯度下降法进行参数更新
- 定义域是   可以映射所有实数
- 单调递增的函数  不改变输入的响应状态
非饱和函数
- Rectified Linear Unit 修正线性单元  RELU 
- RELU  Leaky ReLU, Parametric ReLU, ...
Sigmoid
- 
非零均值函数 
- 
导数最大值  
- 导致每层梯度被动缩小 4 倍	
- 导致开始的几层梯度几乎不变
- 就是梯度消失现象 gradient vanishing problem
 
 
 
 tanh
 ReLU (Rectified Linear Unit)