
ReLU、sigmoid和tanh等激活函数的简要说明。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
ReLU函数,即 rectified linear unit (ReLU) 函数,提供了一种极其简洁的非线性变换。对于给定的元素,该函数被定义为:如上所示,ReLU函数仅保留正数元素,并将所有负数元素置零。函数对应的图像如图所示:可以明显看出,当输入值为负数时,ReLU函数的导数值为零;而当输入值为正数时,ReLU函数的导数值则为1。尽管输入值为0时ReLU函数不可导,但在实际应用中通常将其导数为0。绘制ReLU函数的导数图像以更直观地展示其特性。
sigmoid函数作为另一种常用的激活函数,sigmoid函数可以将元素的值映射到0和1之间。其具体定义如下:在早期的神经网络架构中,sigmoid函数曾较为普遍地被使用;然而,由于其相对复杂性,它目前逐渐被更为简单直接的 ReLU 函数所取代。值得注意的是,sigmoid函数近似于线性变换。
全部评论 (0)
还没有任何评论哟~


