由此可以看出,在训练CNN时,运用ReLU激活单元比Sigmoid激活单元要更好一些。缘由能够在于二者机制的差别,sigmoid在神经元输入值较大或许较小时,输入值会近乎0或许1,这使得许多中央的梯度简直为0,权重简直得不到更新。而ReLU虽然添加了计算的担负,但是它可以清楚减速收敛进程,并且也不会有梯度饱和成绩。
【编辑引荐】
Threejs开发3D地图实际总结
Java架构师与开发者提高效率的10个工具
现代前端开发技术栈
开发者必读 移动端页面优化的10个好办法
(责任编辑:admin)