作者赖策(2019)在《卷积神经网络中的激活函数分析》一文中研究指出:对于神经网络来说,神经元的计算单元最后通过激活函数输出结果,在前人的研究之中,对激活函数的探索也一直没有停止,本文将讨论几个在卷积神经网络中常见的激活函数,这些激活函数在不同的卷积任务中发挥的特点不同,它们是:Sigmoid函数、Tanh函数、ReLu函数、LReLu函数和PReLu函数。
dui yu shen jing wang lao lai shui ,shen jing yuan de ji suan chan yuan zui hou tong guo ji huo han shu shu chu jie guo ,zai qian ren de yan jiu zhi zhong ,dui ji huo han shu de tan suo ye yi zhi mei you ting zhi ,ben wen jiang tao lun ji ge zai juan ji shen jing wang lao zhong chang jian de ji huo han shu ,zhe xie ji huo han shu zai bu tong de juan ji ren wu zhong fa hui de te dian bu tong ,ta men shi :Sigmoidhan shu 、Tanhhan shu 、ReLuhan shu 、LReLuhan shu he PReLuhan shu 。
论文作者分别是来自科学技术创新的赖策,发表于刊物科学技术创新2019年33期论文,是一篇关于神经网络论文,激活函数论文,卷积神经论文,科学技术创新2019年33期论文的文章。本文可供学术参考使用,各位学者可以免费参考阅读下载,文章观点不代表本站观点,资料来自科学技术创新2019年33期论文网站,若本站收录的文献无意侵犯了您的著作版权,请联系我们删除。
本文来源: https://www.lw00.cn/article/8481d91a4775e9fa84b35880.html