常用激活函数理解 我们在项目中可能实际上就常用 relu 作为卷积层和全连接层的激活函数,但是,其他激活函数的特性和 … 继续阅读 常用激活函数理解 发表于: 2019年8月7日 2020年11月13日 作者: harley 分类: 深度学习 标签: Leaky ReLu, Relu, sigmoid, 激活函数 发表评论: 常用激活函数理解
深度神经网络基础知识 导言:在神经网络的架构上,深度学习一方面需要使用激活函数来实现神经网络模型的去线性化,另一方面需要使… 继续阅读 深度神经网络基础知识 发表于: 2019年7月29日 2021年4月19日 作者: harley 分类: 深度学习 标签: sigmoid, softmax, 交叉熵损失, 欧氏距离, 激活函数总结 发表评论: 深度神经网络基础知识