真锋
永远保持一颗学习和专注的心

ml-dl-笔记
文章归档

torch.Tensor torch.Tensor 是一种包含单一数据类型元素的多维矩阵,类似于 numpy 的 array。Tensor 可以使用 torch.tensor() 转换 Python 的 list 或序列数据生成,生成的是dtyp…

   2021-03-25   545   0 阅读更多

图像分类是计算机视觉中最基础的任务,基本上深度学习模型的发展史就是图像分类任务提升的发展历史,但是图像分类并不是那么简单,也没有被完全解决。 图像分类 图像分类顾名…

   2021-03-19   501   0 阅读更多

讲优化器的,网上有很多资料,但是大多都是套下公式泛泛而谈,我虽然想做到把优化器的理论、算法、代码和优劣特性等,但碍于实力有限,只能当作快速学习的学习笔记参考,本文大部分…

   2019-08-19   704   0 阅读更多

我们在项目中可能实际上就常用 relu 作为卷积层和全连接层的激活函数,但是,其他激活函数的特性和 relu 激活函数的问题及优点在哪也是我们需要知道的。本文为学习笔记,主要参考魏…

   2019-08-07   659   0 阅读更多

导言:在神经网络的架构上,深度学习一方面需要使用激活函数来实现神经网络模型的去线性化,另一方面需要使用一个或 多个隐藏层使得神经网络的结构更深,已解决复杂问题。在训练神经…

   2019-07-29   476   0 阅读更多

本文属于学习笔记,综合了网上对权重初始化方法的资料总结而来,部分公式没有手写。 神经网络的训练过程中的参数学习是基于梯度下降法进行优化的。梯度下降法需要在开始训练时…

   2019-07-23   1,425   0 阅读更多

数据扩充 数据扩充是深度学习模型训练的第一步。在kaggle比赛中,我常用imgaug做图像在线增强以达到数据扩充的目的,实际项目中可能用numpy和imgaug库做离线增强较多。 一般的…

   2019-07-22   479   0 阅读更多

本文属于学习笔记,主要学习魏秀参的《解析神经网络》和部分网络资源;神经网络压缩在实际项目中是一个很重要的知识,为了能够在移动端部署模型,我们经常要用到神经网络压缩的方法…

   2019-07-16   1,482   0 阅读更多

深度可分离卷积(Depth Separable Convolution) MobileNetV2 提出了一个适合移动端架构的高效神经网络结构:深度可分离卷积。其基本思想是用分解版本替代完成的卷积运算符,将卷积…

   2019-07-02   647   0 阅读更多

keras中直接可供使用的网络和预训练权重如下: from .vgg16 import VGG16 from .vgg19 import VGG19 from .resnet50 import ResNet50 from .inception_v3 import InceptionV3 fro…

   2019-04-14   1,786   0 阅读更多
加载更多