从 0 到 1 实现卷积神经网络 训练营

关注
15人关注 -2人评论

课程将从线性分类器出发,通过学习人工神经网络,从而完成 0 到 1 实现卷积神经网络的过程。你将真正理解什么是深度学习,以及背后的工作机制,并在动手的过程中完成从入门到进阶。

¥129.00 ¥259.00 特价
优惠 标准会员再享 8 优惠,本课程仅需 103.2 立即开通>
立即购买
自学困难重重?点这里,9周打通机器学习技术路径
实验1
从线性分类到深度学习
知识点: 1.线性拟合 2.线性分类器 3.softmax和交叉熵损失函数 4.如何选取最优权重 5.随机选取权重 6.梯度下降法 7.学习率衰减策略 8.权重初始化 9.softmax和交叉熵损失函数求导 10.实现线性分类器
挑战1
随机梯度下降法求解函数极值
知识点: 1.梯度下降法 2.函数极值
实验2
反向传播和多层神经网络实现
知识点: 1.计算图 2.反向传播 3.随机梯度下降 4.线性层实现 5.随机梯度下降实现线性分类 6.激活函数及其实现 7.多层神经网络实现 8.PyTorch实现MNIST数据集分类
挑战2
PyTorch 求导和 Sigmoid 激活层实现
知识点: 1.反向传播 2.梯度下降 3.PyTorch自动求导 4.激活函数
实验3
实现卷积神经网络【CPU】
知识点: 1.梯度检验 2.卷积层的前向和后向传播及实现、梯度检验 3.池化层的前向和后向传播及实现、梯度检验 4.实现LeNet5 5.PyTorch实现LeNet5
实验4
实现卷积神经网络【GPU】
知识点: 1.梯度检验 2.卷积层的前向和后向传播及实现、梯度检验 3.池化层的前向和后向传播及实现、梯度检验 4.实现LeNet5 5.PyTorch实现LeNet5
挑战3
实现平均池化的前向传播过程
知识点: 1.池化层 2.前向传播实现
实验5
卷积神经网络加速计算【CPU】
知识点: 1.卷积加速方法 2.Caffe的优化方法实现 3.并行加速 4.GPU加速和CPU对比 5.依据Caffe,重新实现卷积层 6.CIFAR10分类 7.PyTorch实现
实验6
卷积神经网络加速计算【GPU】
知识点: 1.卷积加速方法 2.Caffe的优化方法实现 3.并行加速 4.GPU加速和CPU对比 5.依据Caffe,重新实现卷积层 6.CIFAR10分类 7.PyTorch实现
挑战4
实现一个简单卷积神经网络
知识点: 1.卷积神经网络 2.后向传播、前向传播
实验7
挑战参考答案
登录 后发表评论
最新评论
全部 第1节 随机梯度下降法求解函数极值 第2节 PyTorch 求导和 Sigmoid 激活层实现 第3节 第4节 实现平均池化的前向传播过程 第5节 第6节 实现一个简单卷积神经网络 第7节
课程
咨询

0% Complete

加载中,精彩就在后面...

卡住了?点击重试