你将学到的
  • 掌握神经网络的基本原理
  • 掌握梯度下降算法的基本求解过程
  • 掌握卷积神经网络的实现过程
  • 掌握反向传播算法的基本原理
  • 掌握卷积神经网络的基本原理
  • 掌握卷积神经网络的加速计算方法
lab-classic 实验 1 从线性分类到深度学习

知识点: 1.线性拟合 2.线性分类器 3.softmax和交叉熵损失函数 4.如何选取最优权重 5.随机选取权重 6.梯度下降法 7.学习率衰减策略 8.权重初始化 9.softmax和交叉熵损失函数求导 10.实现线性分类器

lab-challenge 挑战 1 随机梯度下降法求解函数极值

知识点: 1.梯度下降法 2.函数极值

lab-classic 实验 2 反向传播和多层神经网络实现

知识点: 1.计算图 2.反向传播 3.随机梯度下降 4.线性层实现 5.随机梯度下降实现线性分类 6.激活函数及其实现 7.多层神经网络实现 8.PyTorch实现MNIST数据集分类

lab-challenge 挑战 2 PyTorch 求导和 Sigmoid 激活层实现

知识点: 1.反向传播 2.梯度下降 3.PyTorch自动求导 4.激活函数

lab-classic 实验 3 实现卷积神经网络

知识点: 1.梯度检验 2.卷积层的前向和后向传播及实现、梯度检验 3.池化层的前向和后向传播及实现、梯度检验 4.实现LeNet5 5.PyTorch实现LeNet5

lab-challenge 挑战 3 实现平均池化的前向传播过程

知识点: 1.池化层 2.前向传播实现

lab-classic 实验 4 卷积神经网络加速计算

知识点: 1.卷积加速方法 2.Caffe的优化方法实现 3.并行加速 4.GPU加速和CPU对比 5.依据Caffe,重新实现卷积层 6.CIFAR10分类 7.PyTorch实现

lab-challenge 挑战 4 实现一个简单卷积神经网络

知识点: 1.卷积神经网络 2.后向传播、前向传播

课程介绍

从 0 到 1 实现卷积神经网络

如今,深度学习的热度不断攀升,许多新人都通过开源框架完成了入门。但遗憾的是,大部分都仅停留在调用 API 的层面,却无法理解深度学习的本质。本课程将从线性分类器出发,通过学习人工神经网络,从而完成 0 到 1 实现卷积神经网络的过程。你将真正理解什么是深度学习,以及背后的工作机制,并在动手的过程中完成从入门到进阶。

实验将从简单的线性函数公式讲起,然后使用 Python 实现一个线性分类器,并最终完成经典的 MNIST 手写字符分类任务。在这个过程中,你将学习到深度学习中常用的概念和方法,例如:Softmax 和交叉熵损失函数,梯度下降法等。

接下来,从线性分类器延伸到人工神经网络,你讲了解神经网络的组成以及工作机制,对反向传播算法进行实现,最终训练多层神经网络并对比和线性分类的结果。

掌握神经网络的原理之后,正式开始学习卷积神经网络。此时,你会了解到经典卷积神经网络的组成,卷积层、池化层的实现和作用机理。并最终从 0 到 1 搭建一个基础的卷积神经网络。当然,实验同时与 PyTorch 实现做了对比,帮助全面理解。

课程的最后,我们将学习到神经网络加速计算的技巧,了解并行加速、算法加速、GPU 加速等不同方法。这对于深度学习是至关重要的。

最后,为了帮助大家更加全面了解本课程的特点,我们总结课程包含的知识点如下:

  • 深度学习的基本概念讲解及实现,例如:损失函数,激活函数等。
  • 人工神经网络讲解及实现,包括反向传播算法等完整的理论。
  • 卷积神经网络概念,结构及实现。
  • 内容均使用 Python 实现,神经网络部分与 PyTorch 实现做对比。
  • 课程主要使用到的库有:NumPy,PyTorch。
  • 部分理论推导及理解需要基础的高等数学和线性代数知识。

课程信息

  • 学习周期:课程有效期 2 个月,2 个月后实验文档一直可以看,但无法进行在线实验。高级会员有效期内可一直学习,高级会员到期后课程失效(不能看文档)。
  • 课程价格:当前优惠价格 129 元 。
  • 企业团报:可获得更多支持服务,请点击购买咨询

GPU 环境说明

为了课程需要,我们为实验 3 和实验 4 提供了 GPU 环境支持。由于云 GPU 环境成本高昂,以上 2 个实验仅包含 2 次免费的 GPU 环境使用次数。理论上,已经足够支持你完成内容学习。当然,超出限制次数后的学习,可以单独支付 GPU 环境使用成本费用。

若 GPU 环境出现故障或其他情况,请及时反馈给我们。

课程教师

Tech93 共发布过 1 门课程

查看老师的所有课程 >
实验楼楼+
实验楼会员