你将学到的
  • 掌握神经网络的基本原理
  • 掌握梯度下降算法的基本求解过程
  • 掌握卷积神经网络的实现过程
  • 掌握反向传播算法的基本原理
  • 掌握卷积神经网络的基本原理
  • 掌握卷积神经网络的加速计算方法
课程介绍

从 0 到 1 实现卷积神经网络

如今,深度学习的热度不断攀升,许多新人都通过开源框架完成了入门。但遗憾的是,大部分都仅停留在调用 API 的层面,却无法理解深度学习的本质。本课程将从线性分类器出发,通过学习人工神经网络,从而完成 0 到 1 实现卷积神经网络的过程。你将真正理解什么是深度学习,以及背后的工作机制,并在动手的过程中完成从入门到进阶。

课程内容

本次训练营将包含 4 个实验,分别为:

  • 从线性分类到深度学习
  • 反向传播和多层神经网络实现
  • 实现卷积神经网络
  • 卷积神经网络加速计算

实验将从简单的线性函数公式讲起,然后使用 Python 实现一个线性分类器,并最终完成经典的 MNIST 手写字符分类任务。在这个过程中,作者陆续抛出深度学习中常用的概念和方法,例如:Softmax 和交叉熵损失函数,梯度下降法等。

接下来,从线性分类器延伸到人工神经网络,你讲了解神经网络的组成以及工作机制,对反向传播算法进行实现,最终训练多层神经网络并对比和线性分类的结果。

掌握神经网络的原理之后,正式开始学习卷积神经网络。此时,你会了解到经典卷积神经网络的组成,卷积层、池化层的实现和作用机理。并最终从 0 到 1 搭建一个基础的卷积神经网络。当然,实验同时与 PyTorch 实现做了对比,帮助全面理解。

课程的最后,我们将学习到神经网络加速计算的技巧,了解并行加速、算法加速、GPU 加速等不同方法。这对于深度学习是至关重要的。

除此之外,训练营还包含 4 个挑战,分别为:

  • 随机梯度下降法求解函数极值
  • PyTorch 自动求导和 Sigmoid 激活层实现
  • 实现平均池化的前向传播过程
  • 实现一个简单卷积神经网络 挑战将配合实验考察你的学习成果,希望认真完成。

课程信息

  • 学习周期:课程有效期2个月,2个月后实验文档一直可以看,但无法进行在线实验。高级会员有效期内可一直学习,高级会员到期后课程失效(不能看文档)。
  • 课程价格:当前优惠价格 129 元 。
  • 企业团报:可获得更多支持服务,请点击购买咨询

GPU 环境说明【重要】

为了课程需要,我们为部分实验提供了 GPU 环境支持,分别是: 实验 4:实现卷积神经网络【GPU】 实验 6:卷积神经网络加速计算【GPU】 由于云 GPU 环境成本高昂,以上实验仅有 2 次 GPU 环境使用次数,CPU 实验不限制实验次数。

GPU 环境仅提供加速计算,所以建议大家学习时优先打开 CPU 环境的实验,我们的代码可以在 CPU 环境实验中完整执行,只是模型最终的训练时间较长。你可以在 CPU 环境中学习完实验内容之后,再开启 GPU 环境进行训练。这样既可以深入学习内容,又可以体验加速训练的过程。不建议直接开启 GPU 实验学习。

若 GPU 环境出现故障或其他情况,请及时反馈给我们。

补充说明

为了帮助大家全面了解本课程的特点,我们最后对课程包含和未包含的知识点做说明。首先,课程包含有:

  • 深度学习的基本概念讲解及实现,例如:损失函数,激活函数等。
  • 人工神经网络讲解及实现,包括反向传播算法等完整的理论。
  • 卷积神经网络概念,结构及实现。
  • 内容均使用 Python 实现,神经网络部分与 PyTorch 实现做对比。
  • 课程主要使用到的库有:NumPy,PyTorch。
  • 部分理论推导及理解需要基础的高等数学和线性代数知识。

课程不包括:

  • 其他统计机器学习算法内容。
  • 除 CNN 之外的深度神经网络内容,例如:RNN,GAN 等。
  • 除 PyTorch 之外的框架使用,例如:TensorFlow 等。
课程教师

Tech93 共发布过 1 门课程

查看老师的所有课程 >
实验楼楼+
实验楼会员