你将学到的
  • BERT 预训练模型
  • XLNet 预训练模型
  • 文本生成任务
  • GPT-2 预训练模型
  • 文本分类任务
  • 序列标注任务
lab-classic 实验 1 BERT 预训练模型及文本分类

知识点: 1.语言模型和词向量 2.BERT结构详解 3.BERT文本分类

lab-challenge 挑战 1 Kaggle 电影评论情感分析

知识点: 1.预训练模型使用 2.Kaggle平台使用

lab-classic 实验 2 GPT-2 预训练模型及文本生成

知识点: 1.GPT2的核心思想 2.GPT2模型结构详解 3.GPT2进行文本生成

lab-challenge 挑战 2 Kaggle 各国食谱分类比赛

知识点: 1.预训练模型使用 2.Kaggle平台使用

lab-classic 实验 3 XLNet 预训练模型及命名实体识别

知识点: 1.XLNet在BERT和GPT2上的改进 2.XLNet模型结构 3.使用XLNet进行命名实体识别实验

lab-challenge 挑战 3 Quora 文本相似度分析比赛

知识点: 1.文本相似度问题转换 2.预训练模型使用 3.Kaggle平台使用

课程介绍

课程介绍

PyTorch-Transformers 是一个以 PyTorch 深度学习框架为基础构建的自然语言处理预训练模型库,由 Hugging Face 团队创建,早前为 pytorch-pretrained-bert,如果已正式成为独立项目。

本课程中,我们将了解到自然语言处理领域多种预训练模型构建的思想和原理,并用 PyTorch-Transformers 模型库中的模型和预训练参数进行实验,让你能快速掌握预训练模型的使用方法。

先学课程

课程难度

本课程难度为中等。

适合用户

本课程适用于对深度学习应用于自然语言处理领域感兴趣的用户。如果你已经有 Pytorch 构建深度学习模型的使用经验,或其他深度学习的相关经验,学习本课程会更轻松一些。

课程信息

  • 学习周期:课程有效期 2 个月,2 个月后实验文档一直可以看。高级会员有效期内可一直学习,高级会员到期后课程失效(不能看文档)。
  • 课程价格:当前优惠价格 79 元。注意其中 3 个实验使用的是 GPU 实验环境,各限制使用2次。
  • 企业团报:可获得更多支持服务,请点击 购买咨询
课程教师

实验楼xjm 共发布过 1 门课程

查看老师的所有课程 >
实验楼楼+
实验楼会员