自然语言处理之动手学词向量(word embedding)视频教程

课程目标:词向量(Word embedding)是深入学习技术在自然语言处理中应用的基础,因此掌握好词向量是学习深度学习技术在自然语言处理用应用的重要环节。本课程从One-hot编码开始,word2vec、fasttext到glove讲解词向量技术的方方面面,每个技术点环节都有相应的小案例,以更加巩固相应知识

24小时内答疑 课时永久观看 15分钟内无条件退款
1. 仅限付费视频课程适用
2. 购买后15分钟内可以找到客服进行沟通退款
3. 退款将返还至51CTO学院账户,不支持提现
4. 下载资料后不再享有退款特权
5. 客服(Tel:400-101-1651)
6. 最终解释权归51CTO所有
5分 共62课时,共11小时45分钟
现价¥138.00
购买
  1. 课程介绍
  2. 课程大纲
课程目标

词向量(Word embedding)是深入学习技术在自然语言处理中应用的基础,因此掌握好词向量是学习深度学习技术在自然语言处理用应用的重要环节。本课程从One-hot编码开始,word2vec、fasttext到glove讲解词向量技术的方方面面,每个技术点环节都有相应的小案例,以更加巩固相应知识

适用人群

自然语言处理爱好者、自然语言处理从业者、人工智能从业者、机器学习从业者

课程简介

词向量(Word embedding)是深入学习技术在自然语言处理中应用的基础,因此掌握好词向量是学习深度学习技术在自然语言处理用应用的重要环节。本课程从One-hot编码开始,word2vec、fasttext到glove讲解词向量技术的方方面面,每个技术点环节都有相应的小案例,以更加巩固相应知识。

模版三.jpg

第一章One hot编码
5节48分钟
1-1课程整体介绍及大纲剖析 [免费试看]
10:24
1-2什么是one-hot编码
05:03
1-3one-hot在提取文本特征上的应用
04:45
1-4one-hot编码手动实现
18:59
1-5ont-hot编码keras中实现
09:34
第二章word2vec预备基础知识及相关概念
9节1小时13分钟
2-1word2vec的前世今生
07:28
2-2word2vec需要注意的关键点
08:23
2-3sigmoid与softmax函数讲解
04:32
2-4二叉树相关知识讲解
06:38
2-5Huffman树讲解
11:07
2-6Huffman编码讲解
07:47
2-7语言模型讲解
11:30
2-8神经网络语言模型概念讲解
06:40
2-9神经网络语言模型数学理论部分讲解
09:09
第三章word2vec实现及优化方式
4节50分钟
3-1word2vec中Skip-Gram实现方式讲解
13:30
3-2word2vec中CBOW实现方式讲解
11:15
3-3word2vec训练方式负采样讲解
13:10
3-4word2vec训练方式层序softmax讲解
12:57
第四章word2vec之Tensorflow实现
9节2小时37分钟
4-1读取停用词
10:36
4-2文本预处理上
15:51
讲师介绍
Bruce
讲师评分4.5分
目前就职于中科院某研究所,长期从事深度学习与机器学习研究工作,在自然语言处理、知识图谱及问答系统等领域有很深造诣,主持多项科技专项,并带领团队深入一线研发并落地,舆情监控系统、智能对话系统及 智能案件系统等。申请发明专利2项、部级科技进步二等奖一次,在SIGIR、CIKM及AAAI的国际会议发表多篇文章。
X
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载