通过深度学习实现自然语言处理
|
关键字:学习 语言处理
|
课程提纲 |
主讲专家
--------------------------------- |
龚老师 |
|
开课信息: |
|
课程编号:KC21483 |
|
|
开课日期(天数) |
上课地区 |
费用 |
|
更多: |
无
|
|
|
招生对象
--------------------------------- |
|
|
课程内容
--------------------------------- |
课程描述: 自然语言处理(NLP)处理理解复杂人类语言交流的关键人工智能技术。 本课程全面介绍了深度学习在应用于NLP方向的前沿研究,该方法最近在许多不同的NLP任务中体现了非常高的性能,包括问答和机器翻译。 本课程中强调了如何实现,训练,调试,可视化和设计神经网络模型,涵盖单词向量,前馈模型,递归神经网络,递归神经网络,卷积神经网络和涉及存储器组件的最新模型的主要技术。
为了系统提升数据分析人员的人工智能技术应用能力,需引进外部优质资源,培养一批骨干人员,达到外部经验内化的作用。
培训内容包括智能客服技术、基于深度学习的推荐系统设计、知识图谱技术与在企业中的落地 、NLP技术在知乎等主流媒体的应用、自然语言处理技术在推荐系统中的应用;机器学习、深度学习技术在营销、风控方面建模的技术实现与实操。
注:此培训由供应商提供标准课程,我们内部再做选择。
授课对象: 希望从事自然语言处理方向的软件开发人员
预备知识: 线性代数,概率论,数值分析
课程大纲 第一部分深度学习中的自然语言处理
一. 什么是自然语言处理,人类的语言结构是什么
二. 什么是深度学习
三. 语义理解的难点
第二部分机器学习中的一些基本算法
一. 学习算法
二. 过拟合与欠拟合
三. 最大似然估计
四. 贝叶斯统计
五. 无监督学习算法
六. 监督学习算法
七. 随机梯度下降
第三部分DeepNLP
一. 词向量表示
1. 词义
2. Wor2vec介绍
3. Wor2vec目标函数梯度
4. Wor2vec的作用
二. 神经网络
1. 感知器
2. 双层神经网络
3. 神经网络的发展历史与结构
三. 后馈神经网络
四. 循环神经网络
五. 依赖解析
1. 句法结构:一致性和依赖性
2. 依赖语法
3. 基于转换的依赖解析
六. Tensorflow介绍
七. 长短期记忆网络
八. 注意力模型
1. 翻译,机器翻译,神经机器翻译
2. 基于注意力的序列模型
3. 序列模型解码器
九. NMT中的门控制循环单元
1. 机器翻译的评估
2. 处理大量的输出词汇
3. 分词和基于字符的模型
十. 语言处理中的端到端模型
1. 现阶段联结主义的分类方法
2. LAS一个实现语音识别的基于序列到序列模型
3. LAS的改进
4. 语言模型的整合
十一. 卷积神经网络
十二. 树状结构的递归神经网络与区域词法分析
1. 动机:语义合成与递归
2. 基于简单树RNN的结构预测
3. 通过结构的反向传播
4. 更加复杂的递归单元
十三. 问题回答中的动态神经网络
十四. 实现NLP的可能架构
1. 解决语言类问题的高阶需求
2. 高效的树递归模型:SPINN和SNLI
3. 分词和基于字符的模型
十五. Deep NLP的局限性
|
|
讲师介绍
--------------------------------- |
龚老师 博士,高级架构师,北京理工大学软件研究所计算机应用技术专业。在软件行业工作近二十年,近50多个大中型项目的主持、管理、开发经验。主要学术成果: 近年来先后在国内外重要刊物发表论文20多篇,多篇被EI收录,出版著作4部。参与完成自然科学基金项目2项,参与纵向课题5项,主持横向科研项目5项。 |
|
开课时间:2020-11-11 |
温馨提示:本课程可邀请老师到企业内部培训! |
机构名称:深圳市威硕企业管理咨询有限公司 |
咨询电话:0755-26506757 33558698 |
课程地区:广东
|
联 系 人:李正华先生 彭静小姐 郑江波先生 |
浏览次数:
|
电子信箱:martin@ways.org.cn |
|
 |
|
|