TensorFlow自然语言处理 - (EPUB全文下载)
文件大小:0.49 mb。
文件格式:epub 格式。
书籍内容:
TensorFlow自然语言处理
第1章 自然语言处理简介
1.1 什么是自然语言处理
1.2 自然语言处理的任务
1.3 传统的自然语言处理方法
1.3.1 理解传统方法
1.3.2 传统方法的缺点
1.4 自然语言处理的深度学习方法
1.4.1 深度学习的历史
1.4.2 深度学习和NLP的当前状况
1.4.3 理解一个简单的深层模型——全连接神经网络
1.5 本章之外的学习路线
1.6 技术工具简介
1.6.1 工具说明
1.6.2 安装Python和scikit-learn
1.6.3 安装Jupyter Notebook
1.6.4 安装TensorFlow
1.7 总结
第2章 理解TensorFlow
2.1 TensorFlow是什么
2.1.1 TensorFlow入门
2.1.2 TensorFlow客户端详细介绍
2.1.3 TensorFlow架构:当你执行客户端时发生了什么
2.1.4 Cafe Le TensorFlow:使用类比理解TensorFlow
2.2 输入、变量、输出和操作
2.2.1 在TensorFlow中定义输入
2.2.2 在TensorFlow中定义变量
2.2.3 定义TensorFlow输出
2.2.4 定义TensorFlow操作
2.3 使用作用域重用变量
2.4 实现我们的第一个神经网络
2.4.1 准备数据
2.4.2 定义TensorFLow图
2.4.3 运行神经网络
2.5 总结
第3章 Word2vec——学习词嵌入
3.1 单词的表示或含义是什么
3.2 学习单词表示的经典方法
3.2.1 WordNet——使用外部词汇知识库来学习单词表示
3.2.2 独热编码表示方式
3.2.3 TF-IDF方法
3.2.4 共现矩阵
3.3 Word2vec——基于神经网络学习单词表示
3.3.1 练习:queen=king–he+she吗
3.3.2 为学习词嵌入定义损失函数
3.4 skip-gram算法
3.4.1 从原始文本到结构化的数据
3.4.2 使用神经网络学习词嵌入
3.4.3 使用TensorFlow实现skip-gram
3.5 连续词袋算法
3.6 总结
第4章 高级Word2vec
4.1 原始skip-gram算法
4.1.1 实现原始skip-gram算法
4.1.2 比较原始skip-gram算法和改进的skip-gram算法
4.2 比较skip-gram算法和CBOW算法
4.2.1 性能比较
4.2.2 哪个更胜一筹:skip-gram还是CBOW
4.3 词嵌入算法的扩展
4.3.1 使用unigram分布进行负采样
4.3.2 实现基于unigram的负采样
4.3.3 降采样:从概率上忽视常用词
4.3.4 实现降采样
4.3.5 比较CBOW及其扩展算法
4.4 最近的skip-gram和CBOW的扩展算法
4.4.1 skip-gram算法的限制
4.4.2 结构化skip-gram算法
4.4.3 损失函数
4.4.4 连续窗口模型
4.5 GloVe:全局向量表示
4.5.1 理解GloVe
4.5.2 实现GloVe
4.6 使用Word2vec进行文档分类
4.6.1 数据集
4.6.2 用词向量进行文档分类
4.6.3 实现:学习词嵌入
4.6.4 实现:词嵌入到文档嵌入
4.6.5 文本聚类以及用t-SNE可视化文档嵌入
4.6.6 查看一些特异点
4.6.7 实现:用K-means对文档进行分类/聚类
4.7 总结
第5章 用卷积神经网络进行句子分类
5.1 介绍卷积神经网络
5.1.1 CNN基础
5.1.2 卷积神经网络的力量
5.2 理解卷积神经网络
5.2.1 卷积操作
5.2.2 池化操作
5.2.3 全连接层
5.2.4 组合成完整的CNN
5.3 练习:在MNIST数据集上用CNN进行图片分类
5.3.1 关于数据
5.3.2 实现CNN
5.3.3 分析CNN产生的预测结果
5.4 用CNN进行句子分类
5.4.1 CNN结构
5.4.2 随时间池化
5.4.3 实现:用CNN进行句子分类
5.5 总结
第6章 递归神经网络
6.1 理解递归神经网络
6.1.1 前馈神经网络的问题
6.1.2 用递归神经网络进行建模
6.1.3 递归神经网络的技术描述
6.2 基于时间的反向传播
6.2.1 反向传播的工作原理
6.2.2 为什么RNN不能直接使用反向传播
6.2.3 基于时间的反向传播:训练RNN
6.2.4 截断的BPTT:更有效地训练RNN
6.2.5 BPTT的限制:梯度消失和梯度爆炸
6.3 RNN的应用
6.3.1 一对一RNN
6.3.2 一对多RNN
6.3.3 多对一RNN
6.3.4 多对多RNN
6.4 用RNN产生文本
6.4.1 定义超参数
6.4.2 将输入随时间展开用于截断的BPTT
6.4.3 定义验证数据集
6.4.4 定义权重和偏置
6.4.5 定义状态持续变量
6.4.6 用展开的输入计算隐藏状态和输出
6.4.7 计算损失
6.4.8 在新文本片段的开头重置状态
6.4.9 计算验证输出
6.4.10 计算梯度和优化
6.4.11 输出新生成的文本块
6.5 评估RNN的文本结果输出
6.6 困惑度:衡量文本结果的质量
6.7 有上下文特征的递归神经网络:更长记忆的RNN
6.7.1 RNN-CF的技术描述
6.7.2 实现RNN-CF
6.7.3 RNN-CF产生的文本
6.8 总结
第7章 长短期记忆网络
7.1 理解长短期记忆网络
7.1.1 LSTM是什么
7.1.2 更详细的LSTM
7.1.3 LSTM与标准RNN的区别
7.2 LSTM如何解决梯度消失问题
7.2.1 改进LSTM
7.2.2 贪婪采样
7.2.3 集束搜索
7.2.4 使用词向量
7.2.5 双向LSTM(BiLSTM)
7.3 其他LSTM的变体
7 ............
以上为书籍内容预览,如需阅读全文内容请下载EPUB源文件,祝您阅读愉快。
书云 Open E-Library » TensorFlow自然语言处理 - (EPUB全文下载)