《深度学习入门:基于Python的理论与实现》斋藤康毅 - (EPUB全文下载)
文件大小:4.45 mb。
文件格式:epub 格式。
书籍内容:
版权信息
书名:深度学习入门:基于Python的理论与实现
作者:[日] 斋藤康毅
译者:陆宇杰
ISBN:978-7-115-48558-8
本书由北京图灵文化发展有限公司发行数字版。版权所有,侵权必究。
您购买的图灵电子书仅供您个人使用,未经授权,不得以任何方式复制和传播本书内容。
我们愿意相信读者具有这样的良知和觉悟,与我们共同保护知识产权。
如果购买者有侵权行为,我们可能对该用户实施包括但不限于关闭该帐号等维权措施,并可能追究法律责任。
图灵社区会员 dome(blueorea1127@live.cn) 专享 尊重版权
版权声明O'Reilly Media, Inc.介绍业界评论译者序前言本书的理念本书面向的读者本书不面向的读者本书的阅读方法让我们开始吧表述规则致谢第 1 章 Python 入门1.1 Python是什么1.2 Python的安装1.2.1 Python版本1.2.2 使用的外部库1.2.3 Anaconda发行版1.3 Python解释器1.3.1 算术计算1.3.2 数据类型1.3.3 变量1.3.4 列表1.3.5 字典1.3.6 布尔型1.3.7 if 语句1.3.8 for 语句1.3.9 函数1.4 Python脚本文件1.4.1 保存为文件1.4.2 类1.5 NumPy1.5.1 导入 NumPy1.5.2 生成 NumPy 数组1.5.3 NumPy 的算术运算1.5.4 NumPy 的 N 维数组1.5.5 广播1.5.6 访问元素1.6 Matplotlib1.6.1 绘制简单图形1.6.2 pyplot 的功能1.6.3 显示图像1.7 小结第 2 章 感知机2.1 感知机是什么2.2 简单逻辑电路2.2.1 与门2.2.2 与非门和或门2.3 感知机的实现2.3.1 简单的实现2.3.2 导入权重和偏置2.3.3 使用权重和偏置的实现2.4 感知机的局限性2.4.1 异或门2.4.2 线性和非线性2.5 多层感知机2.5.1 已有门电路的组合2.5.2 异或门的实现2.6 从与非门到计算机2.7 小结第 3 章 神经网络3.1 从感知机到神经网络3.1.1 神经网络的例子3.1.2 复习感知机3.1.3 激活函数登场3.2 激活函数3.2.1 sigmoid 函数3.2.2 阶跃函数的实现3.2.3 阶跃函数的图形3.2.4 sigmoid 函数的实现3.2.5 sigmoid 函数和阶跃函数的比较3.2.6 非线性函数3.2.7 ReLU函数3.3 多维数组的运算3.3.1 多维数组3.3.2 矩阵乘法3.3.3 神经网络的内积3.4 3 层神经网络的实现3.4.1 符号确认3.4.2 各层间信号传递的实现3.4.3 代码实现小结3.5 输出层的设计3.5.1 恒等函数和 softmax 函数3.5.2 实现 softmax 函数时的注意事项3.5.3 softmax 函数的特征3.5.4 输出层的神经元数量3.6 手写数字识别3.6.1 MNIST 数据集3.6.2 神经网络的推理处理3.6.3 批处理3.7 小结第 4 章 神经网络的学习4.1 从数据中学习4.1.1 数据驱动4.1.2 训练数据和测试数据4.2 损失函数4.2.1 均方误差4.2.2 交叉熵误差4.2.3 mini-batch 学习4.2.4 mini-batch 版交叉熵误差的实现4.2.5 为何要设定损失函数4.3 数值微分4.3.1 导数4.3.2 数值微分的例子4.3.3 偏导数4.4 梯度4.4.1 梯度法4.4.2 神经网络的梯度4.5 学习算法的实现4.5.1 2 层神经网络的类4.5.2 mini-batch 的实现4.5.3 基于测试数据的评价4.6 小结第 5 章 误差反向传播法5.1 计算图5.1.1 用计算图求解5.1.2 局部计算5.1.3 为何用计算图解题5.2 链式法则5.2.1 计算图的反向传播5.2.2 什么是链式法则5.2.3 链式法则和计算图5.3 反向传播5.3.1 加法节点的反向传播5.3.2 乘法节点的反向传播5.3.3 苹果的例子5.4 简单层的实现5.4.1 乘法层的实现5.4.2 加法层的实现5.5 激活函数层的实现5.5.1 ReLU层5.5.2 Sigmoid 层5.6 Affine/Softmax 层的实现5.6.1 Affine 层5.6.2 批版本的 Affine 层5.6.3 Softmax-with-Loss 层5.7 误差反向传播法的实现5.7.1 神经网络学习的全貌图5.7.2 对应误差反向传播法的神经网络的实现5.7.3 误差反向传播法的梯度确认5.7.4 使用误差反向传播法的学习5.8 小结第 6 章 与学习相关的技巧6.1 参数的更新6.1.1 探险家的故事6.1.2 SGD6.1.3 SGD 的缺点6.1.4 Momentum6.1.5 AdaGrad6.1.6 Adam6.1.7 使用哪种更新方法呢6.1.8 基于 MNIST 数据集的更新方法的比较6.2 权重的初始值6.2.1 可以将权重初始值设为 0 吗6.2.2 隐藏层的激活值的分布6.2.3 ReLU的权重初始值6.2.4 基于 MNIST 数据集的权重初始值的比较6.3 Batch Normalization6.3.1 Batch Normalization 的算法6.3.2 Batch Normalization的评估6.4 正则化6.4.1 过拟合6.4.2 权值衰减6.4.3 Dropout6.5 超参数的验证6.5.1 验证数据6.5.2 超参数的最优化6.5.3 超参数最优化的实现6.6 小结第 7 章 卷积神经网络7.1 整体结构7.2 卷积层7.2.1 全连接层存在的问题7.2.2 卷积运算7.2.3 填充7.2.4 步幅7.2.5 3 维数据的卷积运算7.2.6 结合方块思考7.2.7 批处理7.3 池化层7.4 卷积层 ............
书籍插图:
以上为书籍内容预览,如需阅读全文内容请下载EPUB源文件,祝您阅读愉快。
书云 Open E-Library » 《深度学习入门:基于Python的理论与实现》斋藤康毅 - (EPUB全文下载)