实战深度学习算法:零起点通关神经网络模型(基于Python和NumPy实现) - (EPUB全文下载)

文件大小:1.66 mb。
文件格式:epub 格式。
书籍内容:

实战深度学习算法:零起点通关神经网络模型(基于Python和NumPy实现)
第1章 基础分类模型
第2章 第一个神经网络
第3章 多层全连接神经网络
第4章 卷积神经网络(CNN)
第5章 卷积神经网络——算法提速和优化
第6章 批量规范化(Batch Normalization)
第7章 循环神经网络(Vanilla RNN)
第8章 长短时记忆网络(LSTM)——指数分析
第9章 双向门控循环单元(BiGRU)——情感分析
附录A 向量和矩阵运算
附录B 导数和微分
附录C 向量和矩阵导数
附录D 概率论和数理统计
后记
索引
第1章 基础分类模型
"By the study of systems such as the perceptron,it is hoped that those fundamental laws of organization which are common to all information handling systems,machines and men included,may eventually understood."
“探究感知机这类系统,我们有望最终理解那些基本法则,那些将信息认知赋能于机器和人类的基本法则。”
Frank Rosenblatt@Connell Aeronautical
Laboratory,1958
本章简要介绍深度学习的概念,接着提出第一个目标问题:二分类问题;然后介绍感知机模型的原理及其解决问题的过程;再给出感知机的一种算法实现供参考;最后在目标问题上,观察分类效果。
1.1 深度学习简介
机器学习是解决人工智能问题的方法之一,深度学习是机器学习方法下的一个重要子类别,三者之间是依次从属的关系:
在图像和语音识别、机器翻译、策略游戏等领域,深度学习的表现超越了传统机器学习,深度学习模型的结构也较传统机器学习更加复杂。完整的深度学习模型往往是由不同处理层组合而成的复合结构模型,庞大而复杂;如果把整体模型分解开来,就会发现组成模型的要素是一个个设计精巧的基础算法,这些基础算法一部分来自积淀深厚的传统机器学习方法,一部分是深度学习的创新方法;在这些基础算法的支撑下,深度学习在诸多应用领域取得了前所未有的突破。
深度学习处理问题的过程可以描述为:通过在数据集上的迭代训练,捕捉分析对象的特征,并学习特征和输出表达之间的联系,继而根据同类对象的输入特征,实现对输出表达信息的推理。
通过接下来的第一个目标问题,可以直观理解这一过程。
1.2 目标问题:空间中的二分类
“能正确地提出问题,你已经解决了问题的一半。”
分类问题,是深度学习的常见问题场景,目的是把数据实例按照既定分类划分到不同类别归属上。二分类是最基本的分类问题。
想象 D 维空间里分布着 N 个线性可分的实例点 xi,当 D=3时,这个空间即是一个便于理解的三维空间,其上的任意实例点xi,都有三个特征、;如果把实例点看成是3维实数向量x=(x(1), x(2)x(3))T,则向量的三个特征分量决定了实例点 xi的二分类类别 yi={+1,-1},如图1.1所示。二分类问题的目标,是找出实例点 xi的特征到输出类别 yi的对应关系。这个对应关系可以表达为映射函数 f:
图1.1 三维空间中的线性可分样本
如果能找到映射函数 f,就能根据实例点的特征,对空间中的样本做类别归属划分。感知机模型是找到映射函数的一种有效方法。
1.3 感知机模型
感知机(Perceptron)模型是一个简洁的分类模型,由Rosenblatt在1957年提出,能够对线性可分样本做二分类,是人工神经网络方法的理论基石。
1.3.1 感知机函数
感知机模型可以把目标问题中的从输入实例点 xi的特征到输出类别 yi的映射表示为如下函数:
其中“·”表示两个向量的内积(inner product)运算;w 称为权值向量(weight vector);b是实数标量,称为偏置(bias);sign(·)是符号函数,将自变量 x进一步映射到 yi的输出类别 {+1,-1}上。
接下来定义空间里的超平面,用线性方程表示:
这个超平面按照输出类别 yi={+1,-1},将实例点 x 划分在平面两侧,如图1.2所示。
图1.2 感知机模型:输入数据的每个样本都有 D 个特征,这些特征经过感知机函数处理,输出样本的二分类归属类别
对正实例点 yi=+1有 w · x+b>0;
对负实例点 yi=-1有 w · x+b<0。

平面上任意两个不同实例点,都满足
而内积的几何意义是向量 a在另一个向量 b方向上的投影长度与 b长度的乘积,可知是与分离超平面上任意切向量正交的法向量,这也是平面点法式方程的定义。
通过某种学习策略找到权值向量(法向量)和偏置(截距)b这两个参数,确定划分正负实例点的超平面,就能对输入的 D 维空间上散布的线性可分实例点 xi做二分类预测。
1.3.2 损失函数
为了找到合适的权值向量w和偏置b,先定义连续可导的损失函数(Loss Function),再将损失函数极小化,以找到所有可能的分离超平面中较优的一个。如果损失函数是凸函数,还可以用数值方法得到全局最优解,学习策略就成为求解最优化问题。
能够完成样本分类的映射函数 f 可能不止一个,F 是所有能划分输入样本点的感知机模型 f 的集合;N 是训练样本容量;L是模型 f 的损失函数。
损失函数仅仅是对一次预测的好坏度量,然而根据大数定理,当样本点容量 N 足够大时,样本点集合上,由损失函数得到的平均损失,趋近于总体分布在分类模型上的期望损失,从而可以用数理统计方法得到理想概率模型的近似解。
损失函数有多种经典选择,对二分类问题可以选择造成模型损失的误分类点到分离超平面的总距离来度量损失。
对任意一个样本点 xi,我们可以根据点到平面的距离公式,得出它到超平面的距离:
式中是法向量 w 到 D 维空间原点的欧氏距离,也称 w 的 L2 范数(L2 norm ............

以上为书籍内容预览,如需阅读全文内容请下载EPUB源文件,祝您阅读愉快。

版权声明:书云(openelib.org)是世界上最大的在线非盈利图书馆之一,致力于让每个人都能便捷地了解我们的文明。我们尊重著作者的知识产权,如您认为书云侵犯了您的合法权益,请参考版权保护声明,通过邮件openelib@outlook.com联系我们,我们将及时处理您的合理请求。 数研咨询 流芳阁 研报之家 AI应用导航 研报之家
书云 Open E-Library » 实战深度学习算法:零起点通关神经网络模型(基于Python和NumPy实现) - (EPUB全文下载)