普通会员
225648
338
352
2、Model Represent,从一个简单的神经元引入 如图,有三个feature,将feature作为输入,同样加入x0并置1,这里我们称x0为偏置项(bias unit)。输入经过一个神经元,最后得到我们的假设函数,假设函数形式任然采用Sigmoid函数,在这里称Sigmoid函数为激活函数(activation function),也称theta为权值(weights)。 同样,当扩展到多个神经元时如下: 这里我们称layer1为输入层(input layer),layer3为输出层(output layer),介于layer1和layer3之间的为隐藏层(hidden layers),这里为layer2.同时,我们称隐藏层的结点为激活结点(activation units)。a0项也为1(也称做偏置项(bias unit)). 以一个具体神经网络为例解释计算过程:
项称第j层第i个结点 项称为第j层到第j+1层权值矩阵。并且有S(j)表示第j层的结点数,S(j+1)表示第j+1层结点数。
3、vectorized implementation(向量化表示) 以图中每个激活结点和假设函数的的具体计算过程为例。 我们引入变量Z并给出向量化实现: 以第二层为例,k表示结点序号,向量Z为: 因为所以我们得到Z的公式(其中j大于等于1) 所以激活结点的向量化表示如下: 进一步化简
同时,也得到假设函数的向量化表示如下:
发表回复 请登录后发表回复
触屏版| 电脑版
技术支持 历史网 V2.0 © 2016-2017