avatar

目录
深度学习笔记

神经网络的结构

注意:笔记中函数可能指的是映射,请根据上下文判别

以下以像素的灰度值作为神经元的激活值

每个神经元都是一个函数,输入加权和处理后得出一个激活值决定其是否被激活

MLP

MLP

MLP可能含有多个隐含层

激活神经元

加权和

下层的一个神经元会给上层每个神经元一个权重,首先计算其加权和

加权和

识别边

由于一条边中间亮,周围暗

给边上的神经元赋予负的权重,给中心神经元不同的正权重,给其他神经元赋予0

即可使得识别结果的加权和达到最大

压缩

sigmoid函数可以把加权和压缩到0-1之间

下层每个神经元都有一个偏置,描述加权和激活其的阈值

现在一般使用ReLU函数对加权结果进行处理

sigmoid

描述

可以使用线性代数的方式描述激活过程

对上层激活值矩阵使用加权矩阵加上偏置矩阵并进行压缩操作即可得到下层激活值矩阵

描述

未完待续

文章作者: 自由灵
文章链接: https://lemona.tk/810a0813.html
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 自由灵的梦境
打赏
  • 微信
    微信
  • 支付寶
    支付寶

评论