神经网络基础

本文最后更新于 2025年5月10日 晚上

Cross-Entropy Loss

\[ J(W)=\frac{1}{m}\sum^{m-1}_{i=0}\sum^{n-1}_{j=0} y_{ij}\log(\hat y_{ij}) \]

Backpropagation

denote:

每层的误差项 \(\delta\) 表示的是一个误差向量,每层之间连接的权重 \(W\) 表示的是一个权重矩阵

误差项在反向传播中的递推关系:

(1)输出层与上一层: \[ \delta^L=\nabla_{a^L}C\circ \sigma'(z^L) \] (2)\(l\) 层与 \(l+1\)\[ \delta^{l}=(W^{l+1})^T\delta^{l+1}\circ\sigma'(z^l) \] 根据 Stochastic Gradient Descent 方法,通过误差项来修正权重与偏置:

(1)权重 \[ \frac{\partial C}{\partial W^l_{jk}}=\delta^l_j\cdot a^{l-1}_{k} \] (2)偏置 \[ \frac{\partial C}{\partial b^{l}_j}=\delta^l_j \]


神经网络基础
http://blog.kdata.top/2025/03/11/机器学习/神经网络基础/
作者
Louis Liang
发布于
2025年3月11日
许可协议