Regularization
PS:要明确的是正则化是对过拟合现象的修正,不是必须要做的
1. L2 Regularization
1.每前向传播完成后计算 cost function 需要加上正则化项
2.反向传播计算dW时也需要加上正则化项
3.权重W变为较小的值,从而防止过拟合
2. Dropout
1.将前一层的输出同时是这一层的输入A[l],以一定概率keep_prob丢弃,再将剩余的 A[l]除以keep_prob (而不影响下一层的计算)
2.反向传播时,对于 dA[l] 进行同样的丢弃和缩放