Building your Deep Neural Network: Step by Step
L层神经网络:前L-1层的激励函数是ReLU,输出层激励函数是sigmod
1 | #Building your Deep Neural Network: Step by Step |
PS:我做作业的时候,遇到最大的麻烦就是几个参数的上标,还有对应那一层的 cache
1.下面是我整理的,程序对应的框图:
2.参数整理
1 | parameters 字典类型 |
1 | grads 字典类型 |
1 | cache 存储当前层的 A_prev,W,b,Z |
1 | caches 存储所有的 A_prev, W, b, Z (caches[l]对应l+1层) |