PS:两层的神经网络训练线性回归,代码参考了莫烦的,GitHub上有,然后又往里面加了关于Timeline的部分
一、代码
二、tensorboard
PS :真心不是很会看这个分析图,可以看看下面这篇博客
https://blog.csdn.net/u010099080/article/details/77426577
SCALAR
- 图的左下角的3 个小图标,第一个:查看大图,第二个:是否对 y 轴对数化,第三个:是放大和复原
- 术语解释:
Smoothing : 指的是作图时曲线的平滑程度,使用类似指数平滑的处理方法,默认是 0.6。
STEP:横轴显示的是训练迭代次数
RELATIVE:训练的相对时间,相对于训练开始的时间
WALL:训练的绝对时间
DISTRIBUTIONS
从上到下的折线,随着横轴训练次数,纵轴参数的多分位数图
从上到下表示不同的分位数 [maximum, 93%, 84%, 69%, 50%, 31%, 16%, 7%, minimum]
HISTOGRAMS
- HISTOGRAMS 和 DISTRIBUTIONS 是对同一数据不同方式的展现。HISTOGRAMS是 频数分布直方图的堆叠,横轴表示权重值,纵轴表示训练步数。颜色越深表示时间越早,越浅表示越接近训练结束
- 两种模式:都是横轴为权重值,纵轴为频数
OVERLAY 二维表示
OFFSET 三维表示
GRAPH
图像颜色两种模式:
基于结构的模式(Structure),相同的节点会有同样的颜色
基于硬件(Device),同一个硬件上的会有相同颜色
术语解释:
Run 创建了几个不同的Session(改变了超参数),对应的计算图
Session runs:一个session里,不同训练次数,对应的计算图
三、Timeline
真心看不懂