作者丨Edison_G

来源丨计算机视觉研究院

编辑丨极市平台

深度学习训练过程一直处于黑匣子状态,有很多同学问我具体怎么解释?其实很多还是无法可解释,但是通过可视化,具体可以知道深度学习在训练过程到底学习了哪些特征?到底对该目标的哪些特征感兴趣?这些我们现在已经有很多渠道可以得知,我先给大家介绍几个比较好的工具!

1.深度学习网络结构画图工具

地址:

https://cbovar.github.io/ConvNetDraw/

2.caffe可视化工具

输入:caffe配置文件 输出:网络结构

地址:

http://ethereon.github.io/netscope/#/editor

3.深度学习可视化工具Visual DL

Visual DL是百度开发的,基于echar和PaddlePaddle,支持PaddlePaddle,PyTorch和MXNet等主流框架。ps:这个是我最喜欢的,毕竟echar的渲染能力不错哈哈哈,可惜不支持caffe和tensorflow。

地址:

https://github.com/PaddlePaddle/VisualDL

4.结构可视化工具PlotNeuralNet

萨尔大学计算机科学专业的一个学生开发。

地址:

https://github.com/HarisIqbal88/PlotNeuralNet

其实还有很多可视化工具,但是今天我要说的是,训练过程的可视化,与TF的可视化类似,但是这个操作更加简便!

这个工具到底把训练过程展示得多么详细?简单来说,项目作者已经给你做好了一个可以交互的界面,你只需要打开浏览器加载出这个界面就可以了。CNN Explainer 使用 TensorFlow.js 加载预训练模型进行可视化效果,交互方面则使用 Svelte 作为框架并使用 D3.js 进行可视化。最终的成品即使对于完全不懂的新手来说,也没有使用门槛。下面我们来看一下具体的效果。

卷积

超参数

softmax

ReLU

MaxPool

通过整个过程,想必大家对过程有详细了解,如果你技术好的,你可以通过深度学习平台直接可视化训练过程,那个过程想必比这个更加详细。




Logo

尧米是由西云算力与CSDN联合运营的AI算力和模型开源社区品牌,为基于DaModel智算平台的AI应用企业和泛AI开发者提供技术交流与成果转化平台。

更多推荐