TensorBoard详细使用教程!
2026/4/24 19:27:31 网站建设 项目流程

在深度学习的训练过程中,我们经常需要直观地观察模型的训练曲线、参数变化、网络结构以及中间特征图,而不是盲目地看 loss 数字。之前知道TensorBoard这个工具,也用过,但研究之后才发现这玩意这么好用!

它是TensorFlow 官方推出的可视化工具,但如今 PyTorch、JAX、MindSpore 等框架也已全面兼容。

无论你是调试模型还是展示实验结果,TensorBoard 都能让你事半功倍。

所有相关源码示例、流程图、模型配置与知识库构建技巧,我也将持续更新在Github:LLMHub,欢迎关注收藏!

一、安装与启动

TensorBoard 的安装非常简单:

pipinstalltensorboard

启动命令:

tensorboard --logdir=./runs --port=6006

然后在浏览器中访问:

http://localhost:6006

提示:--logdir指向你保存日志的文件夹路径,比如 PyTorch 默认保存到runs/下。

二、在 PyTorch 中使用 TensorBoard

初始化 SummaryWriter

fromtorch.utils.tensorboardimportSummaryWriter writer=SummaryWriter(log_dir="./runs/exp1")

这行代码就会创建一个用于写入日志的对象,exp1是实验名称。

记录训练指标

forepochinrange(10):train_loss=0.1*epoch val_acc=0.8+0.02*epoch writer.add_scalar("Loss/train",train_loss,epoch)writer.add_scalar("Accuracy/val",val_acc,epoch)

打开 TensorBoard 后,就能看到漂亮的折线图啦:

Scalars选项卡用于展示损失函数、准确率等指标随 epoch 的变化趋势。

可视化模型结构

# === 定义一个简单的 MLP 模型 ===classMLP(nn.Module):def__init__(self):super(MLP,self).__init__()self.fc1=nn.Linear(28*28,128)self.fc2=nn.Linear(128,64)self.fc3=nn.Linear(64,10)defforward(self,x):x=x.view(-1,28*28)x=torch.relu(self.fc1(x))x=torch.relu(self.fc2(x))x=self.fc3(x)returnx model=MLP()criterion=nn.CrossEntropyLoss()optimizer=optim.Adam(model.parameters(),lr=0.001)# === 模型结构可视化 ===dummy_input=torch.randn(1,1,28,28)writer.add_graph(model,dummy_input)

在 TensorBoard 的Graphs页面中,你可以看到网络的计算图结构,帮助你排查模型拼接或梯度传递错误,这个确实足够优秀了,画出来的模型结构也很清晰。

可视化特征图(Feature Maps)

假设我们在卷积层之后想看看模型提取了什么特征:

images=torch.randn(16,3,32,32)writer.add_images("Input Images",images,0)

对于特征图,可以通过make_grid拼接后写入:

fromtorchvision.utilsimportmake_grid feature_maps=torch.randn(16,1,28,28)grid=make_grid(feature_maps,nrow=4,normalize=True)writer.add_image("Feature Maps",grid,0)

这在调试 CNN 时非常有用。

三、高级功能与技巧

Embedding 可视化(高维特征降维)

在模型训练结束后,我们可以用 TensorBoard 来查看高维向量的分布(常用于可视化词向量、图像特征):

importnumpyasnp features=np.random.rand(100,128)labels=[f"class_{i%10}"foriinrange(100)]writer.add_embedding(features,metadata=labels,tag="Embedding_demo")

打开Projector页面,就能看到点云分布及类别区分情况,这里让我挺震惊的,他是三维动画形式的,如果数据量再大一些我想应该会非常优美。

超参数追踪(HParams)

# === 超参数记录 ===writer.add_hparams({'lr':0.001,'batch_size':64,'epochs':epochs},{'accuracy':test_acc,'loss':test_loss})

这样你可以在 TensorBoard 的HParams选项卡中对比不同实验参数的表现,非常适合调参阶段。

记录混淆矩阵

cm=confusion_matrix(all_targets,np.array(all_preds).flatten())fig,ax=plt.subplots(figsize=(8,6))sns.heatmap(cm,annot=True,fmt="d",cmap="Blues",ax=ax)ax.set_xlabel("Predicted")ax.set_ylabel("True")writer.add_figure("Confusion Matrix",fig)

这种方式比单纯打印矩阵更直观,我们平时看的很多论文就有这种图像。

对比多次实验

多个实验只需写入不同目录即可,例如:

runs/ ├── exp_lr_1e-3/ ├── exp_lr_1e-4/ └── exp_lr_5e-4/

TensorBoard 会自动加载所有实验的指标,方便对比曲线趋势。

但是TensorBoard也会存在一些问题,比如当日志太多时就会导致加载速度慢,所以就需要我们定期清理runs

文件夹,或使用--samples_per_plugin限制加载数量。

TensorBoard 是深度学习工程师的必备工具。它不仅能让训练过程「看得见」,还能帮助我们调试网络结构、分析收敛趋势与异常点、追踪参数与特征变化、展示实验结果与模型可解释性。

会跑模型很重要,但是会使用可视化工具同等重要,毕竟可以大幅提升我们处理数据的速度,帮助我们迸发新的idea!

关于深度学习和大模型相关的知识和前沿技术更新,请关注公众号coting!

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询