Open-Source LLM Viz Hub

汇总并站内嵌入优秀开源可视化项目,快速比较不同交互叙事风格。

核心概念

开源可视化项目评测与集成

难度

进阶

状态

已发布

阅读时长

约 1 分钟

更新日期

2026/03/18

交互仿真

直接动手调参,观察变量变化与行为差异。

开源可视化实验台

在站内直接体验优秀开源项目,快速对比交互体验与讲解深度,再决定是否深度二次开发。

站内嵌入预览

该项目支持站内预览,可直接体验。

中文实验任务

学习焦点:把 next-token 预测拆成 attention、残差流和 logits 的连续决策过程。

15 分钟

联动建议:做完后切到 LLM Visualization,对照二维机制讲解和三维结构视图的差异。

任务 1

跟踪一次 next-token 决策

让模型补全一个确定性事实短句,看看答案是在哪几层逐步收敛出来的。

  • 输入类似 `The capital of France is` 的 prompt。
  • 逐层查看注意力和残差流,记录候选 token 排名何时开始稳定。
  • 对比最后两层里 `Paris` 与其他候选词的差距。

重点观察: 看模型是在前期粗筛、后期收敛,还是很早就锁定答案。

预期收获: 理解 Transformer 的答案形成是逐层强化,而不是一步生成。

任务 2

比较实体替换前后的关注重排

只替换 prompt 里的一个实体,观察全局结构不变时注意力如何重排。

  • 把句子改成 `The capital of Germany is`。
  • 对比两次运行中高亮 token 和热点区域的位置变化。
  • 记录哪些层几乎不变,哪些层会明显重新聚焦。

重点观察: 关注语法骨架是否稳定,实体相关 token 是否触发局部重排。

预期收获: 建立“语义变化如何传导到 token-level 决策”的直觉。

任务 3

故意制造不确定性

给模型一个开放式问题,对比它在不确定场景下的候选分布。

  • 输入类似 `The best city to visit is` 的开放式 prompt。
  • 观察最后几层 top tokens 是否长期保持分散。
  • 再回到确定性事实问题,比较收敛速度。

重点观察: 重点看候选概率是否更扁平、层间收敛是否更慢。

预期收获: 把“模型不确定”具体化为可观察的概率分布变化。

学习记录区

本地保存当前项目的实验进度与观察笔记,刷新后仍可继续,适合边看边记。

已完成 0 / 3 个任务

尚未保存当前项目笔记

让模型补全一个确定性事实短句,看看答案是在哪几层逐步收敛出来的。

只替换 prompt 里的一个实体,观察全局结构不变时注意力如何重排。

给模型一个开放式问题,对比它在不确定场景下的候选分布。

关联主题

模拟目标

  • 在一个页面中对比不同开源可视化项目的讲解方式与交互深度
  • 为 DMXSF 后续二次开发选择更合适的底座
  • 让读者先体验真实开源项目,再进入本站教程与论文解读

当前接入项目

  1. Transformer Explainer(MIT,6.9k+ stars):浏览器端可运行 GPT-2,支持注意力、残差流等细粒度观察。
  2. LLM Visualization(3D,5.3k+ stars):用三维结构展示 GPT 推理路径,突出“结构感”和信息流。
  3. AttentionViz(MIT):面向研究分析的 query-key 联合嵌入可视化。
  4. MicroGPT Visualizer:从 tokenizer 到训练过程的教学型拆解可视化。
  5. RAGViz(MIT):文档级 + token 级关注分析,适合 RAG 归因诊断。
  6. BertViz(Apache-2.0):Notebook 生态中最常用的注意力解释工具之一。
  7. Ecco(BSD-3-Clause):支持 logit lens、归因与神经元激活分析。

使用建议(按场景)

  • 面向教学:优先 Transformer Explainer + MicroGPT Visualizer。
  • 面向研究:优先 AttentionViz + BertViz + Ecco。
  • 面向 RAG 工程:优先 RAGViz,再结合本站后续 RAG Flow Simulator。

集成策略说明

当前采用“混合集成”策略:

  • 站内嵌入:能 iframe 预览的项目直接嵌入,降低体验门槛。
  • 外部深度体验:Notebook/Colab 类项目保留官方入口,保证功能完整性。
  • 中文实验任务:每个项目都提供 3 个可直接执行的观察任务,方便教学与自学。
  • 学习记录区:支持本地保存勾选状态、观察笔记,并导出为 Markdown 学习记录。

后续会根据访问数据选择 1-2 个项目做本地化深度重构(统一 UI、结果记录与分享、学习进度回放)。

配套内容

建议配合这些教程、路径和论文一起学习,理解会更连贯。