三巨头扎堆推出交互式可视化功能
3月12日,Anthropic官宣,Claude现在可以在对话中直接生成交互式图表、流程图和可视化内容。若询问它关于元素周期表的问题,它能直接绘制可点击的周期表,每个元素点进去都有详细信息。有意思的是,两天前OpenAI刚给ChatGPT上线类似的交互式可视化功能,而Google的Gemini去年11月就开始做这件事了。一周之内,三巨头全部发出了自己的新技术,这难道只是巧合?
Claude的可视化功能特点
「给AI一块白板」和大家理解的AI画图不同。Claude画的东西,底层是HTML代码和SVG矢量图形,相当于给Claude发一块白板,让它边说边画。而Midjourney图像生成,更像是程序员现场写代码、现场渲染。和Claude已有的Artifacts功能相比,「白板」定位不同。Artifacts是作品,可以下载、分享、反复使用,在侧边面板里,关了对话还在;但对话内的可视化是临时的,对话往下走可能就没了。若觉得图不对,告知Claude它会当场改正;若想深挖某个部分,点击一下它会继续展开。这个功能的前身是「Imagine with Claude」实验,当时该功能只给Max用户体验几天后就关闭,很多人以为是技术秀,结果半年后核心能力以更实用的方式落地。
Claude功能测试情况
Inc.的记者让Claude生成Timothée Chalamet争议事件的交互式时间线,它不仅做了完整的事件节点可视化,还添加了「愤怒指数」仪表盘。另一个测试是让它做宝可梦系列的视觉历史,带有游戏、影视、文化事件的分类筛选器,完成度相当高。该功能默认开启,免费用户也能用,目前支持Web端和桌面端,移动端暂时没有。
三巨头技术发展历程对比
2025年11月,Google的Gemini上线交互式图像,将教材里的静态图变成可点击的学习工具;2026年初又推出「Guided Learning」模式,把图像、视频、测验打包成学习伴侣。2026年3月10日,OpenAI的ChatGPT上线「动态视觉解释」,覆盖70 + 个数学和科学概念,每周有1.4亿人用ChatGPT学数学和科学。2026年3月12日,Anthropic上线,且免费用户也可使用。对比之下,Google去年12月给Gemini Ultra上的高级交互式图表和模拟,订阅费每月200美元,门槛较高。Anthropic此前在音频、图像、视频等多模态方向基本没投入,现在另辟蹊径,用代码画图,扬长避短。
三家不同的打法思路
OpenAI的ChatGPT高度结构化,有70多个预设主题,从二项式展开到库仑定律、从指数衰减到胡克定律,每个都有专门设计的交互模块,但不能可视化任意话题,超出预设主题就不触发。好处是做得精,专业感强,教学设计有章法;代价是范围窄,灵活性差。OpenAI先做教育,面向高中生和大学生,以后再扩张,配合去年上线的Study Mode和QuizGPT,其在教育赛道布局完整。
Gemini的路子像给一张现有的图「开外挂」,AI识别图像里的关键元素,自动生成可点击的标签和解释面板。例如点一下细胞图里的高尔基体,就会弹出其定义和功能。本质上围绕图像做文章,得先有图才能交互。但Google的优势在生态,LearnLM教育模型、YouTube视频、Google Classroom的打通,让这个功能可以直接嵌入课堂场景,这是OpenAI和Anthropic做不到的。
Claude不限主题,不限场景,不要预设模板,理论上能画任何可以用代码表达的东西,而且这些可视化还能和Figma、Canva、Slack等第三方应用联动,暗示Anthropic想构建一个连接生产力工具的视觉交互层。今年1月Claude上线的Connectors功能让它能直接操作第三方应用,现在加上可视化,拼图又多了一块。不过,Claude也有缺点,如The New Stack的记者让Claude画非塔台机场的VFR进近模式图,大体对了,但「中场侧风进入」的标注位置搞错了,且复杂可视化速度较慢,一个复杂可视化可能要等30秒,而用搜索引擎找一张类似的图只要3秒,但在Beta阶段这些都正常。
AI可视化发展趋势与思考
三家同时押注可视化,可能意味着纯文本回复正在触及天花板。AI聊天核心交互一直是文字问答,但越来越多场景证明文字难以胜任,如解释时间复杂度,一张图比三段话清楚;呈现销售数据,一个可拖动的图表比一堆数字有感觉;教物理概念,让学生自己拖参数看变化比对着公式发呆管用得多。而且教育研究表明,交互式学习比被动阅读的理解效果好得多。之前的AI没有画的能力,只能用文字硬扛,现在三家同时点亮了画图技能,且各家选择都和自身生态有关。OpenAI有1.4亿周活学生用户,做教育顺理成章;Google有LearnLM和Classroom生态,做标注式学习是老本行;Anthropic代码能力最强,用代码画白板是自然延伸。Digital Trends报道提到,Anthropic把这次更新定义为Claude「学会选择最佳表达格式」,Claude正在从「文字助手」变成「多格式表达引擎」。AI竞赛持续三年多,模型能力差距变小,跑分互有胜负,用户感知模糊,「谁更会表达」成了新战场,这一轮三家答案一致:让AI学会画画。不过这些功能都还是早期,Claude的标注偶尔出错,ChatGPT的交互模块覆盖面有限,Gemini的高级功能需要200美元的入场费。真正的竞赛不在谁先上线,而在谁能把「边说边画」做成用户根本不会注意到的自然交互。2026年3月这一周,或许就是AI从文字机器变成表达工具的起点。三巨头扎堆推出新技术,究竟是巧合,还是故意为之呢?