大语言模型看到的颜色和人类一样吗?
大语言模型(LLM)和人类在感知颜色方面有很大不同。人类通过光的波长来看到颜色,而 LLM 则是通过理解单词之间的意义来“理解”颜色。
为了探索这个问题,AI 艺术家 Kat ⊷ the Poet Engineer 从维基百科提取了各种颜色名称和它们的 RGB 值,并对这些颜色进行向量表示。
- 将颜色的意义降维到三维空间,对应RGB值
- 根据 RGB 值的三维坐标来排列颜色
大语言模型并不真正“看见”颜色,而是通过词义关联理解颜色名称。AI艺术家Kat ⊷ the Poet Engineer利用维基百科的颜色名与RGB值,将颜色语义映射到三维空间,发现其分布接近人类视觉的RGB坐标——这揭示LLM对颜色的理解本质是语言关系,而非光学感知。
大语言模型看到的颜色和人类一样吗?
大语言模型(LLM)和人类在感知颜色方面有很大不同。人类通过光的波长来看到颜色,而 LLM 则是通过理解单词之间的意义来“理解”颜色。
为了探索这个问题,AI 艺术家 Kat ⊷ the Poet Engineer 从维基百科提取了各种颜色名称和它们的 RGB 值,并对这些颜色进行向量表示。
Anthropic 发布 Claude Opus 4.7,编程能力跃升至 SWE-bench Pro 64.3 分,文档推理与视觉导航表现显著优于 GPT-5.4。模型刻意削弱了安全漏洞复现能力,并采用新 Tokenizer 导致消耗增加。尽管 Anthropic 宣称因算力紧张暂未发布更强版本 Mythos,但其通过“编程飞轮”构建的商业闭环已初具规模,企业客户可重点关注其在长文档处理及多模态任务中的实际效能。
Google I/O 2026 定档 5 月 19 日至 20 日,被视为谷歌史上赌注最大的一届。核心看点包括 Gemini 4 首秀、Veo 4 视频生成升级及轻量级 AI 眼镜发布。更关键的是 Aluminium OS 桌面系统亮相,旨在补齐移动与桌面闭环。在千亿美元投入下,谷歌试图通过搜索、OS、硬件与智能体的全面重构,应对来自 GPT-6 等竞品的激烈挑战。

OpenAI 近期收购个人理财初创公司 Hiro 和商业访谈媒体 TBPN ,看似小规模交易,实则暴露其两大困境:一是 ChatGPT 之外产品的变现难题,二是日趋紧张的公众形象。 Anthropic 在企业市场和编程工具领域持续施压,令 OpenAI 焦虑。这两次收购更像是修补产品线、修复舆论的应急之举,而非战略扩张。
围绕《大语言模型看到的颜色和人类一样吗?》展开交流,未登录用户可浏览评论,登录后可参与讨论。