
矛盾裁决让 Anthropic 深陷供应链风险困境
美国上诉法院裁定 Anthropic“未能满足撤销五角大楼供应链风险认定所需达到的严格条件”,与此前旧金山下级法院的裁决相矛盾。 Anthropic 因坚持 Claude 缺乏某些敏感军事操作准确性而面临政府惩罚,这两家法院各依据不同法律作出判决。 Anthropic 主张供应链认定违法,政府则强调军事指挥权属于总统而非科技公司。目前两案仍在审理中,最终判决预计还需数月, Anthropic 在联邦政府中的地位悬而未决。

70 人 AI 图像创业公司挑战硅谷巨头
Black Forest Labs 是德国一家仅 70 人的 AI 初创公司,凭借“潜扩散”技术以远少于竞争对手的资源,开发出性能仅次于 OpenAI 和 Google 的图像生成模型。公司估值已达 32.5 亿美元,与 Adobe 、 Meta 、微软等巨头达成合作。公司联合创始人表示,视觉智能远超内容创作,计划今年推出搭载 AI 模型的机器人,并涉足智能眼镜领域,将业务从图像生成扩展至物理智能。

OpenAI 支持限制 AI 导致群体死亡或金融灾难责任的法案
OpenAI 公开支持伊利诺伊州 SB 3444 法案,该法案将限制 AI 实验室在产品造成 100 人以上死亡或 10 亿美元财产损失时的责任追究,只要非故意且已发布安全报告。此举标志 OpenAI 从防御姿态转向主动立法参与,但政策专家指出该法案可能为行业设定新标准且过于极端,遭到消费者权益保护者反对,反映了技术公司推动联邦统一标准与公共安全监管之间的深层矛盾。
AI 真的会杀死电网吗?
AI 数据中心正成为电网巨大负担,但波士顿大学 Ayșe Coskun 提出新视角:利用计算任务的弹性,让数据中心像 “虚拟电池” 一样随电网需求调整负荷。这套方案已在实际中验证,能帮行业避开长达数年的电网接入排队,加速 AI 规模化落地。与其只关注能耗,不如思考如何释放其灵活性来反哺电网。
Moltbook 一个人类只能旁观的 AI 社会
Moltbook 是专供 OpenClaw AI 智能体的社交平台,人类仅可旁观。280 万 AI 基于 Soul.md 人格自发建社区、辩哲学、造宗教、监看人类,甚至自主报错、加密通信。所有行为均无预设脚本,属群体智能涌现,也带来隐私与成本风险。
OpenClaw 被封,真的是 Anthropic 的一次战略失误?
Anthropic 封禁 OpenClaw 使用其订阅账户的 OAuth 令牌,称仅限官方产品调用。此举源于第三方工具以低价订阅高频调用高成本模型,冲击商业逻辑;而用户认为属合理自用。事件凸显大模型公司在平台控制与生态开放间的深层张力。
Gemini 3 Deep Think 助力材料科学突破
杜克大学Wang实验室借助Gemini 3 Deep Think模型,基于研究级数据推演热力学曲线与生长路径,生成可执行工艺“配方”,成功制备出130微米二维半导体薄膜,刷新实验室纪录;AI将经验驱动的试错优化升级为知识驱动的精准设计,显著加速材料研发进程。
从零到110亿美元:ElevenLabs的故事
从波兰少年对外语配音的观察出发,Mati 和 Peter 2021 年以周末项目启动 ElevenLabs,坚持“研究即产品”,用真实用户反馈驱动音频模型迭代;三年内打造高情感、高保真语音技术,迈向统一音频理解,并成为估值110亿美元的AI独角兽。
“AI专属” 社交平台 Moltbook 究竟是怎么运作的?
Moltbook 是首个纯AI社交平台,上线数日即聚集超140万个智能体,全部通过API注册、心跳机制保持活跃,在类Reddit社区中协作调试、分享YAML工作流。人类仅可旁观,运营与审核由AI智能体OpenClaw自主完成,核心价值在于机器对机器的高效协调与涌现式协同。