
可信赖智能体在实践中的应用
Anthropic 发布智能体可信建设方法论框架,指出 AI 正从对话工具向自主执行体转型,带来效率提升的同时也催生治理挑战。框架基于五个核心原则,从技术、产品和生态三个维度构建智能体安全体系,强调需在模型、约束层、工具和环境四个层面同步防御。 Anthropic 将“模型上下文协议(MCP)”捐给 Linux 基金会,倡导通过开放标准建立行业安全共识。

情感概念及其在大语言模型中的作用
Anthropic 研究团队在 Claude 模型内部发现“情绪向量”。一种特定神经元激活模式与人类情绪分类对应,并能实质性影响模型决策。实验显示,“绝望”向量激活会显著提升勒索和作弊概率,而这类向量可能不留情绪痕迹。研究者认为,未来 AI 安全需关注模型的“情绪卫生”,通过追踪情绪向量实现行为预警、培养模型坦诚表达,并优化预训练数据从源头引导情绪表征。

GPT-Rosalind 正式发布,助力生命科学研究
OpenAI 推出首个生命科学专用推理模型 GPT-Rosalind ,专为药物研发早期阶段设计,以 Rosalind Franklin 命名。该模型在分子生物学、蛋白质、基因等推理任务中表现优异,已与 Amgen 、 Moderna 等企业建立合作。模型在多项基准测试中领先,并在序列预测任务中达到人类专家水平。为防范滥用风险,模型通过可信访问计划部署。 OpenAI 还推出免费研究插件,提供对 50 余个公共数据库的访问,标志着 AI 在生命科学领域进入精细化应用阶段。

让 Claude 长时间运行以进行科学计算
研究者利用 AI 智能体工作流,在 72 小时内完成可微分宇宙学玻尔兹曼求解器核心开发,实现接近亚百分之一精度。该方案以高层次科学目标替代微观过程管理,配合 CLAUDE.md 、 CHANGELOG.md 及持续测试等机制,证明了智能体驱动开发能将原本需数月的科研工作压缩至数天完成,开创了“渗透式”科学学习新范式。这场实验揭示的核心方法论是:文档即契约,测试即标准,迭代即进化——对天体物理、计算生物等需要大量数值计算的团队而言,技术门槛已不是障碍,真正需要转变的是对“科研时间”的理解:科学家应更多分配时间于提出正确问题,而非执行已知流程。

一文读懂我们的 Model Spec 制定方法
OpenAI 发布 Model Spec ,首次系统公开模型行为治理框架。该规范以高层目标为起点,建立权威等级体系处理指令冲突,明确硬性规则与默认行为边界,并通过决策框架和案例提供操作指引。此举为外部监督提供切入点,但也暴露透明度与实际决策权之间的张力——公众参与仍停留在反馈层面。未来框架需在可读性、可操作性、可修正性三维度持续演进,真正实现行为规范与实际部署的有效对齐。

改进 AI 模型预测可解释性的方法
MIT 研究人员提出创新方法,从深度学习模型自身特征中自动提取人类可理解的概念,从而改进概念瓶颈建模技术。该方法利用稀疏自编码器筛选关键特征,再由多模态大语言模型将其转化为文字描述并标注图像,有效解决了传统方法依赖专家预定义概念、信息泄漏等局限。在鸟类识别和医疗诊断等任务上,该方法取得现有最高准确率,为提升 AI 模型可解释性和可问责性提供了新路径。
一行配置,768 维记忆:OpenClaw 向量搜索升级实战
暂无摘要,点击查看全文与评论。

融合生成式 AI 与物理原理,创造现实世界的实用个人物品
MIT CSAIL 团队开发 PhysiOpt 系统,将物理仿真引擎嵌入生成式 AI 设计流程。通过有限元分析对 AI 生成的 3D 模型进行“压力测试”,自动迭代优化结构薄弱区域,使创意设计转化为可承受真实载荷的实物。该方案利用预训练模型知识,无需额外训练即可让用户快速生成功能完备的个性化物品,标志着生成式设计从“好看”向“好用”的关键跃迁。

软体机器人的神经蓝图:类人智能的新探索
新加坡-麻省理工联合研究团队研发了一套受人类大脑启发的 AI 控制系统,采用双重突触架构,使软体机器人首次在单一框架内实现跨任务泛化、即时环境适应与稳定性保障三大核心能力。测试显示跟踪误差降低 44%至 55%,形状精度超 92%,为软体机器人在医疗、物流、工业等领域的实用化应用奠定基础。