#智能体
一个智能体,什么时候该行动?谁来“叫醒”它?
OpenClaw 是一个开源本地智能体管理框架,核心在于“触发器(Trigger)”机制——它定义了智能体何时、因何被唤醒。支持消息、Cron 定时、CLI、文件系统、Webhook、智能体间调用及启动共七种触发方式,覆盖实时响应、周期任务、开发集成与多智能体协作等真实业务场景,是智能体接入现实系统的入口级基础设施。
智能体开始自己做决定,一场正在成形的 “智能体经济”
智能体正从辅助工具升级为自主决策的“行动者”:它们自主选工具、协作交流、运行业务流程,甚至在MoltBook等平台形成群体互动。开发者需优化文档与API以适配智能体决策逻辑,基础设施也开始专为智能体设计。法律与人机关系仍是待解难题。
Pika 公司内部如何使用 AI 分身进行工作
Pika 团队已在内部全面试用自家 AI 分身 Pika Self,实际承担会议纪要整理、邮件自动回复、代码辅助等高频任务,验证了其在真实工作流中的可用性与效率提升。
把 AI 变成你的全能助理,OpenClaw 的 5 种高效用法
OpenClaw 是一款免费开源的个人AI助理,无需高配硬件即可运行。它能主动执行会议准备、目标复盘、学习教练、内容创作辅助和待办自动化五类任务,依托长期记忆与上下文连贯性,持续响应规则而非被动等待指令,把重复工作交由AI完成,让人专注关键决策。
调用大模型的成本总降不下来?问题或许在 “提示词缓存”
大模型调用成本居高不下?关键可能在提示词缓存——复用相同前缀的KV cache,可享最高90% Token折扣、显著降延迟。需前缀≥1024 Token且完全一致,合理设计静态/动态内容顺序、使用缓存键、选对API,才能真正落地见效。
用 Ollama 本地部署 OpenClaw,让 AI 7x24 免费为你工作!
用 Ollama 在本地运行 Ministral-3:3b 等轻量模型,替代 OpenClaw 的云端 API 调用,实现 7×24 免费智能体服务;Telegram 接入、任务调度由 OpenClaw 完成,推理交由本地模型,大幅降低 Token 成本,复杂任务仍可按需切回云端大模型。
OpenClaw 被封,真的是 Anthropic 的一次战略失误?
Anthropic 封禁 OpenClaw 使用其订阅账户的 OAuth 令牌,称仅限官方产品调用。此举源于第三方工具以低价订阅高频调用高成本模型,冲击商业逻辑;而用户认为属合理自用。事件凸显大模型公司在平台控制与生态开放间的深层张力。
如何用 Codex APP 进行原型设计
Codex APP 内置 Figma 技能,粘贴链接即可自动生成可交互原型,支持实时热重载与设计系统复用,完成度达80%–90%。无需反复切换工具,效率提升2–3倍,特别适合AI产品快速验证动态交互场景。
Claude Opus 4.6 到底升级了什么?真如预期的那么强吗?
Claude Opus 4.6 实现关键跃迁:显著提升复杂任务的持久执行能力,支持长程推理、自我纠错与智能体协作;百万Token上下文稳定性增强,文档检索与多步推理表现突出。虽成本高、非全能,但标志着AI正从聊天工具转向可长期工作的智能体。