#智能体
OWASP 公布的 LLM 十大安全风险榜单
OWASP最新LLM十大安全风险榜单指出:提示词注入、敏感信息泄露、供应链污染、数据/模型投毒、输出滥用、权限失控等是当前最突出威胁。这些风险并非理论问题,已在真实AI应用中频繁出现。应对需回归系统安全思维,通过AI网关、数据验证、权限隔离与持续测试构建防御体系。
【AI工具】专为打工人服务的多智能体 AI 助手骡子快跑(MuleRun)2.0 来啦
骡子快跑(MuleRun)2.0 是面向“一人公司”的云端多智能体AI助手,开箱即用、无需部署。支持长期记忆与社区共享知识库,可沉淀提示词、流程和经验,稳定执行巡检、客服、审核等任务,并在Discord、Telegram等平台协同工作;所有操作沙盒隔离,高危动作需人工确认,兼顾能力与安全。
【AI教程】VS Code 插件,用像素小人管理 AI 分身
Pixel Agents 是一款 VS Code 插件,用像素小人可视化管理多个 AI 会话(如 Claude Code),实时显示各智能体的运行状态、空闲情况与并发数;支持自定义“小房间”布局,铺地板、加墙、摆设备,让多线程 AI 协作变得可观察、可交互。
【AI技巧】Pokee AI 一款全程运行在沙盒里,更加安全的 “OpenClaw”
Pokee AI 是一款类 OpenClaw 的安全型AI助手,全程运行于隔离沙盒,Token 统一加密存储,执行环境完全隔离;支持长时间自动化任务,如写作、调研、应用生成等,能自动补全背景信息,节省约70% Token。现开放 waitlist 申请。
Fed10, 一款帮企业管控政策风险的 AI 工具
Fed10 是 YC 孵化的 AI 工具,专为强监管行业设计,能深度理解企业业务,自动追踪美国联邦至地方各级政策动态,精准识别相关法案并判断其对业务的实际影响——是风险还是机会。它替代传统低效的人工咨询,让企业更早、更准地应对监管变化。
Antigravity 如何一步步改变软件开发的方式?
Google Antigravity 新增 Nano Banana 2 与 Gemini 3.1 Pro 双模型支持,强化图像生成、文字渲染及复杂任务推理能力;推出模型配额仪表板、一键下载、可复用 Skills 等功能,推动开发范式从写代码转向目标设定与人机协同决策。
Peter Steinberger 访谈:一个人如何在几个月内做出 OpenClaw
Peter Steinberger 用九到十个月独立开发出爆红AI产品OpenClaw,核心并非技术碾压,而是将大模型视为“对话伙伴”:用自然语言定义问题、让AI自主试错修复、关注意图而非代码细节。他一年提交9万次代码、实验百余项目,验证了个人开发者正从“写代码者”转向“问题定义者”与“智能体调度者”。
如何在 Antigravity 中使用和创建 Skill
Antigravity 用 Skill 解决 Vibe Coding 中的上下文膨胀问题:将 Three.js、WebGPU 等能力封装为独立模块,只需新建目录和 skill.md 文件(含 Front Matter 与代码示例),Agent 会按需自动加载、复用并支持团队共享。
“孕育” 另一个自己,Pika 推出重磅新功能:AI 分身
Pika 推出“AI 分身”,非工具型助手,而是基于你性格、声音、记忆与形象构建的持久化数字生命体;可跨 Slack、WhatsApp、Discord 等平台多模态交互,代回复、创作、跨语言沟通;形象自由定制,数据隐私受保障,内容版权归属用户。