#AI 模型
如何为 AI 系统打造安全 “护城河”
IBM提出“甜甜圈”AI安全体系,以“发现、评估、控制、报告”四环闭环,覆盖影子AI识别、动态风险评估、输入输出与权限管控,并通过可视化仪表盘和合规报告实现透明治理,强调安全需随AI演进持续迭代。
如何通过 AI 将任意文本转化为知识图谱?
无需深厚编程基础,借助Python、GPT-4o(或DeepSeek等大模型)与Neo4j,即可将书籍、新闻、维基页面等任意文本自动构建成结构化知识图谱。该方法支持多语言与复杂语境,直观呈现实体关系,显著提升语义搜索与RAG应用效果。
什么是 AI 芯片?
AI芯片是专为矩阵/张量运算优化的处理器,区别于通用CPU,以高并行性支撑深度学习训练与推理。GPU最早被用于AI计算,TPU、NPU等专用架构随后兴起。科技巨头与初创公司加速自研,推动AI算力从云端向手机、汽车等边缘设备下沉。
LTX Studio 推出开源视频生成模型 LTXV 13B,比同类模型快30倍
LTX Studio 开源视频生成模型 LTXV 13B,生成速度达同类模型30倍,支持多关键帧控制、多尺度渲染与实时超分,低清转4K仅需数秒;无需高端显卡,普通电脑即可流畅运行,并兼容LoRA微调。
阿里通义千问3(Qwen3):全球开源大模型的新王者
阿里发布通义千问3(Qwen3)全系列开源大模型,含235B MoE旗舰与0.6B–32B稠密模型,支持混合推理、119种语言及128K上下文。235B模型仅需4张H20即可部署,AIME25、LiveCodeBench等基准全面领先国际开源模型,Apache 2.0协议免费商用。
AI 和科学发现的未来,DeepMind 创始人哈萨比斯访谈
哈萨比斯在剑桥访谈中指出,AI正重塑科学发现范式:AlphaFold已成百万科研人员标配工具;跨学科融合、直觉与实证结合、类“现代贝尔实验室”的灵活组织,是突破关键;技术发展需同步推进伦理规范与全球协作。
FramePack:实现单图一次性生成 60 秒视频
FramePack 是斯坦福大学提出的新型视频生成方法,通过动态帧重要性分配与定制化 patchifying kernel,将计算复杂度降至常数级,显著缓解长视频生成中的质量衰减与“漂移”问题;仅需6GB显存即可在笔记本上一次性生成30fps、最长60秒的高质量视频。
微软推出 BitNet 推理框架,实现 1-bit 大模型本地部署
微软开源 BitNet 推理框架,支持 1-bit/1.58-bit 极致量化,可在单 CPU 上本地运行 100B 级大模型,x86/ARM 平台加速 1.37–6.17 倍,能耗降超 70%,兼容 Llama3、Falcon3 等主流模型,显著降低大模型部署门槛。
AI 赋能数值模拟技术,让计算从月缩短到小时
ANSYS联合英伟达与德克萨斯大学,用320个Grace Hopper 200处理器将汽车数值模拟从一个月压缩至6小时,能耗降低约17千瓦时,验证了AI与高性能芯片融合可实现“以效率换节能”的工程仿真新路径。