#AI 模型
神经网络中的参数是什么
神经网络中的参数即权重与偏置:权重控制神经元间信号强弱,偏置调节激活阈值。它们是模型唯一可学习的部分,初始随机,经训练逐步优化。参数量决定模型容量——越多越能拟合复杂规律,但也更依赖数据与算力。
AI 与能源消耗:一个被误解的话题
AI能耗常被高估,当前计算机设备仅耗电全球约5%,且通过提升各领域能源效率带来净减排效益;其在优化数据中心制冷、推动交通与建筑电气化等方面正发挥关键作用,国际能源署指出其用电增长占比实际很小。
Llama 4 开源大模型家族:开启原生多模态 AI 创新的新时代
Meta开源Llama 4系列,含Scout(1000万Token上下文)、Maverick及训练中的Behemoth,原生支持文本、图像、视频多模态理解;采用MoE架构提升效率,多语言训练规模达Llama 3的10倍,安全与偏见控制显著优化。
揭开 AI 思维的黑盒:从神经科学视角理解人工智能
Anthropic 首次用神经科学方法观测到 Claude 在写诗前主动规划押韵与语义关联,证实其存在内部逻辑回路,而非仅靠统计匹配;这一突破为提升 AI 安全性、理解智能本质提供了新路径。
模型本地部署神器:Ollama
Ollama 是一款开源大模型本地部署工具,支持 Mistral、Llama、Gemma 等主流模型在普通笔记本上高效运行。通过量化优化与 LoRA 微调,兼顾性能、隐私与易用性,让开发者和普通用户无需依赖云服务即可离线使用大模型。
AI 在医疗领域的革命性变革
《医学中的AI革命》揭示AI正悄然重塑医疗:从提升诊断精度、减少误诊,到缓解医生文书负担、优化患者就医路径。书中以Peter Lee接触AI的七阶段心路为线索,展现技术如何倒逼我们重思“照护”的本质——不止于治病,更在于人文关怀与关系重建。
LLM 量化:在性能与效率之间寻找平衡
LLM量化通过将参数压缩至16/8/4/2位整数,大幅降低存储与计算开销,让大模型得以在手机、笔记本等普通设备本地运行,兼顾效率与隐私。但精度下降是主要代价,GPTQ、AWQ等新技术正尝试在速度与准确率间找到更好平衡。
英伟达将推出两款全新的 AI 加速芯片
英伟达将推两款AI加速芯片:今年下半年发布Blackwell Ultra NVL72,浮点性能与内存容量均提升1.5倍,带宽翻倍并新增注意力指令;明年下半年推出Vera Rubin NVL144,集成自研CPU(性能翻倍、功耗仅50W)、CX9网卡、NVLink6与HBM4,实现全栈升级。
半监督学习:AI训练的成本优化之道
半监督学习用少量标注数据+大量未标注数据训练AI,显著降低人工标注成本。通过伪标签、聚类、主动学习等技术,模型能自主挖掘数据规律,提升泛化能力、缓解过拟合,更接近人类“观察—归纳”的学习方式。