10 分钟讲清什么是大模型的尺度定律(Scaling Law)
大模型尺度定律揭示参数、数据与算力需协同扩展,盲目堆参数反会降低效率——Chinchilla研究已证实小模型配更多数据效果更优。当前高质量数据成新瓶颈,合成数据与MoE架构正成为突破关键。
HuggingFace 推出了免费智能体(AI Agent)开发课程
Hugging Face 推出免费 AI 智能体开发课程,涵盖原理、设计与实战,支持 smolagents、LangChain、LlamaIndex 等主流框架;学员可发布智能体至 Hugging Face Hub、参与社区挑战与横向评估,完成作业后获官方结业证书。
从 V0 到 R1,deepseek 如何追平 GPT-4
DeepSeek 两年内从2023年V0迭代至2025年R1,在数学、逻辑与编程能力上追平GPT-4;通过MoE、MLA等架构创新,参数达6710亿,并以跨架构蒸馏技术实现高性能轻量部署,标志AI研发正转向“能力驱动”。
混合专家模型:AI 界的专家会诊制如何让大模型更高效?
混合专家(MoE)架构让大模型像“专家会诊”:通过门控机制动态调用不同子网络处理输入,训练中自然形成专长。Mixtral用8个专家超越GPT-3.5,DeepSeek R1总参6710亿但仅激活370亿,显著降本增效。
什么是大语言模型 LLM 蒸馏?
LLM蒸馏是将大模型(教师)通过概率分布输出的知识迁移至小模型(学生)的技术,由Hinton团队2015年提出。它能在大幅压缩参数量与资源占用的同时,保留97%左右的性能,如DistilBERT体积降40%、速度升60%。DeepSeek R1已推出1.5B–70B多档蒸馏版,支持低配设备本地部署。
DeepSeek R1 是如何炼成的
DeepSeek R1 经历V1至R1 Zero四阶段迭代,融合强化学习与监督微调,采用MoE架构提升效率;仅用2048块H800 GPU即逼近OpenAI顶级模型性能,显著降低训练与推理成本,推动高效透明AI推理落地。
一键复用创作风格:Frames 让 AI 绘画也能有自己的 “专属滤镜”
Runway 新推出的 Frames 模型支持“一键复用创作风格”,用户可预设或自定义样式模板,聚焦色调、光线、纹理等通用风格要素,或为特定场景详述效果,避免重复输入提示词,显著提升 AI 绘画效率与风格一致性。
最通俗易懂的 DeepSeek 核心技术介绍
DeepSeek 用“自言自语”式思维链提升推理准确性,以类婴儿试错的纯强化学习优化策略,并将6710亿参数大模型能力蒸馏至7B小模型——在数学、编程等任务上媲美甚至超越OpenAI o1,让高性能AI真正落地普通设备。
如何通过 DeepSeek 构建各种超级 AI 工具
技术达人Julian Goldie演示如何用DeepSeek搭配Make.com、Ollama、Bolt.diy等免费工具,构建自动化SEO工作流:从Google表格取关键词,经DeepSeek生成优化内容,自动发布至WordPress,全程零API费用,适合想快速落地AI应用的开发者和运营人员。