#DeepSeek
Jina.ai 结合 DeepSeek 打造的智能搜索工具 Deep Search
Jina.ai 联合 DeepSeek 推出 Deep Search,基于思维链技术提供更精准、简洁的搜索结果。普通用户可免费网页搜索,开发者可通过低成本 API($0.02/百万 Token)快速集成 AI 搜索能力。
DeepSeek 小说创作提示词模板
DeepSeek小说创作提示词模板含12个结构化指令,覆盖从主题构思、角色塑造、章节写作到润色校对、读者反馈模拟及市场推广全流程,帮助创作者系统化完成高质量小说创作与出版准备。
从 V0 到 R1,deepseek 如何追平 GPT-4
DeepSeek 两年内从2023年V0迭代至2025年R1,在数学、逻辑与编程能力上追平GPT-4;通过MoE、MLA等架构创新,参数达6710亿,并以跨架构蒸馏技术实现高性能轻量部署,标志AI研发正转向“能力驱动”。
混合专家模型:AI 界的专家会诊制如何让大模型更高效?
混合专家(MoE)架构让大模型像“专家会诊”:通过门控机制动态调用不同子网络处理输入,训练中自然形成专长。Mixtral用8个专家超越GPT-3.5,DeepSeek R1总参6710亿但仅激活370亿,显著降本增效。
什么是大语言模型 LLM 蒸馏?
LLM蒸馏是将大模型(教师)通过概率分布输出的知识迁移至小模型(学生)的技术,由Hinton团队2015年提出。它能在大幅压缩参数量与资源占用的同时,保留97%左右的性能,如DistilBERT体积降40%、速度升60%。DeepSeek R1已推出1.5B–70B多档蒸馏版,支持低配设备本地部署。
DeepSeek R1 是如何炼成的
DeepSeek R1 经历V1至R1 Zero四阶段迭代,融合强化学习与监督微调,采用MoE架构提升效率;仅用2048块H800 GPU即逼近OpenAI顶级模型性能,显著降低训练与推理成本,推动高效透明AI推理落地。
Open-R1:DeepSeek-R1 的完全开源复现
Open-R1 是对 DeepSeek-R1 的完全开源复现,首次公开其强化学习(R1-Zero)与监督微调+RL(R1)双路径训练方法,涵盖数据构建、代码实现与超参细节。项目聚焦数学、编程与逻辑推理,旨在推动低成本、可复现的开源推理模型发展。
Elevenlabs 让 DeepSek “开口说话”
ElevenLabs已接入DeepSeek 32B模型,为其赋予高质量语音合成能力。依托开源策略与扎实技术,DeepSeek在国内外快速构建生态,虽起步晚于OpenAI,但正通过持续迭代与技术突破加速追赶。
Deepseek R1 能否撼动 ChatGPT-o1 在数据科学领域的地位?
数据科学家Thu Vu实测Deepseek R1与ChatGPT-o1在数据清洗、可视化编程和图表解读中的表现:ChatGPT-o1更精准优雅,Deepseek R1虽偶有小错但推理扎实、风格亲切,作为免费开源模型,是预算有限者高性价比的替代选择。