如何用 Ollama + DeepSeek 打造本地运行的网页研究助手

Lance Martin 开源了一个本地运行的网页研究助手,基于 Ollama 与 DeepSeek,无需 API。它自动提取关键词、调用 Tavily 搜索、总结内容,并迭代补全知识缺口,最终生成带引用的 Markdown 报告,支持任意 Ollama 模型。

发布于2025年1月27日 07:51
作者零重力瓦力
评论0
阅读0

技术大佬 Lance Martin 通过 Ollama + DeepSeek 打造完全本地运行(无需调用 API)的网页研究助手。它可以使用 Ollama 托管的任何语言模型(LLM)。你只需要给它一个主题,它就会自动生成搜索关键词,搜索网页内容(默认通过 Tavily),整理并总结搜索结果。随后,它会检查总结中是否存在知识遗漏,针对这些空缺生成新的搜索关键词并继续查找信息,不断改进总结内容。这一过程可以根据你设定的循环次数反复进行。最后,它会生成一份包含所有参考来源的 Markdown 格式总结,方便你查看和使用。

源码地址:https://github.com/langchain-ai/ollama-deep-researcher

相关文章

互动讨论

评论区

围绕《如何用 Ollama + DeepSeek 打造本地运行的网页研究助手》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。