用 LangChain 驱动本地 Ollama 模型
· 28 min read · 0 views

用 LangChain 驱动本地 Ollama 模型

这两年,大模型几乎成了开发者的“标配工具”: 写代码、查资料、做总结、当智能助手。 但你有没有认真想过一个问题: 我们真的必须把所有请求都发到云端 API 吗? 随着模型体积持续下降、硬件性能快速提升,以及 Ollama 这类工具逐渐成熟, 本地运行大模型,已经从早期的“极客尝鲜”,演进为一种可以在真实项目中落地的工程方案。 这篇文章,我们就来完整走一遍: 如何使用 LangChain...

author.json

zhiwen.liu

// tags #原创
post.stats
0· 28 min
0
// login to like
// comments
comment.new

// auth.required

登录后才能发表评论

// no.comments.yet

来发表第一条评论吧!