•1 周前用 LangChain 驱动本地 Ollama 模型这两年,大模型几乎成了开发者的“标配工具”: 写代码、查资料、做总结、当智能助手。 但你有没有认真想过一个问题: 我们真的必须把所有请求都发到云端 API 吗? 随着模型体积持续下降、硬件性能快速提升,以及 Ollama 这类工具逐渐成熟, 本地运行大模型,已经从早期的“极客尝鲜”,演进为一种可以在真实项目中落地的工程方案。 这篇文章,我们就来完整走一遍: 如何使用 LangChain...zhiwen.liu查看作者 #原创