Created
Jul 23, 2024 06:19 AM
Favorite
Favorite
Priority
备注
推荐
🌟🌟🌟🌟
类型
Dify
上一篇文章《37.4k 的 Dify,一款小白也可以轻松上手的大模型开发平台(一):部署及基础使用》我们介绍了 Dify 的部署及基础使用,今天我们来介绍一下 如何为 Dify 接入 Ollama
关于如何在本地部署并使用 Ollama,可以参考👉中文版斯坦福多智能体AI小镇(一):安装 Ollama

使用 Ollama

还是在设置的弹窗中选择「模型供应商」,这次我们选择 Ollama,以 qwen2:7b 模型为例:
  • 模型名称我们填入 qwen2:7b
  • 基础 URL 填入 http://host.docker.internal:11434
  • 其他选项可以根据自己的需求进行配置,或者也可以保持默认
  • 然后保存即可
回到创建的应用中,在编排页面的右上角切换大模型为 qwen2:7b:
可以看到的,由于是本地大模型,所以响应速度非常快!

知识库配置嵌入模型

因为咱们本次使用 Ollama 来作为 Dify 的 AI 模型,所以在创建知识库时会有一些问题:
这是 因为 Dify 默认的系统 Embedding 模型是 OpenAI 的 text-embedding-3-large ,但是当我们使用本地大模型时,是无法连接到这个模型的,所以我们 还需要再拉取一个 Embeddinng 模型下来,这里以 nomic-embed-text 为例
然后在 Ollama 模型设置中选择 Text Embedding
保存之后,我们可以 修改 Dify 的默认系统模型,点击右上角的「系统默认设置」按钮进行设置
再创建一个新的知识库进行测试:
也可以成功嵌入:

测试应用

接下来我们将刚刚创建的知识库添加到应用中去,并给应用添加提示词。如果不知道怎么编写提示词,还可以点击右上角的自动编排让 AI 帮助我们完成:
点击右下角的「应用」按钮,就会自动为我们添加这些提示词和开场白到应用中了:
我们可以在知识库中添加大量的 K8s 相关的资料,打造一款 K8s 大师应用。是不是很棒😁
写作不易,如果小伙伴们都看到了这里,请点个在看,分享给更多的朋友;为确保您能收到每一篇文章,点个关注并在主页右上角设置星标。
往期推荐:
关注本公众号,了解更多 AI 资讯
为了方便沟通交流,三金也建了一个 AI 交流群,欢迎感兴趣的小伙伴加入~
Loading...