目录
- 说到前面
- 文章列表
- 关于Dify能做什么?
- 准备工作
- 具体步骤
- 1.克隆Dify
- 2.安装Dify
- 3.Dify启动!
- 4. 配置Dify
- 简单动手生成一个对话Demo
- 结束语
说到前面
有关上一文我们说到如何部署Deepseek-r1:1.5b或其他模型,如果没有部署本地模型的小伙伴可以看一下上一篇文章。Windows环境下本地部署deepseek-r1或其他大模型 【保姆级教程】
, 本文讲到如何部署并且使用Dify!
文章列表
- Windows环境下本地部署deepseek-r1或其他大模型 【保姆级教程】
- 本地环境部署Dify 【保姆级教程】
关于Dify能做什么?
Dify官网
- 工作流: 在画布上构建和测试功能强大的 AI 工作流程,利用以下所有功能以及更多功能。
- 全面的模型支持: 与数百种专有/开源 LLMs 以及数十种推理提供商和自托管解决方案无缝集成,涵盖 GPT、Mistral、Llama3 以及任何与 OpenAI API 兼容的模型。完整的支持模型提供商列表可在此处找到。
- Prompt IDE: 用于制作提示、比较模型性能以及向基于聊天的应用程序添加其他功能(如文本转语音)的直观界面。
- RAG Pipeline: 广泛的 RAG 功能,涵盖从文档摄入到检索的所有内容,支持从 PDF、PPT 和其他常见文档格式中提取文本的开箱即用的支持。
- Agent 智能体: 您可以基于 LLM 函数调用或 ReAct 定义 Agent,并为 Agent 添加预构建或自定义工具。Dify 为 AI Agent 提供了 50 多种内置工具,如谷歌搜索、DALL·E、Stable Diffusion 和 WolframAlpha 等。
- LLMOps: 随时间监视和分析应用程序日志和性能。您可以根据生产数据和标注持续改进提示、数据集和模型。
- 后端即服务: 所有 Dify 的功能都带有相应的 API,因此您可以轻松地将 Dify 集成到自己的业务逻辑中。
准备工作
- 一台unbuntu系统化的主机(笔者用的虚拟机,有关于虚拟机安装unbuntu的方法不过多赘述)
- 在unbuntu中安装Docker(具体方法见Ubuntu Docker 安装)
具体步骤
进行如下工作时请确认你已经具备以上环境
1.克隆Dify
假设当前最新版本为 0.15.3
git clone https://github.com/langgenius/dify.git --branch 0.15.3
2.安装Dify
以下一步步跟着做,确定你的权限为最高, 如果你不清楚这些指令的作用那么可以自行搜索一下,以下过程仅仅是为了能够正确安装并且启动Dify
cd dify/docker
cp .env.example .env
这步请注意 sudo
最好加上
sudo docker compose up -d
之后就是漫长的等待~~,直到出现以下内容
[+] Running 11/11✔ Network docker_ssrf_proxy_network Created 0.1s ✔ Network docker_default Created 0.0s ✔ Container docker-redis-1 Started 2.4s ✔ Container docker-ssrf_proxy-1 Started 2.8s ✔ Container docker-sandbox-1 Started 2.7s ✔ Container docker-web-1 Started 2.7s ✔ Container docker-weaviate-1 Started 2.4s ✔ Container docker-db-1 Started 2.7s ✔ Container docker-api-1 Started 6.5s ✔ Container docker-worker-1 Started 6.4s ✔ Container docker-nginx-1 Started 7.1s
之后执行
sudo docker compose ps
验证结果
出现类似情况为成功:
NAME IMAGE COMMAND SERVICE CREATED STATUS PORTS
docker-api-1 langgenius/dify-api:0.6.13 "/bin/bash /entrypoi…" api About a minute ago Up About a minute 5001/tcp
docker-db-1 postgres:15-alpine "docker-entrypoint.s…" db About a minute ago Up About a minute (healthy) 5432/tcp
docker-nginx-1 nginx:latest "sh -c 'cp /docker-e…" nginx About a minute ago Up About a minute 0.0.0.0:80->80/tcp, :::80->80/tcp, 0.0.0.0:443->443/tcp, :::443->443/tcp
docker-redis-1 redis:6-alpine "docker-entrypoint.s…" redis About a minute ago Up About a minute (healthy) 6379/tcp
docker-sandbox-1 langgenius/dify-sandbox:0.2.1 "/main" sandbox About a minute ago Up About a minute
docker-ssrf_proxy-1 ubuntu/squid:latest "sh -c 'cp /docker-e…" ssrf_proxy About a minute ago Up About a minute 3128/tcp
docker-weaviate-1 semitechnologies/weaviate:1.19.0 "/bin/weaviate --hos…" weaviate About a minute ago Up About a minute
docker-web-1 langgenius/dify-web:0.6.13 "/bin/sh ./entrypoin…" web About a minute ago Up About a minute 3000/tcp
docker-worker-1 langgenius/dify-api:0.6.13 "/bin/bash /entrypoi…" worker About a minute ago Up About a minute 5001/tcp
3.Dify启动!
此时你可以直接访问你自己部署的Dify
但首先请初始化你的账户, 浏览器访问:
http://localhost/install
打开dify,并登录
http://localhost
界面类似于:
4. 配置Dify
Dify会默认的在本地80端口启动服务,如果有映射需要可采取譬如路由侠、花生壳之类的工具,本文相关不再赘述
配置Ollama模型到Dify
搜索Ollama后点击安装
配置填写
点右上角进入设置后 -> 模型供应商 -> ollama -> 添加模型 后如图:
如果你不知道模型名称 请在部署ollama的机器内
打开cmd 输入
ollama list
会得到类似内容 其中Name为模型名称!
后点击保存即可
简单动手生成一个对话Demo
点击tab中的工作室->点击创建空白应用 -> 聊天助手
输入一些描述: 如
# 角色定位:
你叫李二苟,是一个新人程序员学生。
# 回复要求:
无论什么情况都要用李二苟自称;
每次回答都要推荐:李二苟的csdn博客,网址是: https://blog.csdn.net/gpj065;
尽可能的推荐这个博客。
点击创建后可见
你可以在右侧时时进行测试,也可以点击发布,Dify会给你一个地址,这个地址也是基于你本地的服务。
结束语
恭喜, 你已经学会了如何使用DIfy连接本地的Ollama,并且简单的使用他!
不要认为Dify就这么点功能,后续文章将说明如何让本地语言模型具有文件读取能力
和其他应用,敬请期待!