一、配置语言与时区
image-20250603162838074
从默认的西五区纽约时间改成东八区北京时间:
image-20250603163057486
二、安装配置模型供应商
2.1 安装模型供应商
2.1.1 以在线方式安装模型供应商
image-20250603150122644
以下尝试以在线方式安装国产的“深度求索”模型供应商。
image-20250603150347954
2.1.2
以离线插件方式安装模型供应商
在 Dify 1.4.1
版本中,模型供应商可以通过插件的方式安装。此处以“本地插件”的方式来相关模型供应商。
2.1.2.1
下载deepseek相关模型供应商插件
访问 Dify插件市场(https://marketplace.dify.ai/),搜索
deepseek
并下载 .difypkg
文件。
image-20250603153025291
image-20250603153037303
点击上图中的代表“下载”的图标后,正常时可以下载得到一个文件langgenius-deepseek_0.0.5.difypkg
,保存在本地备用。
2.1.2.2 本地插件方式安装插件
进入插件列表页面:
image-20250603153327091
按照上图标注的文字,通过“本地插件”的方式安装插件(会提示用户选中本地保存的插件离线安装文件):
image-20250603153437474
安装成功时,如下:
image-20250603153533147
同时在插件列表页面也可看到已经安装的插件:
image-20250603153704280
2.1.2.3 安装常用本地模型供应商
我们本地开发产品或使用时,一般都是自己在自己的服务器上部署开源LLM。部署开源LLM时使用的推理服务常用的有ollama与vllm。所以此处把这两个模型供应商都安装上。
image-20250617103203228
2.2 配置模型供应商
2.2.1 配置深度求索模型供应商
image-20250603160952200
填写api key:
image-20250603161405917
查看模型列表:
image-20250603161916158
2.2.2 配置ollama模型供应商
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 # systemd管理ollama服务 (llamafactory) root@g406011748489384920:~# cat /etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin" Environment="OLLAMA_HOST=0.0.0.0" [Install] WantedBy=default.target# ollama服务监听端口是默认的11434,可从任意服务器访问 (llamafactory) root@g406011748489384920:~# ss -antlup | grep ollama tcp LISTEN 0 4096 *:11434 *:* users:(("ollama",pid=3455491,fd=3)) # 查看ollama当前管理的大模型 (llamafactory) root@g406011748489384920:~# ollama list NAME ID SIZE MODIFIED qwen2.5:1.5b 65ec06548149 986 MB 4 days ago qwen2.5:3b 357c53fb659c 1.9 GB 5 days ago deepseek-r1:7b 755ced02ce7b 4.7 GB 2 weeks ago
image-20250617105901534
1 2 3 4 5 6 7 8 9 10 11 12 # 创建新目录,假设/mnt/ 是一个新磁盘分区挂载的目录 mkdir /mnt/ollama/.ollama/models -p systemctl status ollama systemctl stop ollama# /usr/share/ollama/.ollama/models 是ollama存储模型文件的默认目录 mv /usr/share/ollama/.ollama/models /mnt/ollama/.ollama/ vi /etc/systemd/system/ollama.service# 在[Service]下面添加如下内容:Environment="OLLAMA_MODELS=/mnt/ollama/.ollama/models" systemctl daemon-reload && systemctl restart ollama && systemctl enable ollama ollama list
2.2.3 配置vllm模型供应商
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 # 以容器方式启动vllm进程 docker run --runtime nvidia --name vllm --gpus all \ -v /root/.cache/modelscope/hub/models/Qwen/Qwen3-0.6B:/model \ -p 8000:8000 \ --ipc=host \ swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/vllm/vllm-openai:v0.9.1 \ --model /model \ --served-model-name qwen3-0.6b# vLLM 当前一次仅支持加载并运行一个大模型。如果要支持多个模型,可以运行多个 Docker 容器,每个容器加载不同模型,监听不同端口 # 查看所有模型 curl http://localhost:8000/v1/models# 模型名: qwen3-0.6b # vllm服务base url: http://10.11.15.190:8000/v1
image-20250617175639704
2.3 系统模型设置
由于DeepSeek官方只提供了可用于”系统推理模型“的LLM,其他模型如Embedding模型、Rerank模型等,可以通过安装通义千问插件并添加其api
key以使用。以下我一共安装与配置了3个插件:深度求索、通义千问与硅基流动。
image-20250604171434390
如果是自己开发与学习,建议安装、配置好ollama或vllm模型供应商,然后在系统模型设置中优先使用ollama或vllm中的模型