您的位置:首页 > 汽车 > 新车 > 网页加速器免费_武汉公司网站推广_windows优化大师功能_上海seo优化bwyseo

网页加速器免费_武汉公司网站推广_windows优化大师功能_上海seo优化bwyseo

2025/3/10 9:56:16 来源:https://blog.csdn.net/weixin_45697805/article/details/145856129  浏览:    关键词:网页加速器免费_武汉公司网站推广_windows优化大师功能_上海seo优化bwyseo
网页加速器免费_武汉公司网站推广_windows优化大师功能_上海seo优化bwyseo

文章目录

  • 1.Ollama部署
    • 1.1 安装Ollama
    • 1.2 配置Ollama
    • 1.3 下载deepseek模型
  • 2.安装MaxKB可视化页面
    • 2.1 下载镜像
    • 2.2 运行容器
    • 2.3 配置MaxKB
  • 3.配置Chatbox AI可视化页面

1.Ollama部署

Ollama下载地址

根据自己需求选择版本下载在这里插入图片描述

1.1 安装Ollama

  1. 下载安装脚本并执行
curl -fsSL https://ollama.com/install.sh | sh

1.2 配置Ollama

  1. 配置模型默认存储位置

可以把模型放在数据盘下

#创建目录
[root@10-60-236-43 ~]# mkdir -p /opt/ollama/models#授予权限
[root@10-60-236-43 ~]# chown -R ollama.ollama /opt/ollama
[root@10-60-236-43 ~]# chmod 755 /opt/ollama
#修改service文件
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_MODELS=/opt/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"[Install]
WantedBy=default.target#新增三行参数解释
Environment="OLLAMA_MODELS=/opt/ollama/models"   #模型存放得路径
Environment="OLLAMA_HOST=0.0.0.0" #表示接受来自任何网络接口的连接。
Environment="OLLAMA_ORIGINS=*"  #表示允许来自任何来源的跨域请求。#重新加载,重启
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[root@10-60-236-43 ~]# systemctl daemon-reload ; systemctl start ollama
[root@10-60-236-43 ~]# systemctl status ollama
  1. 访问web页面

http://IP:11434/

出现Ollama is running即可
在这里插入图片描述

  1. 检查模型目录
[root@10-60-236-43 opt]# ll ollama/models/
total 0
drwxr-xr-x 2 ollama ollama 6 Feb 25 11:27 blobs
#出现blobs表示模型目录也修改成

1.3 下载deepseek模型

deepseek模型下载地址

根据自己硬件情况下载对应得模型
在这里插入图片描述

  • 模型介绍及硬件需求
模型参数特点适用场景GPU 显存需求CPU 核心数内存需求
1.5B轻量级模型,参数量少,模型规模小适用于轻量级任务,如短文本生成、基础问答等4GB(4-bit 量化)4 核8GB
7B平衡型模型,性能较好,硬件需求适中适合中等复杂度任务,如文案撰写、表格处理、统计分析等8GB(4-bit 量化)8 核16GB
8B性能略强于 7B 模型,适合更高精度需求适合需要更高精度的轻量级任务,如代码生成、逻辑推理等10GB(4-bit 量化)8 核24GB
14B高性能模型,擅长复杂任务,如数学推理、代码生成可处理复杂任务,如长文本生成、数据分析等16GB(4-bit 量化)12 核32GB
32B专业级模型,性能强大,适合高精度任务适合超大规模任务,如语言建模、大规模训练、金融预测等24GB(4-bit 量化 + 多卡)16 核64GB
70B顶级模型,性能最强,适合大规模计算和高复杂任务适合高精度专业领域任务,如多模态任务预处理48GB(4-bit 量化 + 4 卡)32 核128GB
671B超大规模模型,适用于对准确性和性能要求极高的场景适用于大型科研机构进行前沿科学研究、大型企业进行复杂的商业决策分析等无单机方案,需分布式集群256 核以上512GB+
  1. 安装模型

根据模型的大小,等待的时间不同

[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
#注:我下载完这个模型之后 直接运行了 问了几个问题发现可以使用 我就退出了

在这里插入图片描述

  1. 查看模型
[root@10-60-236-43 ~]# ollama list
NAME               ID              SIZE      MODIFIED
deepseek-r1:14b    ea35dfe18182    9.0 GB    2 minutes ago
  1. 体验模型
[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
>>> 你好
<think>
</think>
你好!很高兴见到你,有什么我可以帮忙的吗?
>>> /bye to exit.

2.安装MaxKB可视化页面

此步骤是创建一个web可视化页面,让所有人访问使用的,如果只是自己用在本地装个客户端即可。请看第3步

2.1 下载镜像

[root@10-60-236-43 ~]# docker pull registry.fit2cloud.com/maxkb/maxkb

2.2 运行容器

[root@10-60-236-43 ~]# docker run -d --name=maxkb --restart=always -p 8080:8080 -v /opt/maxkb/postgresql-data:/var/lib/postgresql/data -v /opt/maxkb/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
8aa309ce8fa15fc38b378815a1d4b67a3dffc41809d53d0bd251085c86b6041f

2.3 配置MaxKB

  1. 访问IP:8080端口

默认账号:admin/MaxKB@123…

  1. 添加模型
    在这里插入图片描述

  2. 选择Ollama

在这里插入图片描述

  1. 填写对应信息

在这里插入图片描述

  1. 创建应用

在这里插入图片描述
在这里插入图片描述

  1. 配置应用

在这里插入图片描述
在这里插入图片描述

  1. 测试deepseek

在这里插入图片描述

3.配置Chatbox AI可视化页面

Chatbox AI地址

  1. 根据自己情况选择
    这里我选择了Windows客户端,是中文的
    在这里插入图片描述

  2. 配置Chatbox

第一次运行会弹出框,选择配置自己的API
在这里插入图片描述

  1. 选择Ollama API

在这里插入图片描述

  1. 配置自己Ollama的地址。云主机提前放开11434

模型下拉框选择咱们下载的模型,可以通过ollama list查看
在这里插入图片描述

  1. 使用deepseek

在这里插入图片描述

成功部署

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com