您的位置:首页 > 健康 > 养生 > 戴尔小企业官网_开放平台建设_seo整站优化系统_淘宝怎样优化关键词

戴尔小企业官网_开放平台建设_seo整站优化系统_淘宝怎样优化关键词

2024/12/23 1:23:12 来源:https://blog.csdn.net/zishuijing_dd/article/details/142467458  浏览:    关键词:戴尔小企业官网_开放平台建设_seo整站优化系统_淘宝怎样优化关键词
戴尔小企业官网_开放平台建设_seo整站优化系统_淘宝怎样优化关键词

本文继续来讲如何在linux上部署离线本地智能大模型,前篇如下:window上部署离线大模型

  1. 首先还是安装ollama linux版本,如果完全离线的话,可以从github上下载一个linux 版本的压缩包传上去
    git hub上搜索ollama 找到右下角
    在这里插入图片描述
    找到linux 版本进行下载
    在这里插入图片描述
    通常情况下的服务器都是amd版本,手机以及一些嵌入式的系统才是arm版本,很多命令都可以看,如下 uname -a
uname -a 

如果输出看到X86_64则是amd

  1. 模型下载:
    有几个大的社区,Hugging face或者国内的魔塔等,都有官网。
    比如下面的魔塔,找到模型库,搜一下感兴趣的模型,找到模型文件下载。
    在这里插入图片描述

  2. ollama可以导入两种格式的自定义模型:GGUF、Safetensors

如果要导入的模型保存为二进制 GGUF 文件,则可以通过 Modelfile(自己创建的一个文件) 直接将导入到 Ollama,文件内容如下:

FROM /path/to/file.gguf

如果要导入的模型保存为 Safetensors 文件且采用以下架构之一:LlamaForCausalLM、MistralForCausalLM、GemmaForCausalLM,则也可以通过Modelfile直接将其导入到Ollama中,文件内容如下,跟上面其实一样:

FROM /path/to/safetensors/directory

而上文中我们下载的 Qwen2 采用 Qwen2ForCausalLM 的架构,因此只能使用 GGUF 格式的才能直接导入

具体的做法,举个例子:
vim 新建文件 Modelfile,其中的 qwen2-7b-instruct-q4_0.gguf 指明了采用 4bit 量化的版本:

vim ModelfileFROM /path/to/ollama/models/qwen2-7b-instruct-q4_0.gguf
然后保存这个文件

然后从Modelfile读取模型,创建名为qwen2的模型

ollama create qwen2-instruct -f ./Modelfile 

命令行出现如下,表示成功

// 命令行提示以下信息说明模型创建成功
transferring model data 
using existing layer sha256:c188f9260d419ff6b38c4630f19ffd260caed3559506206ba344aceb9c90f90c 
using autodetected template chatml 
creating new layer sha256:50ba761223141488f01a893a1d79e3ebbb54b18debf629b3ff9b50a7816ba6d1 
writing manifest 
success

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com