您的位置:首页 > 汽车 > 时评 > Ollama-AI大模型本地运行工具,Windows安装详细步骤

Ollama-AI大模型本地运行工具,Windows安装详细步骤

2024/11/17 18:34:12 来源:https://blog.csdn.net/qq_17153885/article/details/141833715  浏览:    关键词:Ollama-AI大模型本地运行工具,Windows安装详细步骤

一、关于Ollama

1.1 简介

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户。

Get up and running with large language models.

image

Ollama官网

image

1.2 功能特点

  • 能直接运行大模型,与大模型进行对话。
  • ollama 命令具有管理大模型的能力。
  • 利用 cpu 运行大模型。
  • 本地大模型安全可靠。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。

本地运行能力:Ollama允许用户在本地机器上部署和运行语言模型,无需依赖外部服务器或云服务,这极大地提高了数据处理的隐私性和安全性。

多平台支持:Ollama支持多种操作系统,包括macOS、Windows和Linux,以及Docker环境,使得不同平台的用户都能轻松使用。

灵活的模型自定义:用户可以通过Ollama的Modelfile来定制模型参数和行为,实现模型的个性化设置,满足特定的应用需求。

丰富的API和库支持:Ollama提供了Python和JavaScript库,以及CLI和REST API,方便开发者集成到各种应用中。

模型库和导入支持:Ollama支持从多种格式导入模型,如GGUF、PyTorch和Safetensors,同时也提供了一个模型库,方便用户选择和使用。

Ollama支持多种操作系统,包括但不限于:

  • macOS:适用于所有现代版本的macOS。
  • Windows:支持Windows 10及更高版本。
  • Linux:支持多种Linux发行版,如Ubuntu、Fedora等。
  • Docker:通过Docker容器,Ollama可以在几乎任何支持Docker的环境中运行。

这种广泛的操作系统支持确保了Ollama的可用性和灵活性,使得不同环境下的用户都能轻松使用。

二、下载安装

2.1 下载

通过如下链接下载

Download Ollama on Windows

image

image

image

(由于网络原因,下载比较慢或失败,可私信获取安装包)

2.2 安装

双击安装包安装

image

2.3 验证

进入cmd或PowerShell界面,输入如下命令,显示版本则安装成功

 Ollama -v

image

三、大模型下载

下面介绍三种通过 Ollama 下载大模型到本地方式:

  1. 方式一:直接通过 Ollama 远程仓库下载,这是最直接的方式,也是最推荐、最常用的方式
  2. 方式二:如果已经有 GGUF 模型权重文件了,不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)
  3. 方式三:如果已经有 safetensors 模型权重文件,也不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)

3.1 远程仓库大模型列表

通过如下链接,进入ollama大模型仓库

library

image

这里以通义大模型为例,可以看到不同参数,对应模型大小。

image

3.2 通过命令执行下载并运行大模型

这里选择通义0.5b参数的模型:

下载命令

ollama pull qwen2:0.5b

下载+运行命令

ollama run qwen2:0.5b

image

image

3.3 测试—大模型对话

image

可以看到大模型在本地运行起来,并可以进行对话。后续教程会分享大模型应用,集成到java springboot项目中。

四、Ollama命令

Ollama作为一个开源的大型语言模型服务工具,提供了一系列的命令来帮助用户安装、配置、运行和管理大型语言模型。以下是一些基本的Ollama命令介绍:

【展示本地大模型列表:ollama list​】

>ollama list
NAME            ID              SIZE    MODIFIED
gemma2:9b       c19987e1e6e2    5.4 GB  7 days ago
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

可以看到,上述有 2 个大模型,它们的名称(NAME)分别为gemma2:9bqwen2:7b

【删除单个本地大模型:ollama rm 本地模型名称​】

>ollama rm gemma2:9b
deleted 'gemma2:9b'>ollama list
NAME            ID              SIZE    MODIFIED
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

老牛同学通过rm​命令删除了gemma2:9b大模型之后,再次通过list​命令查看,本地只有qwen2:7b一个大模型了。

【启动本地模型:ollama run 本地模型名​】

>ollama run qwen2:0.5b
>>>

启动成功之后,就可以通过终端对话界面进行对话了(本命令下面也会讲到,其他详细暂且忽略)

【查看本地运行中模型列表:ollama ps​】

>ollama ps
NAME            ID              SIZE    PROCESSOR       UNTIL
qwen2:0.5b      6f48b936a09f    693 MB  100% CPU        4 minutes from now

通过ps​命名可以看到,老牛同学本地qwen2:0.5b大模型正在运行中。

image

【复制本地大模型:ollama cp 本地存在的模型名 新复制模型名​】

>ollama cp qwen2:0.5b Qwen2-0.5B
copied 'qwen2:0.5b' to 'Qwen2-0.5B'>ollama list
NAME                    ID              SIZE    MODIFIED
Qwen2-0.5B:latest       6f48b936a09f    352 MB  4 seconds ago
qwen2:0.5b              6f48b936a09f    352 MB  29 minutes ago
qwen2:7b                e0d4e1163c58    4.4 GB  10 days ago

上面cp​命令,把本地qwen2:0.5b复制了一份,新模型名为Qwen2-0.5B

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com