Ollama 简介及安装部署

一、Ollama 简介

Ollama 是一个专注于本地化部署和运行大型语言模型(LLM)的工具,旨在让用户能够在自己的设备上高效地运行和微调模型。它由 Ollama 团队开发,这是一家独立的初创公司,由 Michael Chiang 和 Jeffrey Morgan 创立,总部位于加利福尼亚州帕洛阿尔托 。Ollama 的代码完全开源,遵循 MIT 开源协议,其开源地址为:https://github.com/ollama/ollama ,用户可以自由查看、修改和分发。其主要特点包括:

跨平台支持:兼容 Windows、Linux、MacOS 系统。

丰富模型库:提供 1700 + 大语言模型,如 Qwen、Llama 等,可在官网 model library 中直接下载使用。

用户模型上传:支持将 huggingface 等地方的 ggml 格式模型导入使用,也能将基于 pytorch 等格式的模型转换为 ggml 格式后导入。

自定义配置:用户可通过编写 modelfile 配置文件自定义模型推理参数,如 temperature、top_p 等,调节模型生成效果。

多 GPU 并行加速:支持多 GPU 并行推理加速,在多卡环境下可设置环境变量指定特定 GPU。

二、安装前准备

确保 Linux 系统满足以下条件:

系统要求:常见的 Linux 发行版,如 Ubuntu、CentOS 等。

硬件要求:至少有 8GB 的可用 RAM 来运行 7B 模型,16GB 来运行 13B 模型,32GB 来运行 33B 模型 。若有 GPU,推理效率会更高。

网络连接:安装过程需要联网下载相关组件和模型。

CUDA 支持:如果希望利用 GPU 加速 Ollama 运行,需要确保系统已安装 CUDA Toolkit。CUDA 是 NVIDIA 推出的一种并行计算平台和编程模型,可让 GPU 执行通用计算任务,大幅提升大语言模型的推理速度。
安装条件:需拥有 NVIDIA GPU,且显卡算力满足 CUDA 版本要求,可在 NVIDIA 官网查看对应关系。同时,要安装对应版本的 NVIDIA 驱动程序。
检查 CUDA 是否安装:打开终端,执行nvcc --version命令,若已安装,会显示 CUDA 版本信息;若未安装,可前往 NVIDIA 官网下载对应版本的 CUDA Toolkit 安装包进行安装。安装过程中,按照提示进行操作,注意选择正确的安装路径和组件。

三、安装方法

(一)脚本安装

1.打开终端,执行以下命令下载安装脚本:

curl -fsSL https://ollama.com/install.sh | sh

此命令会从 Ollama 官网下载安装脚本并自动执行,过程中可能需要输入用户密码以获取安装权限。

2. 等待安装完成。安装脚本会自动下载所需组件,并完成 Ollama 的安装与配置。安装过程中会显示下载进度和安装步骤信息。

(二)二进制安装

2.将 Ollama 的二进制文件下载到 PATH 中的目录,例如:

sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollamasudo chmod +x /usr/bin/ollama

上述命令使用 curl 下载 Ollama 二进制文件到/usr/bin目录,并赋予其可执行权限。

2. 将 Ollama 添加为自启动服务:

首先,为 Ollama 创建用户:

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

然后在/etc/systemd/system/ollama.service创建服务文件,内容如下:

[Unit]Description=Ollama ServiceAfter=network-online.target[Service]ExecStart=/usr/bin/ollama serveUser=ollamaGroup=ollamaRestart=alwaysRestartSec=3[Install]WantedBy=default.target

3.设置开机自启动:

sudo systemctl daemon-reloadsudo systemctl enable ollama

4.启动 Ollama:

sudo systemctl start ollama

(三)安装特定版本

如果需要安装特定版本的 Ollama,可以设置OLLAMA_VERSION字段,例如安装 0.3.13 版本:

curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.3.13 sh

四、安装验证

安装完成后,可以通过以下方式验证 Ollama 是否安装成功:

1.查看版本信息,在终端执行:

ollama -v

如果安装成功,会显示 Ollama 的版本号。

2. 查看帮助信息,执行:

ollama --help

此时会显示 Ollama 的常用命令及参数说明。

五、启动与停止

启动 Ollama 服务

ollama serve

或者使用 systemd 启动:

sudo systemctl start ollama

停止 Ollama 服务

sudo systemctl stop ollama

六、查看日志

查看作为启动服务运行的 Ollama 的日志:

journalctl -e -u ollama

七、更新 Ollama

(一)通过脚本更新

执行以下命令:

curl -fsSL https://ollama.com/install.sh | sh

(二)下载二进制文件更新

sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollamasudo chmod +x /usr/bin/ollama

八、卸载 Ollama

删除 Ollama 服务:

sudo systemctl stop ollamasudo systemctl disable ollama

删除 Ollama 二进制文件及相关配置文件(根据实际安装路径确定),例如:

sudo rm /usr/bin/ollamasudo rm -rf /usr/share/ollama
sudo rm -rf /etc/systemd/system/ollama.service

清理残留的用户和组(可选):

sudo userdel -r ollama
sudo groupdel ollama

卸载完成后,Ollama 将从系统中移除。

九、Ollama 对 DeepSeek 的支持

Ollama 支持 DeepSeek,DeepSeek 是一个开源的大型语言模型,针对高性能推理和微调进行了优化,是像 LLaMA、GPT 和 Mistral 这样的模型的强大替代品,提供快速处理和可扩展的能力,成为研究和开发的理想选择。通过 Ollama,用户可以方便地在本地运行和管理 DeepSeek 模型,具体操作如下:

(一)拉取 DeepSeek 模型

在安装好 Ollama 后,使用以下命令拉取 DeepSeek 模型:

ollama pull deepseek-r1:1.5b

这将在您的系统上下载并安装 DeepSeek LLM (1.5B) 。如果您想尝试不同大小或配置的模型,请查看官方库:DeepSeek on Ollama 。

(二)运行 DeepSeek 模型

模型下载完成后,使用以下命令运行 DeepSeek 模型:

ollama run deepseek-r1:1.5b

这将启动与 DeepSeek AI 的交互式聊天会话,您可以在会话中与模型进行交互,输入问题并获取回答。

(三)使用 Ollama API 调用 DeepSeek 模型

Ollama 提供了一个 API,用于将 DeepSeek 模型集成到您的应用程序中。首先运行服务:

ollama serve

然后使用curl发送请求,示例如下:

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:1.5b","prompt": "What is DeepSeek?","stream": false}'

通过这种方式,您可以在自己的应用程序中调用 DeepSeek 模型,实现各种功能,如文本生成、问答系统等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/25223.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

安宝特科技 | Vuzix Z100智能眼镜+AugmentOS:重新定义AI可穿戴设备的未来——从操作系统到硬件生态,如何掀起无感智能革命?

一、AugmentOS:AI可穿戴的“操作系统革命” 2025年2月3日,Vuzix与AI人机交互团队Mentra联合推出的AugmentOS,被业内视为智能眼镜领域的“iOS时刻”。这款全球首个专为智能眼镜设计的通用操作系统,通过三大突破重新定义了AI可穿戴…

自然语言处理(NLP):文本向量化从文字到数字的原理

在人工智能领域,尤其是自然语言处理(NLP)中,将文本信息转化为机器可以理解的形式是一个至关重要的步骤。本文探讨如何将文本转换为向量表示的过程,包括分词、ID映射、One-hot编码以及最终的词嵌入(Embeddin…

如何免费使用稳定的deepseek

0、背景: 在AI辅助工作中,除了使用cursor做编程外,使用deepseek R1进行问题分析、数据分析、代码分析效果非常好。现在我经常会去拿行业信息、遇到的问题等去咨询R1,也给了自己不少启示。但是由于官网稳定性很差,很多…

Cherry Studio + 火山引擎 构建个人AI智能知识库

🍉在信息化时代,个人知识库的构建对于提高工作效率、知识管理和信息提取尤为重要。尤其是当这些知识库能结合人工智能来智能化地整理、分类和管理数据时,效果更为显著。我最近尝试通过 Cherry Studio 和 火山引擎 来搭建个人智能知识库&#…

Python:循环

while循环&#xff1a; 基本格式如下&#xff1a; i1 while i<100: print(好好学习天天向上) i1 同理还有while循环嵌套&#xff1a; for循环&#xff08;迭代循环&#xff09; 基本格式&#xff1a; strhello for i in str print(i)#int整型不是迭代对象&#xff0c;需…

【leetcode hot 100 15】三数之和

一、两数之和的扩展 class Solution {public List<List<Integer>> threeSum(int[] nums) {// 将得到的结果存入Set中&#xff0c;保证不重复Set<List<Integer>> set new HashSet<>();// 模拟两数之和&#xff0c;作为第一个循环中的内容for(in…

Cesium高级开发教程之四十三:缓冲区分析#线

一、简介 基本概念:线缓冲区分析是指以 Cesium 中的线要素(如道路、河流等)为基础,在其两侧创建一定宽度的带状区域。例如,在地图上有一条河流的线数据,通过线缓冲区分析,可以得到河流两侧一定范围内的缓冲区域,用于表示河流的影响范围或进行相关的分析。实现原理:在 …

制造执行系统(MES)应用分析

全文概述 本文详细阐述了制造执行系统(MES)应用研究的主要内容,包括MES的定义、市场需求、企业选型与实施、应用现状、面临的挑战以及未来发展趋势。文章中基于广泛的行业调研,提供了详实的分析和见解。首先介绍了MES的基本概念和重要性,随后探讨了MES市场的投资、需求和选…

使用 VSCode 代替 BeyondStudio for NXP 开发 JN 5169

使用 VSCode 代替 BeyondStudio for NXP 开发 JN 5169 一、安装 VSCode二、搭建 NXP JN5169 ZigBee 3.0 开发环境和下载示例工程三、配置 VSCode1、配置环境变量 MYSYS_HOME2、VSCode 安装以下插件3、VSCode 配置头文件路径 四、编译工程1、JN-AN-1219 有 6 个构建选项2、修改 …

Spring集成 Spring AI + DeepSeek

当 Spring Boot 与 DeepSeek 相遇&#xff0c;两者的结合为开发 AI 应用程序带来了前所未有的机遇。Spring Boot 的强大功能和便捷性&#xff0c;使得开发者能够快速搭建稳定的后端服务&#xff0c;而 DeepSeek 的先进大语言模型则为应用赋予了强大的智能交互和处理能力。通过将…

CentOS中shell脚本对多台机器执行下载安装

1.建立免密ssh连接 详情见这篇&#xff1a; CentOS建立ssh免密连接&#xff08;含流程剖析&#xff09;-CSDN博客 2.脚本编写 我这里只是简单写了个demo进行演示&#xff0c;如果服务器很多可以先暂存成文件再逐行读取host进行连接并执行命令 用node1去ssh连接node2和node…

华为AP 4050DN-HD的FIT AP模式改为FAT AP,家用FAT基本配置

在某鱼买了两台华为AP 4050DN-HD , AP是二手的 , 在AC上上过线 , 所以就不能开机自选为FIP模式了 我没有AC无线控制器 , 就是买一个自己玩 , AP又是FIT瘦AP模式 ,所以我就想把AP的瘦AP模式改为FAT胖AP模式 1. 准备工作 1.1下载好对应软件&#xff0c;进入到 企业业务网站去下…

C++ 中的reduce函数使用指南

本文与reduce函数学习的知识深度很浅&#xff0c;主要是记录一下使用reduce来简化代码&#xff0c;高效解题。 参考资料&#xff1a; https://cppreference.cn/w/cpp/algorithm/reduce 1. reduce 函数概述 reduce 函数类似于 accumulate&#xff0c;但它允许更灵活的并行化和…

stm32四种方式精密控制步进电机

在搭建完clion的开发环境后&#xff0c;我决定重写之前的项目并优化完善&#xff0c;争取做出完全可落地的东西&#xff0c;也结合要写的论文内容一同学习下去。 因此&#xff0c;首当其冲的就是回到步进电机控制领域&#xff0c;把之前使用中断溢出进行步进电机控制的方案进行…

HTML——前端基础1

目录 前端概述 前端能做的事情​编辑 两步完成一个网页程序 前端工具的选择与安装 HTML HTML5介绍 HTML5的DOCTYPE声明 HTML基本骨架 文字标签 标题之标签 标签之段落、换行、水平线 标签之图片 标签之超文本链接 标签之文本 列表标签之有序列表 列表标签之无序…

【QT问题】Ubantu环境下解决已经下载好的qt怎么添加或卸载其他组件

1、找到自己qt的安装目录->双击打开MaintenanceTool.exe 2、点击next进去&#xff0c;此时需要登录qt账户&#xff08;如果没有去官网注册一个&#xff0c;很快且免费&#xff09; 我这里随便填的账号&#xff0c;如果是正确的下面next就能够点击。 这里随便提一下&#xf…

TaskBuilder设置排序条件

在整个向导的最后一步&#xff0c;可以设置是否按指定字段的值对查询结果进行排序&#xff0c;支持正序和倒序两种排序方式。如果没有设置任何排序字段&#xff0c;则默认按数据库里现有数据记录的实际存储的先后顺序排序。如果设置了多个排序条件&#xff0c;则按这些条件从上…

Taylor龙哥库塔。各种稳定性

——Taylor 龙额库塔 需要利用&#xff1a; 1.k1f 2.b21a1 3.k1fuffu | | 稳定区域 | | | | | | BDFq 方法是 A(φq)-稳定的&#xff0c;其中 φ1 φ2 90◦, φ3 ≈86.03◦, φ4 ≈73.35◦, φ5 ≈51.84◦, 和 φ6 ≈17.84◦; 参见 2 3. | | | WSBDFq 方法是 A( ˜ φ…

AI如何通过大数据分析提升制造效率和决策智能化

人工智能&#xff08;AI&#xff09;与大数据技术的融合&#xff0c;不仅重新定义了生产流程&#xff0c;更让企业实现了从“经验驱动”到“数据智能驱动”的跨越式升级。 从“模糊经验”到“精准洞察”​​ 传统制造业依赖人工经验制定生产计划&#xff0c;但面对复杂多变的市…

Windows docker下载minio出现“Using default tag: latestError response from daemon”

Windows docker下载minio出现 Using default tag: latest Error response from daemon: Get "https://registry-1.docker.io/v2/": context deadline exceeded 此类情况&#xff0c;一般为镜像地址问题。 {"registry-mirrors": ["https://docker.re…