开源必看!50 多个本地运行 LLM 的开源选项

在我之前的文章中,我讨论了使用本地托管的开源权重 LLM 的好处,例如数据隐私和成本节约。通过主要使用免费模型并偶尔切换到 GPT-4,我的月度开支从 20 美元降至 0.50 美元。设置端口转发到本地 LLM 服务器是移动访问的免费解决方案。

有许多开源工具可以在本地托管开源权重 LLM 进行推理,从命令行工具(CLI)到完整的 GUI 桌面应用程序。这里,我将概述一些流行选项并提供我的推荐。我将这篇文章分为以下几个部分:

\1. 便于访问的全能桌面解决方案2. 通过 CLI 和后端 API 服务器进行 LLM 推理3. 用于连接 LLM 后端的前端 UI

每个部分都包括相关开源 LLM GitHub 仓库的表格,以评估其受欢迎程度和活跃度。点击这里[1]查看完整表格,点击这里[2]查看相关 GitHub 仓库。

这些项目在范围上可能会重叠,并且可能分为推理后端服务器和 UI 的不同组件。该领域发展迅速,因此细节可能很快会过时。

图片

可用的开源本地 LLM 仓库的 Google 表格[3]

1. 桌面解决方案

全能桌面解决方案提供了易用性和最少的设置,以执行 LLM 推理,突出了 AI 技术的可访问性。只需下载并启动 .exe 或 .dmg 文件即可开始。对于寻求现成 ChatGPT 替代品的技术门槛较低的用户,这些工具为任何想要在进阶到更复杂、技术性更强的替代方案之前探索 AI 的人提供了坚实的基础。

流行选择:GPT4All

GPT4All 是一个全能应用程序,模拟了 ChatGPT 的界面,可以快速运行本地 LLM 以完成常见任务和 RAG。提供的模型开箱即用,并且体验专注于终端用户。

图片

GPT4All UI 实时演示

LM Studio 的开源替代品:Jan

LM Studio 因其简单的设置和用户友好的界面而受到 YouTuber 和博主的称赞。它提供了模型卡查看、模型下载和系统兼容性检查等功能,使初学者在模型选择中更加容易上手。

尽管 LM Studio 有很多优点,但由于其专有性质可能会在商业环境中因许可限制而限制使用,我不太推荐。此外,产品的不可避免的货币化也是一个问题。在可能的情况下,我更倾向于开源解决方案。

Jan[4] 是 LM Studio 的开源替代品,具有干净且优雅的 UI。开发者积极与社区(X 和 Discord)互动,保持良好的文档记录,并且对他们的工作透明——例如他们的路线图。

图片

Jan UI 实时演示

通过最近的更新[5],您可以轻松地从 Jan UI 下载模型。您还可以使用 HuggingFace 提供的任何模型或上传自定义模型。),您可以轻松地从 Jan UI 下载模型。您还可以使用 HuggingFace 提供的任何模型或上传自定义模型[6]。Jan 还拥有一个基于 llama.cpp 构建的最小 LLM 推理服务器(3 MB),名为 nitro,它支持他们的桌面应用程序。

功能丰富:h2oGPT

H2O.ai 是一家在开源社区做出巨大贡献的 AI 公司,其 AutoML 产品和现在的生成 AI 产品均有卓越表现。h2oGPT[7] 提供了广泛的功能和定制选项,特别适合 NVIDIA GPU 拥有者:

•支持多种文件格式进行离线 RAG[8]•使用奖励模型评估模型性能•用于搜索、文档问答、Python 代码、CSV 的代理•通过成千上万个单元测试和集成测试进行稳健测试

你可以在 gpt.h2o.ai[9] 体验界面,看看是否符合你的需求。如果你对更多功能感兴趣,基本版本的应用程序可供下载,提供有限的文档查询功能。有关安装,请参阅安装说明。

图片

h2oGPT 可在 https://gpt.h2o.ai/ 获取。

其他桌面解决方案

最受欢迎的 5 个开源 LLM 桌面解决方案:

图片

完整表格可在这里查看[10]

2. 通过 CLI 和后端 API 服务器进行 LLM 推理

CLI 工具启用带有远程 API 的本地推理服务器,集成前端 UI(在第 3 节列出)以提供定制体验。它们通常提供与 OpenAI API 兼容的端点,以便通过最少的代码更改轻松切换模型。

虽然聊天机器人是最常见的用例,但你也可以使用这些工具来支持代理,使用诸如 CrewAI 和微软的 AutoGen 等框架。

高优化:llama.cpp

llama.cpp 提供了跨设备进行 LLM 推理的最小设置。该项目是 Llama2 的 C++ 移植版,并支持 GGUF 格式模型,包括多模态模型,如 LLava。其高效性能适合消费级硬件和边缘设备。

图片llama.cpp

有许多基于 llama.cpp 的绑定,如 llama-cpp-python(更多绑定在 README 描述中列出)。因此,许多工具和 UI 都基于 llama.cpp 构建,并提供了更用户友好的界面。

要开始,请按照这里的说明[11]操作。你需要从 HuggingFace 下载 GGUF 格式的模型。

llama.cpp 具有自己的 HTTP 服务器实现,只需输入 ./server 启动。

# Unix-based example
./server -m models/7B/ggml-model.gguf -c 2048

这意味着你可以轻松将其与第 2 节列出的其他 Web 聊天 UI 连接。

此选项最适合那些熟悉命令行界面(CLI),并且喜欢编写自定义脚本和在终端查看输出的人。

直观的 CLI 选项:Ollama

Ollama[12] 是另一个 LLM 推理命令行工具——基于 llama.cpp 构建,将脚本抽象为简单命令。受 Docker 启发,它提供简单直观的模型管理,便于切换模型。你可以在 https://ollama.ai/library 查看可用模型列表。你还可以按照这些说明运行任何来自 HuggingFace 的 GGUF 模型。

图片

按照说明下载 Ollama 应用程序后,你可以在终端运行简单的推理:

ollama run llama2

关于选择模型大小的一个通用经验法则,可以参考 Ollama 的 README[13]。

要运行 7B 模型,你至少需要 8 GB 的 RAM,运行 13B 模型需要 16 GB,运行 33B 模型需要 32 GB。

默认情况下,Ollama 使用 4-bit 量化。要尝试其他量化级别,可以使用其他标签。q 后的数字代表量化使用的位数(例如,q4 意味着 4-bit 量化)。数字越高,模型越精确,但运行速度越慢,并且需要更多内存。

使用 ollama serve 命令,Ollama 会在端口 11434 上作为本地服务器运行,可以连接其他服务。更多信息可以在 FAQ[14] 中找到。

Ollama 以其强大的社区支持和积极开发而著称。其频繁的更新是由 Discord 上用户反馈驱动的。Ollama 有许多集成,并且已经有人开发了与移动设备的兼容性。

其他 LLM 后端选项

最受欢迎的 5 个 LLM 推理仓库:

图片

3. 用于连接 LLM 后端的前端 UI

第 2 节讨论的工具可以使用 LLM 的预训练数据处理基本查询。然而,通过集成外部信息(例如网页搜索和检索增强生成(RAG)),它们的功能显著扩展。利用像 LangChain 和 LlamaIndex 这样的现有 LLM 框架的用户界面,可以简化将数据块嵌入到向量数据库中的过程。

本节中提到的 UI 可以无缝地与第 1 节工具设置的后端服务器接口。它们兼容各种 API,包括 OpenAI 的 API,允许轻松集成专有和开源权重模型。

与 ChatGPT 在视觉和功能上最相似:Open WebUI

Open WebUI[15] 是一个提供本地 RAG 集成、网页浏览、语音输入支持、多模态功能(如果模型支持)、支持 OpenAI API 作为后端等功能的 Web UI。以前称为 ollama-webui,该项目由 Ollama 团队开发。

图片

OpenWeb UI 演示(https://github.com/open-webui/open-webui)

要将 Open WebUI 与 Ollama 连接,你只需安装 Docker,然后运行以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

然后,你可以在 http://localhost:3000 访问 Open WebUI。

功能丰富的 UI:Lobe Chat

Lobe Chat[16] 具有更多功能,包括其用于函数调用和代理市场的插件系统。插件包括搜索引擎、网页提取和许多社区定制插件。他们的提示代理市场类似于 ChatGPT 市场,允许用户共享和优化自己的提示代理。

图片

要使用 Ollama 与本地 LLM 开始 Lobe Chat 对话,只需使用 Docker:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat

然后,你可以在 http://localhost:3210 访问 Lobe Chat。详细信息请阅读这里[17]。

支持多种后端的 UI:text-generation-webui

由 Oogabooga 开发的 text-generation-webui [18]是一个功能齐全的 Gradio Web UI,支持多种后端加载器,如 transformers、GPTQ、autoawq(AWQ)、exllama(EXL2)、llama.cpp(GGUF)和 Llama 模型——这些是 transformer 代码库的重构,带有额外的调整。

图片

text-generation-webui UI(https://github.com/oobabooga/text-generation-webui)

text-generation-webui 具有高度可配置性,甚至可以通过其 transformers 后端使用 QLoRA 进行微调。这使得你可以增强模型的能力并根据你的数据进行定制。其 wiki 上有详尽的文档。我发现这个选项对快速测试模型非常有用,因为它开箱即用支持性很强。

其他 UI 选项

最受欢迎的 5 个开源 LLM UI:

图片

完整(https://docs.google.com/spreadsheets/d/1Xv38p90V3GiJXjq0a3qc24056Vicn1I5MG6QiFE6nVE/edit#gid=0)

结论:我的使用推荐

我一直在使用 Ollama,因为它的多功能性、易于管理的模型和强大的支持,特别是它与 OpenAI 模型的无缝集成。对于编程,Ollama 的 API 可以与 continue.dev 的 VS Code 插件连接,替代 GitHub Copilot。

对于 UI,我更喜欢 Open WebUI,因为它具有专业的、类似 ChatGPT 的界面,或者选择 Lobe Chat 来使用额外的插件。对于那些寻找类似 ChatGPT 的用户友好桌面应用程序的人,Jan 是我的首选推荐。

我根据与 LLM 交互的方式,使用 Ollama 和 Jan 进行本地 LLM 推理。你可以集成 Ollama 和 Jan 以节省系统存储并避免模型重复。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/377265.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

WSL2 的安装与运行 Linux 系统

前言 适用于 Linux 的 Windows 子系统 (WSL) 是 Windows 的一项功能,允许开发人员在 Windows 系统上直接安装并使用 Linux 发行版。不用进行任何修改,也无需承担传统虚拟机或双启动设置的开销。 可以将 WSL 看作也是一个虚拟机,但是它更为便…

let/const/var的区别及理解

在JavaScript中,let、const 和 var 是用来声明变量的关键字,但它们之间在作用域、变量提升、重复声明等方面存在区别,详细情况如下: 1. let、const、var 的区别 (1) 块级作用域 let 和 const:具有块级作用域,由 {} 包…

记录些Redis题集(2)

Redis 的多路IO复用 多路I/O复用是一种同时监听多个文件描述符(如Socket)的状态变化,并能在某个文件描述符就绪时执行相应操作的技术。在Redis中,多路I/O复用技术主要用于处理客户端的连接请求和读写操作,以实现高并发…

Redis 中String类型操作命令(命令演示,时间复杂度,返回值,注意事项)

String 类型 文章目录 String 类型set 命令get 命令mset 命令mget 命令get 和 mget 的区别incr 命令incrby 命令decr 命令decrby 命令incrbyfloat 命令append 命令getrange 命令setrange 命令 字符串类型是 Redis 中最基础的数据类型,在讲解命令之前,我们…

STM32基础篇:EXTI × 事件 × EXTI标准库

EXTI EXTI简介 EXTI:译作外部中断/事件控制器,STM32的众多片上外设之一,能够检测外部输入信号的边沿变化并由此产生中断。 例如,在检测按键时,按键按下时会使电平产生翻转,因此可以使用EXTI来读取按下时…

用AirScript脚本给女/男朋友发送每日早安邮件(极简版本)

先看效果 工具 金山文档/WPS提供了每日定时的AirScript脚本服务,非常方便~ 话不多说,我们以金山文档为例,只有简单的五个步骤,非常容易~ 教程开始 步骤1 我们打开金山文档新建一个智能表格 步骤2 按下图…

基于Python thinker GUI界面的股票评论数据及投资者情绪分析设计与实现

1.绪论 1.1背景介绍 Python 的 Tkinter 库提供了创建用户界面的工具,可以用来构建股票评论数据及投资者情绪分析的图形用户界面(GUI)。通过该界面,用户可以输入股票评论数据,然后通过情感分析等技术对评论进行情绪分析…

【Linux网络】IP协议{初识/报头/分片/网段划分/子网掩码/私网公网IP/认识网络世界/路由表}

文章目录 1.入门了解2.认识报头3.认识网段4.路由跳转相关指令路由 该文诸多理解参考文章:好文! 1.入门了解 用户需求:将我的数据可靠的跨网络从A主机送到B主机 传输层TCP:由各种方法(流量控制/超时重传/滑动窗口/拥塞…

【JavaEE】网络编程——TCP

🤡🤡🤡个人主页🤡🤡🤡 🤡🤡🤡JavaEE专栏🤡🤡🤡 文章目录 前言1.网络编程套接字1.1流式套接字(TCP)1.1.1特点1.1.2编码1.1.2.1ServerSo…

微信小游戏 彩色试管 倒水游戏 逻辑 (二)

最近开始研究微信小游戏,有兴趣的 可以关注一下 公众号, 记录一些心路历程和源代码。 定义一个 Water class 1. **定义接口和枚举**: - WaterInfo 接口定义了水的颜色、高度等信息。 - PourAction 枚举定义了水的倒动状态,…

【Nuxt3】vue3+tailwindcss+vuetify引入自定义字体样式

一、目的 在项目中引入自定义的字体样式(全局页面都可使用) 二、步骤 1、下载好字体 字体的后缀可以是ttf、otf、woff、eot或者svg(推荐前三种) 以抖音字体为例下载好放在静态文件夹(font)下 案例字…

数学建模入门

目录 文章目录 前言 一、数学建模是什么? 1、官方概念: 2、具体过程 3、适合哪一类人参加? 4、需要有哪些学科基础呢? 二、怎样准备数学建模(必备‘硬件’) 1.组队 2.资料搜索 3.常用算法总结 4.论文撰写的…

【密码学】数字签名

一、数字签名的基本概念 数字签名是一种用于验证电子文档完整性和身份认证的密码学技术。它通过使用公钥加密体系中的私钥对文档的一部分(通常是文档的摘要)进行加密,从而创建一个“签名”。这个签名可以附在文档上,或作为一个单独…

【数据结构】--- 堆的应用

​ 个人主页:星纭-CSDN博客 系列文章专栏 :数据结构 踏上取经路,比抵达灵山更重要!一起努力一起进步! 一.堆排序 在前一个文章的学习中,我们使用数组的物理结构构造出了逻辑结构上的堆。那么堆到底有什么用呢&…

【Linux】01.Linux 的常见指令

1. ls 指令 语法:ls [选项] [目录名或文件名] 功能:对于目录,该命令列出该目录下的所有子目录与文件。对于文件,将列出文件名以及其他信息 常用选项: -a:列出当前目录下的所有文件,包含隐藏文件…

Spring webflux基础核心技术

一、 用操作符转换响应式流 1 、 映射响应式流元素 转换序列的最自然方式是将每个元素映射到一个新值。 Flux 和 Mono 给出了 map 操作符&#xff0c;具有 map(Function<T&#xff0c;R>) 签名的方法可用于逐个处理元素。 当操作符将元素的类型从 T 转变为 R 时&#xf…

「豆包Marscode体验官」我用豆包Marscode画数据大屏

认识豆包Marscode 豆包 MarsCode IDE 是一个 AI 原生的云端集成开发环境&#xff08;IDE&#xff09;。内置的 AI 编程助手和开箱即用的开发环境让我们可以更加专注于各种项目的开发。豆包 MarsCode 编程助手&#xff0c;具备以智能代码补全为代表的 AI 功能。支持了多种编程语…

【学习笔记】无人机(UAV)在3GPP系统中的增强支持(十二)-无人机群在物流中的应用

引言 本文是3GPP TR 22.829 V17.1.0技术报告&#xff0c;专注于无人机&#xff08;UAV&#xff09;在3GPP系统中的增强支持。文章提出了多个无人机应用场景&#xff0c;分析了相应的能力要求&#xff0c;并建议了新的服务级别要求和关键性能指标&#xff08;KPIs&#xff09;。…

解读网传《深圳IT圈⭕新解读八小时工作制》

网传深圳IT圈的新解读八小时工作制 工作时间安排&#xff1a; 10:00-12:0014:00-18:0019:00-21:00 初看&#xff1a;有惊喜 上午开始时间晚&#xff1a;相对于传统的9点开始&#xff0c;这种安排允许员工有更多的早晨时间&#xff0c;可以用来休息或处理个人事务。下午和晚上分…

Amazon EC2 部署Ollama + webUI

最近和同事闲聊&#xff0c;我们能不能内网自己部署一个LLM&#xff0c;于是便有了Ollama webUI的尝试 对于Linux&#xff0c;使用一行命令即可 curl -fsSL https://ollama.com/install.sh | shollama --help Large language model runnerUsage:ollam…