【AI实战】开源大语言模型LLMs汇总

【AI实战】开源大语言模型LLM汇总

  • 大语言模型
  • 开源大语言模型
    • 1、LLaMA
    • 2、ChatGLM - 6B
    • 3、Alpaca
    • 4、PandaLLM
    • 5、GTP4ALL
    • 6、DoctorGLM (MedicalGPT-zh v2)
    • 7、MedicalGPT-zh v1
    • 8、Cornucopia-LLaMA-Fin-Chinese
    • 9、minGPT
    • 10、InstructGLM
    • 11、FastChat
    • 12、Luotuo-Chinese-LLM
    • 13、CamelBell-Chinese-LoRA
    • 14、alpaca-lora
    • 其他开源项目,待补充。。。
  • 参考

大语言模型

大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。来自百度百科

  • 发展历史

    2020年9月,OpenAI授权微软使用GPT-3模型,微软成为全球首个享用GPT-3能力的公司。2022年,Open AI发布ChatGPT模型用于生成自然语言文本。2023年3月15日,Open AI发布了多模态预训练大模型GPT4.0。

    2023年2月,谷歌发布会公布了聊天机器人Bard,它由谷歌的大语言模型LaMDA驱动。2023年3月22日,谷歌开放Bard的公测,首先面向美国和英国地区启动,未来逐步在其它地区上线。

    2023年2月7日,百度正式宣布将推出文心一言,3月16日正式上线。文心一言的底层技术基础为文心大模型,底层逻辑是通过百度智能云提供服务,吸引企业和机构客户使用API和基础设施,共同搭建AI模型、开发应用,实现产业AI普惠。

开源大语言模型

本文列举了截止到 2023 年 6 月 8 日开源的大语言模型

1、LLaMA

  • 简介
    meta 开源的 LLaMA
    LLaMA完全是在公共开源预训练数据上训练。并且取得相当不错的效果,LaMA-13B在绝大部分的benchmarks上超越了GPT-3(175 B),并且LLaMA-65B的效果能够和最好的大模型,Chinchilla-70B以及PaLM-540B相比。
    Meta宣称会将LLaMA开源出来的。

  • 论文及代码
    论文:https://arxiv.org/abs/2302.13971v1
    代码:https://github.com/facebookresearch/llama

2、ChatGLM - 6B

  • 简介
    ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

  • 论文及代码
    论文:
    代码:https://github.com/THUDM/ChatGLM-6B
    官网:https://chatglm.cn/blog

  • 硬件需求
    在这里插入图片描述

  • 开源协议
    本仓库的代码依照 Apache-2.0 协议开源,ChatGLM-6B 模型的权重的使用则需要遵循 Model License。

【个人认为】 ChatGLM-6B 是目前开源的中文大语言模型的佼佼者。

3、Alpaca

  • 简介

    Stanford Alpaca: An Instruction-following LLaMA Model
    This is the repo for the Stanford Alpaca project, which aims to build and share an instruction-following LLaMA model. The repo contains:

    The 52K data used for fine-tuning the model.
    The code for generating the data.
    The code for fine-tuning the model.
    The code for recovering Alpaca-7B weights from our released weight diff.
    Note: We thank the community for feedback on Stanford-Alpaca and supporting our research. Our live demo is suspended until further notice.

    Usage and License Notices: Alpaca is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. The weight diff is also CC BY NC 4.0 (allowing only non-commercial use).

  • 论文及代码
    论文:https://arxiv.org/abs/2212.10560
    代码:https://github.com/tatsu-lab/stanford_alpaca

4、PandaLLM

  • 简介

    Panda: 海外中文开源大语言模型

    Panda 系列语言模型目前基于 Llama-7B, -13B, -33B, -65B 进行中文领域上的持续预训练, 使用了接近 15M 条数据, 并针对推理能力在中文 benchmark 上进行了评测, 希望能够为中文自然语言处理领域提供具有泛用性的通用基础工具.

    我们的 Panda 模型以及训练涉及的中文数据集将以开源形式发布,任何人都可以免费使用并参与开发。我们欢迎来自全球的开发者一起参与到该项目中,共同推动中文自然语言处理技术的发展。我们后续会进一步完善针对中文语言模型基础能力的评测,同时开放更大规模的模型。

  • 论文及代码
    论文:https://arxiv.org/pdf/2305.03025v1.pdf
    代码:https://github.com/dandelionsllm/pandallm

  • 模型版本:
    在这里插入图片描述

  • 模型测评
    在这里插入图片描述

5、GTP4ALL

  • 简介
    Open-source assistant-style large language models that run locally on your CPU.

GPT4All is made possible by our compute partner Paperspace.

GPT4All is an ecosystem to train and deploy powerful and customized large language models that run locally on consumer grade CPUs.

A GPT4All model is a 3GB - 8GB file that you can download and plug into the GPT4All open-source ecosystem software. Nomic AI supports and maintains this software ecosystem to enforce quality and security alongside spearheading the effort to allow any person or enterprise to easily train and deploy their own on-edge large language models.

  • 论文及代码

    代码:https://github.com/nomic-ai/gpt4all

6、DoctorGLM (MedicalGPT-zh v2)

  • 简介
    基于 ChatGLM-6B的中文问诊模型

  • 论文及代码
    论文:https://arxiv.org/pdf/2304.01097.pdf
    代码:https://github.com/xionghonglin/DoctorGLM
    huggingface:https://huggingface.co/zhaozh/medical_chat-en-zh

  • 训练数据
    在这里插入图片描述

7、MedicalGPT-zh v1

  • 简介
    本项目开源了基于ChatGLM-6B LoRA 16-bit指令微调的中文医疗通用模型。基于共计28科室的中文医疗共识与临床指南文本,我们生成医疗知识覆盖面更全,回答内容更加精准的高质量指令数据集。以此提高模型在医疗领域的知识与对话能力。

  • 论文及代码
    论文:https://arxiv.org/pdf/2304.01097.pdf
    代码:https://github.com/MediaBrain-SJTU/MedicalGPT-zh

  • 数据集构建
    在这里插入图片描述

8、Cornucopia-LLaMA-Fin-Chinese

  • 简介
    聚宝盆(Cornucopia): 基于中文金融知识的LLaMA微调模型
    本项目开源了经过中文金融知识指令精调/指令微调(Instruct-tuning) 的LLaMA-7B模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对LLaMA进行了指令微调,提高了 LLaMA 在金融领域的问答效果。

    基于相同的数据,后期还会利用GPT3.5 API构建高质量的数据集,另在中文知识图谱-金融上进一步扩充高质量的指令数据集。

  • 论文和代码

    代码:https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese/tree/main

  • 模型下载
    在这里插入图片描述

  • 数据集构建
    目前采用了公开和爬取的中文金融领域问答数据,涉及到保险、理财、股票、基金、贷款、信用卡、社保等。

    指令微调的训练集数据示例如下:

      问题:办理商业汇票应遵守哪些原则和规定?回答: 办理商业汇票应遵守下列原则和规定:1.使用商业汇票的单位,必须是在银行开立帐户的法人;2.商业汇票在同城和异地均可使用;3.签发商业汇票必须以合法的商品交易为基础;4.经承兑的商业汇票,可向银行贴现;5.商业汇票一律记名,允许背书转让;6.商业汇票的付款期限由交易双方商定,最长不得超过6个月;7.商业汇票经承兑后,承兑人即付款人负有到期无条件交付票款的责任;8.商业汇票由银行印制和发售。
    

    针对现有数据仍存在不准确和不完善的地方,后续我们会利用GPT3.5接口围绕中文金融知识库进一步构建与拓展问答数据,设置多种Prompt形式来充分利用知识迭代更新数据集。

9、minGPT

  • 简介
    A PyTorch re-implementation of GPT, both training and inference. minGPT tries to be small, clean, interpretable and educational, as most of the currently available GPT model implementations can a bit sprawling. GPT is not a complicated model and this implementation is appropriately about 300 lines of code (see mingpt/model.py). All that’s going on is that a sequence of indices feeds into a Transformer, and a probability distribution over the next index in the sequence comes out. The majority of the complexity is just being clever with batching (both across examples and over sequence length) for efficiency.

  • 论文及代码

    代码:https://github.com/karpathy/minGPT

10、InstructGLM

  • 简介
    基于ChatGLM-6B+LoRA在指令数据集上进行微调。

  • 论文及代码
    代码:https://github.com/yanqiangmiffy/InstructGLM

  • 开源指令数据集
    在这里插入图片描述

11、FastChat

  • 简介
    FastChat is an open platform for training, serving, and evaluating large language model based chatbots. The core features include:

    • The weights, training code, and evaluation code for state-of-the-art models (e.g., Vicuna, FastChat-T5).
    • A distributed multi-model serving system with Web UI and OpenAI-compatible RESTful APIs.
  • 论文及代码
    代码:https://github.com/lm-sys/FastChat

  • Model Weights
    Vicuna Weights
    We release Vicuna weights as delta weights to comply with the LLaMA model license. You can add our delta to the original LLaMA weights to obtain the Vicuna weights. Instructions:

    Get the original LLaMA weights in the Hugging Face format by following the instructions here.
    Use the following scripts to get Vicuna weights by applying our delta. They will automatically download delta weights from our Hugging Face account.

在这里插入图片描述

12、Luotuo-Chinese-LLM

  • 简介
    骆驼(Luotuo): 开源中文大语言模型
    骆驼(Luotuo)项目是由冷子昂 @ 商汤科技, 陈启源 @ 华中师范大学 以及 李鲁鲁 @ 商汤科技 发起的中文大语言模型开源项目,包含了一系列语言模型。

  • 论文及代码

    代码:https://github.com/LC1332/Luotuo-Chinese-LLM

13、CamelBell-Chinese-LoRA

  • 简介
    同【 12、Luotuo-Chinese-LLM】

  • 论文及代码

    代码:https://github.com/LC1332/CamelBell-Chinese-LoRA

14、alpaca-lora

  • 简介
    This repository contains code for reproducing the Stanford Alpaca results using low-rank adaptation (LoRA). We provide an Instruct model of similar quality to text-davinci-003 that can run on a Raspberry Pi (for research), and the code is easily extended to the 13b, 30b, and 65b models.

    In addition to the training code, which runs within hours on a single RTX 4090, we publish a script for downloading and inference on the foundation model and LoRA, as well as the resulting LoRA weights themselves. To fine-tune cheaply and efficiently, we use Hugging Face’s PEFT as well as Tim Dettmers’ bitsandbytes.

    Without hyperparameter tuning, the LoRA model produces outputs comparable to the Stanford Alpaca model. (Please see the outputs included below.) Further tuning might be able to achieve better performance; I invite interested users to give it a try and report their results.

  • 论文及代码

    代码:https://github.com/tloen/alpaca-lora

其他开源项目,待补充。。。

参考

https://github.com/mymusise/ChatGLM-Tuning
https://huggingface.co/BelleGroup/BELLE-7B-2M
https://github.com/LianjiaTech/BELLE
https://huggingface.co/datasets/BelleGroup/generated_train_0.5M_CN
https://huggingface.co/datasets/JosephusCheung/GuanacoDataset
https://guanaco-model.github.io/
https://github.com/carbonz0/alpaca-chinese-dataset
https://github.com/THUDM/ChatGLM-6B
https://huggingface.co/THUDM/chatglm-6b
https://github.com/lich99/ChatGLM-finetune-LoRA

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/26176.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

开源大语言模型(LLM)汇总(持续更新中)

开源大语言模型(LLM)汇总 随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。 我将根据个模型采用的基础大模型进行分类,每个大模型下列出各派生模型…

软件制作img镜像

一、写入镜像 需要的东西: 一个树莓派板子,对应的电源一个树莓派镜像文件(.img)软件:Win32Disk一张SD卡:最低16G,最好使用32G一个能联网的Windows或Linux系统一个读卡器:基于 USB …

凡是听我劝的,都拿到结果了...

作者| Mr.K 编辑| Emma 来源| 技术领导力(ID:jishulingdaoli) 老读者应该还有印象,一年以前K哥在文章里就做过预判:往后几年,大环境不容乐观,因为已经进入新一轮的经济周期,职场人要开展“ABZ计划”来应对…

开源社首届正式成员大会暨2022年度总结会圆满召开

开源社KAIYUANSHE 近期微信公众号订阅功能做调整啦! 没有被星标的账号在信息流里可能不显示大图了! 快星标⭐我们,就可以及时看到发布的文章啦! STEP01 点击右上角标志 STEP02 点击【设为星标】 开源社 2023 年度首届全体正式成员…

对比协同过滤冷启动推荐算法(附论文和代码)

省时查报告-专业、及时、全面的行研报告库 省时查方案-专业、及时、全面的营销策划方案库 【免费下载】2023年1月份热门报告合集 ChatGPT团队背景研究报告 ChatGPT的发展历程、原理、技术架构及未来方向 ChatGPT使用总结:150个ChatGPT提示此模板 ChatGPT数据集之谜 …

postgresql 密码修改,忘记密码进行修改重置

postgresql 密码修改,忘记密码进行修改重置 1、密码修改缘由2、修改密码的方式方式1方式2 3、忘记密码重置 1、密码修改缘由 1、客户端认证方式为密码验证,设置初始密码,则会涉及到修改密码 2、忘记了数据库登录密码,则会涉及到修…

Centos7重置用户密码

Centos 7忘记密码时有单用户和光盘两种方式修改。 一、光盘启动方式 当系统无法启动,甚至无法进入单用户时,可通过安装光盘引导进入救援模式,对系统进行修复。 a).把机器设置为光盘启动。 第一种方法:F2进入BIOS设置 …

Gogs 密码重置

打开对应的数据库,找到存放用户的user表 sqlite3 /home/git/gogs/data/gogs.db 执行更新语句即可,以下哈希对应的密码是 123456 update user set passwdb4af39cca17a2231fead3c06908d352fd367c123fceb7256caeedf032b0d87c8a00a0e86a72f1003622baccbaa6…

fastadmin忘记超级管理员密码?怎么重置?我来教你

有一段时间没玩fastadmin的后台管理了,忘记了超级管理员密码,尝试了许多次也没登陆成功,在网上找了很久的解决方案。给大家总结一下解决流程 提示:使用的是宝塔面板部署fastadmin后台管理,情况适用于忘记fastadmin超级…

腾讯蓝鲸-蓝鲸应用统一开发环境指南

根据腾讯蓝鲸蓝鲸应用统一开发环境指南手册改编发布,主要顺便记录一些趟坑的地方。 蓝鲸应用统一开发环境指南 背景vagrant安装配置添加蓝鲸镜像到vagrant初始化环境运行环境,应用开发Vagrant常用命令Vagrantfile配置文件详解 背景 蓝鲸应用开发需要依赖…

2019 年度最受欢迎的中国开源软件出炉!!

由于对参选项目设置了分类竞争,可以看到今年获得年度最受欢迎中国开源软件的项目更加多元化,涵盖了基础软件、开发框架和基础组件、开发工具与应用软件等领域,下边来看看每一个获奖项目。 https://www.oschina.net/project/top_cn_2019 基于…

蓝鲸平台标准运维演示文档

标准运维简介: 标准运维,拥有可视化的图形界面,并进行任务流程编排和执行的系统。可以执行发布、变更、开区、扩缩容等执行类操作。让用户可以将业务日常的运维工作交给产品和职能化人员执行,实现业务的发布、变更等工作自助化。【…

蓝鲸CTF-web-密码泄露

蓝鲸CTF-web之密码泄露:题目链接 进入到题目环境之后,页面显示登陆表单和“false”字样,先猜解一些密码是什么,经过一系列的猜解之后,页面一直显示flase。此时,查看网页源代码: 源代码的注释里显…

通过蓝鲸paas平台快速实现CICD

通过蓝鲸paas平台快速实现CICD 前言第一步第二步第三步测试 前言 本文展示流程使用coding(代码管理工具,gitlab也可以)、蓝鲸paas平台(腾讯蓝鲸智云是一套基于PaaS的技术解决方案,提供了完善的前后台开发框架、调度引擎、公共组件等模块,帮助…

腾讯开源运维 PaaS 平台

蓝鲸智云(蓝鲸)是腾讯游戏运营部“腾讯智营”下的一个子品牌,它是一套基于 PaaS 的技术解决方案,提供了完善的前后台开发框架、调度引擎与公共组件等模块,可以帮助业务的产品和技术人员快速构建低成本、免运维的支撑工…

蓝鲸智云问题汇总

安装 1. 企业版,客户现场无网络环境时,安装app_mgr,会出现无法安装requirments.txt中的依赖 1.这是蓝鲸打包问题,在中控机器/data/src/paas_agent/paas_agent中创建SELF_CONTAINED_PIP_PKG即可 cd /data/src/paas_agent/paas_agent touch S…

Kubernetes - 腾讯蓝鲸配置平台(CMDB)开源版部署

Kubernetes - 腾讯蓝鲸配置平台(CMDB)开源版部署 蓝鲸CMDB 蓝鲸配置平台(蓝鲸CMDB)是一个基于运维场景设计的企业配置管理服务。主要功能: 1. 拓扑化的主机管理:主机基础属性、主机快照数据、主机归属关系管理 2. 组织架构管理&a…

开源公告|运维基础操作管理系统-蓝鲸作业平台正式开源!

蓝鲸作业平台项目背景 蓝鲸作业平台是一套运维基础操作管理系统,具备海量任务并发处理能力;除了支持脚本执行、文件分发、定时任务等一系列基础运维场景以外,还支持通过流程调度能力将零碎的单个任务组装成一个自动化作业流程;而每…

【腾讯开源项目】蓝鲸配置平台开源项目亮相北京“OSCAR开源先锋日”

我们秉承腾讯开源的理念,蓝鲸配置平台将会进一步完善各个业务领域的支持,在易用性、效率、功能深度上持续打磨,以开源分享的心态打造业界通用的业务驱动CMDB产品,凝聚IT运维圈子的同仁,共同构建一个友好、活跃的开源社…

分布式高频量化交易系统架构讲解(企业版,期货ctp,股票xtp,数字货币,附全部源码)(值得收藏)

目录 1.量化交易系统简介 1.1行情数据 1.2交易策略 1.3交易 2. 分布式高频量化交易系统 2.1. 架构图 2.1.1量化交易系统教程地址 2.1.2量化交易系统教程中讲解的期货ctp知识点 2.2. 交易系统功能介绍 2.3. 账户系统介绍 2.3.1. 交易员账户 2.3.2. …