多个chatgpt模型

GPT4All

简介:GPT4All
Nomic AI Team 从 Alpaca 获得灵感,使用 GPT-3.5-Turbo OpenAI API 收集了大约 800,000 个提示-响应对,创建了 430,000 个助手式提示和生成训练对,包括代码、对话和叙述。80 万对大约是羊驼的 16 倍。该模型最好的部分是它可以在 CPU 上运行,不需要 GPU。与 Alpaca 一样,它也是一个开源软件,可以帮助个人进行进一步的研究,而无需花费在商业解决方案上。
GPT4All 是如何工作的
它的工作原理类似于羊驼,基于 LLaMA 7B 模型。LLaMA 7B 和最终模型的微调模型在 437,605 个后处理助手式提示上进行了训练。
性能:GPT4All
在自然语言处理中,困惑度用于评估语言模型的质量。它衡量语言模型根据其训练数据看到以前从未遇到过的新单词序列时会有多惊讶。较低的困惑值表示语言模型更擅长预测序列中的下一个单词,因此更准确。Nomic AI 团队声称他们的模型比 Alpaca 具有更低的困惑度。真正的准确性取决于您的提示类型。在某些情况下,Alpaca 可能具有更好的准确性。
内存要求:GPT4All
它可以在具有 8GB RAM 的 CPU 上运行。如果你有一台 4GB RAM 的笔记本电脑,可能是时候升级到至少 8G 了
Python代码:GPT4All
Colab 代码可供您使用。您可以将其用作参考,根据需要进行修改,甚至按原样运行。完全由您决定如何使用代码来最好地满足您的要求。

克隆 Git 存储库

!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git

安装所需的包

cd /content/gpt4all
!python -m pip install -r requirements.txtcd transformers
!pip install -e .cd ../peft
!pip install -e .

训练

!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16  --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml

下载 CPU 量化的 gpt4all 模型检查点

cd /content/gpt4all/chat
!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin


运行会话系统

!./gpt4all-lora-quantized-linux-x86


如果您在运行除linux以外的任何其他操作系统的本地计算机上运行它,请使用下面的命令代替:

Windows (PowerShell): ./gpt4all-lora-quantized-win64.exe
Mac (M1): ./gpt4all-lora-quantized-OSX-m1
Mac (Intel): ./gpt4all-lora-quantized-OSX-intel


完整代码

!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.gitcd /content/gpt4all
!python -m pip install -r requirements.txtcd transformers
!pip install -e .cd ../peft
!pip install -e .!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16  --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yamlcd /content/gpt4all/chat
!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin!./gpt4all-lora-quantized-linux-x86


输出:GPT4All
GPT4All 无法正确回答与编码相关的问题。这只是一个例子,不能据此判断准确性。它可能在其他提示中运行良好,因此模型的准确性取决于您的使用情况。此外,当我在 2 天后再次运行它时,它适用于与编码相关的问题。看来他们进一步完善了模型。

错误调试

Distributed package doesn't have NCCL - 如果您在Mac操作系统上遇到此问题,那是因为您的计算机上未安装 CUDA。

Issues on Windows 10/11 - 一些用户报告说他们在 Windows 平台上遇到了一些奇怪的错误。作为最后的手段,您可以安装适用于 Linux 的 Windows 子系统,它允许您在 Windows 机器上安装 Linux 发行版,然后可以按照上面的代码进行操作。


GPT4All-J

您一定想知道这个模型如何与前一个名称相似,只是后缀为“J”。这是因为这两个模型都来自 Nomic AI 的同一个团队。唯一的区别是它现在是在GPT-J上而不是在 LLaMa 上训练的。在 GPT-J 上训练它的好处是 GPT4All-J 现在是 Apache-2 许可的,这意味着您可以将它用于商业目的,也可以轻松地在您的机器上运行。

下载安装文件

根据您的操作系统下载以下安装程序文件。安装完成后,您需要导航到安装文件夹中的“bin”目录。要启动 GPT4All Chat 应用程序,请执行“bin”文件夹中的“chat”文件。该文件将在 Linux 上命名为“chat”,在 Windows 上命名为“chat.exe”,在 macOS 上命名为“chat.app”

  1. 视窗
  2. Linux
  3. 苹果系统

dolly 2 -- 多莉 2

Databricks 团队基于 EleutherAI 的 Pythia 模型创建了大型语言模型,随后他们在大约 15,000 条记录指令语料库上进行了微调。它遵循 Apache 2 许可,这意味着训练它的模型、训练代码、数据集和模型权重都可以作为开源使用,这样您就可以将它用于商业用途来创建您自己的自定义大型语言模型。
它具有三种尺寸 - 12B、7B 和 3B 参数。

databricks/dolly-v2-12b on pythia-12b
databricks/dolly-v2-7b  on pythia-6.9b
databricks/dolly-v2-3b  on pythia-2.8b

内存要求:多莉 2
对于具有 8 位量化的 7B 模型,它需要一个具有大约 10GB RAM 的 GPU。对于 12B 型号,它至少需要 18GB GPU vRAM。
Python代码:多莉2

from transformers import AutoTokenizer, AutoModelForCausalLM, pipelinebaseModel = "databricks/dolly-v2-12b"
load_8bit = True  
tokenizer = AutoTokenizer.from_pretrained("databricks/dolly-v2-12b")
model = AutoModelForCausalLM.from_pretrained(baseModel, load_in_8bit=load_8bit, torch_dtype=torch.float16, device_map="auto")
generator = pipeline(task='text-generation', model=model, tokenizer=tokenizer)print(generator("Python code to remove duplicates from dataframe"))


Vicuna - 骆马

简介:骆马
来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学和加州大学圣地亚哥分校的研究人员团队开发了这个模型。它使用从 ShareGPT 网站提取的聊天数据集在 LLaMA 上进行了微调。研究人员声称该模型的质量得分超过 OpenAI ChatGPT-4 的 90%。值得注意的是,它的性能几乎与Bard持平。他们使用了羊驼的训练程序,并在多轮对话和长序列两个方面进行了进一步改进。
Python代码:Vicuna
您可以参考这篇文章——Vicuna详细指南来访问 python 代码和 Vicuna 模型的详细描述。

Alpaca GPT-4 Model (羊驼 GPT-4 模型)


简介:羊驼GPT-4
您已经在本文的前一部分了解了 Alpaca。在这里,一些研究人员通过在 GPT-4 数据集上训练来改进原始的羊驼模型。请记住,斯坦福大学研究人员最初的羊驼模型是基于 GPT-3 模型的。这个 GPT-4 模型是在 LLaMA 130 亿 (13B) 参数大小的模型上训练的。
Python代码:羊驼GPT-4
Alpaca GPT-4 模型的 Python 程序在这里解释 - Alpaca GPT-4 详细指南

Cerebras-GPT(大脑-GPT)


简介:Cerebras-GPT
你们中的一些人可能以前没有听说过Cerebras Systems。他们不像以制造GPU而闻名的NVIDIA那样知名,但他们也是一家专门制造高性能计算系统的科技公司。他们最近发布了开源项目,其中包含七个基于 GPT 的语言模型,参数大小分别为 1.11 亿、2.56 亿、5.9 亿、13 亿、27 亿、67 亿和 130 亿。
这些模型最好的部分是它们是免费提供的,并且可以用于商业目的,因为它符合 Apache 2.0 许可,而 LLaMA 带有“非商业”许可,这意味着它们是免费的但只能用于研究目的。
此外,它们还有 7 种不同尺寸的型号可供选择,这意味着您可以根据硬件配置选择多种型号。如果您的硬件不允许试验大型模型,请选择较小的模型。
内存要求:Cerebras-GPT
它需要具有 12GB RAM 的 GPU 才能运行 1.3B 参数大小的 Cerebras-GPT 模型。
Python 代码:Cerebras-GPT
在下面的程序中,我们使用了由Stochastic IncxTuring团队开发的名为 python 包。它允许开发人员有效地微调不同的大型语言模型。它们还使语法非常易读且易于遵循。
在这里,我们使用微调 Cerebras-GPT 模型Alpaca dataset
可参考此Colab 代码进行测试。在下面的代码中,我们使用 Cerebras-GPT 1.3B 模型
安装 xTuring 库

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/11622.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT 4 的 6 个最佳使用场景

作者:SYDNEY BUTLER 译者:明明如月 无论是在 ChatGPT 中还是通过 API,对 OpenAI 的 GPT-4 模型的访问比 GPT-3.5 限制更多。这意味着你需要慎重考虑在何种情况下使用 GPT-4,并选择性地将最适合的任务交给它,以便让其发…

Twitter开发者账号申请流程

申请了两个星期,终于申请成功了!主要是中间等待Twitter回复邮件费时间。 完整教程请到我的资源下载: Twitter开发者账号申请教程.docx_推特开发者账号-专业指导文档类资源-CSDN下载 把这个分享出来,主要是觉得网上的教程都是申…

1.Twitter开发者之如何申请一个twitter开发者账号

Twitter开发者之如何申请一个twitter开发者账号 教大家申请一个推特开发者账号满足后面的使用 保证每一步都给大家介绍到,非常详细,希望帮助大家注册好自己的账号! 1.先打开Twitter的账号注册界面,选择使用手机号码或电子邮箱注…

Google开发者账号申请

背景 Android端应用要出海,Google Play无疑是最好的平台,要上架Google Play,必须拥有Google开发者资质。 账号申请 申请Google开发者账号大致分为两步:一、申请Google账号;二、创建Google开发者账号。 申请条件也比…

JSP住宅小区物业管理系统(源代码+开题报告+论文+答辩PPT

登录 JSP住宅小区物业管理系统(源代码开题报告论文答辩PPT) 2022-12-04 657 100 元 点赞 (0) 收藏 立即购买 升级会员 查看演示 遇到问题请联系客服微信:19966519194 下载方式: 购买成功后会出现“立即下载”按钮! 下载遇到问题请看底部…

【AI绘画】外网一直进不去?别担心,还有AI绘画小程序和文心一格

这是加入新星计划的最后一周的最后一篇文章啦!文章的最后是我想总结一下从三月底到四月中旬这几十天的感想~ 系列文章: 【AutoGPT】你自己运行,我先睡了—— ChatGPT过时了吗?_山楂山楂丸的博客-CSDN博客 目录 前言 …

rocketmq-client-go注册消费者组的问题

一、前言 test环境服务启动,通过代码新注册一个customer group进行消费,服务一直报错如下: levelerror msg"fetch offset of mq from broker error" MessageQueue"MessageQueue [topicxxx, brokerNamebroker-a, queueId1]&q…

django csrfMiddleware的一些理解跨站和跨域

目录 术语为什么要有同源策略同源策略:同源策略的限制:同源策略作用:为什么能防csrf csrf攻击的特点Django中csrf token验证原理问题引入解答 chatgpt——Q&A1. django 的csrf可以防御csrf攻击,单前后端分离使用djangorestframework时,dr…

ChatGPT“保姆级教程”——手把手教你5分钟快速AI智能文字转爆款视频(剪映+百度AIGC平台)

目录 前言ChatGPT 剪映ChatGPT生成视频文档安装专业版剪映使用剪映一键出片保姆集教程 百度AIGC平台注册百度AIGC平台使用百度AIGC平台一键出片保姆集教程 总结其它资料下载 前言 在这个数字时代,视频已经成为了最流行的内容形式之一。而如何自动将文字转化为引人…

短短 5 天,Python 开发的“Twitter 杀手”Threads 用户过亿,增幅猛超 ChatGPT,马斯克暴怒!...

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 一场看不见硝烟的社交媒体大战正在国外上演。 一方是发展已有 17 年,被马斯克接手不到一年的老牌平台 Twitter。根据在线统计数据门户 Statista 的数据显示,截至 2022 年 12 月&…

Bcompare.exe应用程序发生错误

Beyond Compare bcompare,即Beyond Compare 是一个综合的比对工具。 可比对的对象包括纯文字档、资料夹、zip 压缩案、FTP 站,等等。 您可以使用它管理您的原始档、保持比对资料夹同步、比对程式的输出结果、以及检查所烧入光碟备份的精确度。Beyond Co…

chatgpt出现unable to load history问题应该怎么办

在使用chatgpt时出现如下页面 左栏是unable to load history,右栏会回答Error并带有红色感叹号,换了很多节点还是这样,请问应该怎么解决呀?

电脑应用程序发生异常怎么办?

有时候我们打开电脑上面的某个软件时,会打不开,并且会弹出如下的错误提示“应用程序发生异常 未知的软件异常(xxx),位置为xx”。相信大多数的人在使用电脑的时…

应用程序无法启动,因为应用程序的并行配置不正确。有关详细信息,请参阅应用程序事件日志,或使用命令行sxstrace.exe工具。解决方法

【原创】 转载请注明出处 问题解决方法仅限于我的情况,就当给大家个提示。 我的电脑环境:Windows 7 64位 编译器环境:VS2005 出现这个问题可能是因为引用了MFC的东西,并且工程设置为 在共享DLL中使用MFC 【解决方法一】&am…

已解决chatgpt报错出了些问题。如果此问题仍然存在,请通过我们的帮助中心 help.openai.com 与我们联系。

已解决chatgpt报错出了些问题。如果此问题仍然存在,请通过我们的帮助中心 help.openai.com 与我们联系。 文章目录 报错问题报错原因解决方法千人全栈VIP答疑群联系博主帮忙解决报错 报错问题 粉丝群里面的一个小伙伴遇到问题跑来私信我,想用chatgpt&…

【回答问题】ChatGPT上线了!用给写出可执行的实体链接模型

如何实现一个实体链接模型/代码 在实现实体链接模型之前,您需要确定所要链接的实体类型(例如人名、地名、组织机构等)。然后,您需要准备一份包含大量实体及其相应识别码的实体百科数据集。接着,您可以使用深度学习模型对数据集进行训练,从而使模型能够在文本中识别出实体…

在没有魔法的情况下,如果让ChatGPT帮我们写代码

ChatGPT写代码 ✋ChatGPT 是一个基于人工智能的自然语言处理模型,可以帮助程序员更高效地、更自然地与计算机交互。ChatGPT 可以解决程序员在日常开发中遇到的各种问题,例如语法错误、API 使用、代码实现、架构设计等等。 💥通过与 ChatGPT…

魔法打败魔法!AutoGPT帮写代码驯服ChatGPT

碳基生命永远在想办法偷懒, 近来觉得把任务用提示词准确描述给ChatGPT,输出Code也很累 终于蹲到了魔法杖 GitHub上大火的AutoGPT有了网页版 能自动调用ChatGPT(3.5) 输入自然语言,拆解任务,分段输出 用它来…

ChatGPT 联网和插件功能,下周起可直接使用,无需排队!

夕小瑶科技说 分享 来源 | 新智元 OpenAI和谷歌,已经打得急红了眼,ChatGPT Plus用户,下周就可以体验联网和插件功能,无需再排队。鲨疯了,真的鲨疯了! ChatGPT,下周开始联网,并开放插…

ChatGPT正式开放「上网能力」!

点击“开发者技术前线”,选择“星标” 让一部分开发者看到未来 来自:新智元 【导读】似乎就在昨天,OpenAI突然启用了上周才发布的「联网插件」。 刚刚,ChatGPT可以正式「上网」了! ChatGPT联网小测试 既然能接入网络&a…