ChatGPT开源平替——OpenChatKit(前OpenAI团队打造)


❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️

👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈

OpenChatKit

(封面图由ERNIE-ViLG AI 作画大模型生成)

ChatGPT开源平替——OpenChatKit(前OpenAI团队打造)

OpenChatKit是一个由前OpenAI研究员共同打造的开源聊天机器人平台。它包含了训练好的大型语言模型、定制配方和可扩展的检索系统,可以帮助用户快速构建高精度、多功能的聊天机器人应用。

其中,最核心的组件是一个经过微调的、具有200亿参数的语言模型——GPT-NeoXT-Chat-Base-20B。这个模型基于EleutherAI的GPT-NeoX模型,重点调整了多轮对话、问答、分类、提取和摘要等多项任务,并使用了4300万条高质量指令进行训练。这使得OpenChatKit在处理聊天对话时可以提供高精度、流畅的回答。

除此之外,OpenChatKit还提供了定制配方的功能,可以帮助用户根据自己的数据集微调模型,以提高模型在特定任务上的表现。另外,该平台还提供了可扩展的检索系统,可以从文档存储库、API或实时更新信息源等多个来源中检索信息,以提供更全面的回答。

OpenChatKit详细介绍

OpenChatKit是一款开源的聊天工具包,由前OpenAI研究员和Together Computer共同开发。该工具包包含了一个200亿参数的大型语言模型、定制配方和可扩展的检索系统,可帮助用户构建高效的聊天机器人和对话系统。

200亿参数的语言模型

OpenChatKit的核心是一个200亿参数的语言模型,使用了EleutherAI的GPT-NeoX-20B进行微调,以实现更高效的对话和任务处理。该模型在100%碳负载计算上进行了4300万条指令的微调,着重于多轮对话、问答、分类、提取和摘要等多个任务。这样的微调可使模型更好地适应用户需求,并提供更准确的回答。

定制配方

除了强大的语言模型,OpenChatKit还提供了定制配方,可帮助用户调整模型以满足特定的任务需求。用户只需准备自己的数据集,并使用OpenChatKit的配方来微调模型即可获得高精度的结果。这样的配方可帮助用户快速构建自己的聊天机器人和对话系统,提高对话效率和准确度。

可扩展的检索系统

OpenChatKit还提供了一个可扩展的检索系统,可帮助用户从文档存储库、API或其他实时更新信息源中添加信息。这样的检索系统可使机器人更加智能,能够从更多的信息中获取答案,并提供更加准确的回答。

模型优点

  • 多轮对话:OpenChatKit的语言模型可进行多轮对话,并能够在多次对话中保持上下文,并根据用户的需求提供相应的回答。

  • 问答:OpenChatKit的语言模型可对问题进行答复,并可基于文档或数据集提供更加准确的答案。

  • 分类:OpenChatKit的语言模型可对文本进行分类,并可用于情感分析、主题分类和意图识别等任务。

  • 提取:OpenChatKit的语言模型可从文本中提取结构化信息,并可用于自然语言生成和自动摘要等任务。

  • 多语言支持:OpenChatKit的语言模型可支持多种语言,可应用于不同国家和地区的聊天机器人和对话系统。

  • 高效的微调:OpenChatKit的定制配方可使用户快速微调模型,提高对话效率和准确度。

训练细节

OpenChatKit的训练细节包括硬件、优化器、梯度累积、批次和学习率等参数设置。

  • 硬件
    OpenChatKit的模型训练使用了2 x 8 x A100 GPU的硬件配置。

  • 优化器
    在优化器方面,OpenChatKit采用了8bit-AdamW。8-bit训练是一种使用低位精度进行训练的技术,它可以提高模型的训练速度和内存效率。AdamW是Adam算法的一个变种,它使用L2正则化来更新权重,可以帮助模型更好地避免过拟合。

  • 梯度累积
    为了能够训练更大的批次,OpenChatKit使用了梯度累积技术,将多个小批次的梯度相加后再更新模型参数。在训练过程中,OpenChatKit采用了2次梯度累积。

  • 批次
    OpenChatKit使用了一个相对较大的批次大小,每个批次包含2 x 2 x 64 x 2048 = 524,288个标记。这可以帮助模型更好地利用硬件资源,提高训练速度和效率。

  • 学习率
    在学习率方面,OpenChatKit采用了一种温和的预热策略,将学习率逐步增加到1e-6,预热期为100个步骤,之后保持不变。这种策略可以帮助模型更好地适应训练数据,避免在训练初期发生梯度爆炸或消失等问题。

通过这些参数设置,OpenChatKit能够在大规模数据上进行高效、准确的模型训练,从而为用户提供更好的聊天体验和更多的应用场景。

github介绍

OpenChatKit是一个强大的开源工具,为不同应用提供专门或通用的聊天机器人的创建基础。该工具包包括一个经过调整的、拥有200亿参数的语言模型、一个拥有60亿参数的模型以及一个可扩展的检索系统,可以包括来自自定义库的最新响应。它是在Together、LAION和Ontocord.ai合作的OIG-43M训练数据集上训练的。这不仅是一个模型发布,而且是一个开源项目的开始。我们发布了一组工具和流程,以进行社区贡献的持续改进。

在这个项目中,你可以找到以下内容的代码:

  • 训练OpenChatKit模型
  • 使用模型进行推理测试
  • 使用检索索引扩展模型

在开始之前,你需要安装PyTorch和其他依赖项。

OpenChatKit的基础模型是GPT-NeoXT-Chat-Base-20B,它是GPT-NeoX的一个 fine-tuned 版本,用于对话数据集。我们在Huggingface上发布了该模型的预训练权重togethercomputer/GPT-NeoXT-Chat-Base-20B。

该聊天模型是在LAION、Together和Ontocord.ai创建的OIG数据集上进行训练的。你可以通过在repo的根目录下运行以下命令从Huggingface下载该数据集:

python data/OIG/prepare.py

在训练之前,你需要从Eleuther AI下载GPT-NeoX-20B,并将其准备好进行微调。在repo的根目录下,运行以下命令:

python pretrained/GPT-NeoX-20B/prepare.py

为了微调GPT-NeoXT-Chat-Base-20B,你可以使用 training/finetune_GPT-NeoXT-Chat-Base-20B.sh 脚本来配置和运行训练循环。在下载数据集和基础模型之后,运行以下命令:

bash training/finetune_GPT-NeoXT-Chat-Base-20B.sh

默认情况下,训练脚本只是打印损失,但它也可以使用loguru输出指标或将其报告给Weights & Biases。

你可以使用以下命令将权重转换为Huggingface格式,以便使用该模型执行推理:

mkdir huggingface_models && python tools/convert_to_hf_gptneox.py --ckpt-path model_ckpts/GPT-Neo-XT-Chat-Base-20B/checkpoint_5 --save-path /huggingface_models/GPT-NeoXT-Chat-Base-20B --n-stages 8 --n-layer-per-stage 6

为了测试该模型,OpenChatKit提供了一个简单的命令行测试工具来与机器人进行交互。你可以通过以下命令来启动测试工具:

python inference/bot.py

如果要从Huggingface仓库加载基础模型,可以使用以下命令:

python inference/bot.py --model togethercomputer/GPT-NeoXT-Chat-Base-20B

OpenChatKit还提供了一个检索增强模型的实验性功能,可使用维基百科索引查询。你可以通过以下命令来下载维基百科索引:

python data/wikipedia-3sentence-level-retrieval-index/prepare.py

在启动检索增强模型之前,你需要使用以下命令启动OpenChatKit测试工具:

python inference/bot.py --retrieval

当模型和索引加载完毕后,所有查询都将与额外的上下文进行增强。

总之,OpenChatKit是一个非常有用的开源工具,可以帮助你快速创建不同类型的聊天机器人,并提供各种训练和测试工具。它是一个活跃的开源项目,社区可以不断改进它。


❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️

👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2976.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

全球最大ChatGPT开源平替来了!支持35种语言,写代码、讲笑话全拿捏

【导读】刚刚,LAION发布了世界最大ChatGPT开源平替——OpenAssistant。网友上手实测后,纷纷表示这是开源的胜利。 世界最大的ChatGPT平替来了! OpenAssistant是一个开源的对话模型,基于Pythia和LLaMA微调而来,主要用…

ChatGPT开源平替(2)llama

最近,FacebookResearch 开源了他们最新的大语言模型 LLaMA,训练使用多达14,000 tokens 语料,包含不同大小参数量的模型 7B、13B 、30B、 65B,研究者可以根据自身算力配置进行选择。 经过测试,(1&#xff09…

ChatGPT的开源平替,终于来了!

最近这段时间,一个号称全球最大ChatGPT开源平替项目Open Assistant引起了大家的注意。 这不最近还登上了GitHub的Trending热榜。 https://github.com/LAION-AI/Open-Assistant 根据官方的介绍,Open Assistant也是一个对话式的大型语言模型项目&#xff…

追赶ChatGPT的难点与平替

卷友们好,我是rumor。 最近ChatGPT真的太火爆了,让人很难静下心。一方面是对它的能力感到不安,以后各个NLP子任务可能就统一起来了,范式也会变成预训练Prompt,不需要那么多精调模型的算法了。另一方面是对国内复现Chat…

ChatGPT开源平替(1)——ChatGLM

ChatGLM-6B 由清华大学唐杰团队开发的是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB…

ChatGPT 的平替 Claude 使用指南

Claude的独立体验版本姗姗来迟,经过近半个月的等待后,收到了体验邮件,不过之前早已体验过poe和slack的集成版,响应速度上要比ChatGPT快很多。 目前提供的Model有: "claude-v1":我们最大的型号&am…

笔记本就能运行的ChatGPT平替来了,附完整版技术报告

来源:机器之心 本文约4300字,建议阅读8分钟 初步的技术报告简要描述了 GPT4All 的搭建细节。 GPT4All 是基于大量干净的助手数据(包括代码、故事和对话)训练而成的聊天机器人,数据包括~800k 条 GPT-3.5-Tur…

分享一个平替ChatGPT的网站

https://chat.gamejx.cn/go/kl/674566 直接注册就能用 这是界面

chatgpt平替,清华chatglm本地化部署教程(aigc大模型风口,校招找工作必备),包含weiui部署,api部署,对话框部署

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 Chat…

狂追ChatGPT:开源社区的“平替”热潮

目前,不少优质的类ChatGPT模型都只能通过API接入,而一些开源LLM的效果与ChatGPT相比差距不小。不过,近期开源社区开始密集发力了。 其中,Meta的LLaMA模型泄漏是开源“ChatGPT”运动的代表性事件。基于LLaMA模型,开源社…

chatGPT平替:Idea 插件Bito

Idea插件神奇Bito Bito介绍安装使用 Bito介绍 应该是基于openai的模型训练的。重点是免费、免费、免费,重要的事情说3遍。 安装 设置(setting) 选择插件市场输入Bito安装 安装成功后最idea的右边会显示Bito 使用 需要验证账号,输入邮箱会有一个…

支持 Docker 运行的 ChatGPT 平替之 Alpaca-Turbo (羊驼)

Alpaca-Turbo是一个语言模型,可以在本地运行而不需要太多的设置。它是基于LLaMA的alpaca.cpp语言模型的用户友好型Web UI,具有使其与其他实现区别开来的独特功能。目标是提供一个无缝的聊天体验,易于配置和使用,而不会牺牲速度或功…

chatgpt平替,清华chatglm本地化部署

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。因为我的cpu跑不了,在linux服务器端进行部署。前提是conda已经安装并配置好,因为我的已经搞好,就不是…

真正的ChatGPT平替产品:Claude

01 Claude ChatGPT已经流行了很长的时间了,但是ChatGPT 由于种种的限制,我们无法用上,也有很多的平替产品,但是这些平替产品也有很多的问题。 现在 Claude 出来了,没有任何的限制。 Claude 不用魔法,注…

真·ChatGPT平替:无需显卡,MacBook、树莓派就能运行LLaMA

欢迎关注“ 计算机视觉研究院 ” 计算机视觉研究院专栏 作者:Edison_G 扫描二维码 关注我们 Meta 发布的开源系列模型 LLaMA,将在开源社区的共同努力下发挥出极大的价值。 转自《机器之心》 Meta 在上个月末发布了一系列开源大模型 ——LLaMA&#xff08…

ChatGPT的平替来了?一文总结 ChatGPT 的开源平替,你值得拥有

文章目录 【AIGC精选】总结 ChatGPT 的开源平替,你值得拥有1.斯坦福发布 Alpaca 7B,性能匹敌 GPT-3.52.弥补斯坦福 Alpaca 中文短板,中文大模型 BELLE 开源3.国产AI大模型 ChatGLM-6B 开启内测4.中文 Alpaca 模型 Luotuo 开源5. ChatGPT 最强…

IntelliJ IDEA 接入ChatGPT (免费,无需注册)生产力被干爆了!

IntelliJ IDEA 接入ChatGPT 前言 : 今天给大家介绍一款好用的 IntelliJ IDEA ChatGPT 插件 可以帮助我们写代码,以及语言上的处理工作,以及解释代码。让我们的生产力大大提高! 一. ChatGPT-Plus 功能介绍 支持最新idea版本AI询问功能,写好…

不用魔法、使用原生ChatGPT、30秒注册不要绑定任何账号【AskChat.ai】

直接上链接【AskChat.ai】 http://www.askchat.ai?r124478 手机打开不登录可以直接用3次。 AskChat.ai 普通用户的使用规则 AskChat.ai 免费使用的额度 个人使用案例

【关于ChatGPT的30个问题】14、ChatGPT在中国是否被禁用了?/ By 禅与计算机程序设计艺术

14、ChatGPT在中国是否被禁用了?为什么? 目录 14、ChatGPT在中国是否被禁用了?为什么? ChatGPT是否被禁用?

ChatGPT Something went wrong 处理

一、报错提示 Something went wrong. If this issue persists please contact us through our help center at help.openai.com. 二、解决方案 一般是代理节点出现问题 ChatGPT退出登录 关闭代理并重新启动代理 切换其他节点 清除浏览器缓存 重新登录ChatGPT 问题解决&am…