(文末送书)ChatGPT有用到知识图谱吗?它自己是这样回答的……

文末送两本书~~~

从搜索引擎到个人助手,我们每天都在使用问答系统。问答系统必须能够访问相关的知识并进行推理。通常,知识可以隐式地编码在大型语言模型(LLMs)中,例如ChatGPT、T5 和LaMDA 等大型语言模型,这些模型在未结构化文本上进行预训练,或者显式地表示在知识图谱(KGs)中,例如OpenKG和ConceptNet,其中实体表示为节点,它们之间的关系表示为边。

最近,预训练的LLMs在许多问答任务中取得了显著的成功。该领域瞬息万变,算法的进步正在产生非常重大的影响。那不经产生疑问,目前备受关注的ChatGPT训练过程中有使用到知识图谱吗?ChatGPT在不同时间(2月份和3月份)给出了不同的答案:

f9000daf6dd04f5251a914555afad209.png

图1 询问时间2023.02

0ac7a087e1baa757f53bb8d4913cdb86.png

2 询问时间2023.03

那么,ChatGPT的成功是不是只是高概率语言模式的再现?为什么要使用知识图谱?简单来说仅靠数据驱动是不够的,但知识驱动的组织可以在充分的背景下做决定,并对他们的决策充满信心。

首先我们了解一下关于ChatGPT你应该知道的事。

01

大型语言模型

在过去几年中,大型语言模型 (LLM) 已经发展出惊人的生成人类语言的技能。如下图展示了流行的LLMs在人类认知能力方面的得分情况,

3b15aec2f131d6b4a12162d352ff4e48.png

LLMs在人类认知能力方面的得分情况(来源:自2021年以来对约40万个人工智能相关的在线文本进行语义分析)

语言模型使用文本生成解决问答任务。根据训练数据集,语言模型可以分为:(i)通用模型,例如PaLM,OPT和GPT-NeoX-20B;以及(ii)特定领域模型,例如Galactica,SciBERT和BioMegatron。更先进的对话型AI(Conversational AI)模型从最近的语言模型进展中受益,创造出能够在与用户对话中回答问题的聊天机器人。例如,基于OpenAI的聊天机器人ChatGPT 受到了大量的关注。GPT代表Generative Pretrained Transformer,是一种 AI 算法,可以基于摄取大量文本和数据并推导语言规则和关系来创建新内容。为响应输入而生成的文本可以非常微妙和富有创意,给人一种正在与人交谈的印象。与搜索引擎不同,它不是简单地检索信息,而是根据通过算法处理的大量数据导出的规则和关系生成信息。那ChatGPT的成功又得益于一系列技术和数据,下面展开介绍:

02

Transformer有什么用?为什么这么受欢迎?

Transformers被用于多种自然语言处理(NLP)任务,例如语言翻译、情感分析、文本摘要、问答等等。最初的Transformer模型是专门为语言翻译设计的,主要用于将英语翻译成德语。然而,已经发现该架构可以很好地适用于其他语言任务。这种趋势很快被研究社区所注意到。接下来的几年月里,几乎所有与语言相关的机器学习任务的排行榜都被Transformer架构的某个版本所主导。因此,Transformers非常受欢迎。Huggingface是一家初创公司,迄今已经筹集了超过6000万美元,几乎完全围绕商业化他们的开源Transformer库这一想法。

下面用三张图首先直观感受下Transformer家族模型的关系、时间线以及大小。第一张图旨在突出显示不同类型的Transformer及它们之间的关系。

dc03c6299b870b3feaf61c4b7fa40347.pngTransformer家族关系

第二张图时间线视图是一个有趣的角度,可以将目录中的Transformer按发布日期排序。在这个可视化中,Y轴仅用于聚类相关的家族Transformer。

f9043b9c94a60e2b9f573cf233dcdbb5.pngTransformer家族时间线

在下一个可视化图中,Y轴表示模型大小,以百万参数为单位。

5759c9b824a0038fce7f987056702390.pngTransformer家族模型大小

Transformers之所以能够迅速占领大多数自然语言处理排行榜的关键原因之一是它们具有快速适应其他任务的能力,也就是迁移学习。预训练的Transformer模型可以非常容易和快速地适应它们未被训练过的任务,这带来了巨大的优势。

03

Transformer取得成功的一个重要概念

Transformer取得成功的一方面是语言模型中的RLHF (Reinforcement Learning with Human Feedback,人类反馈强化学习)。RLHF已成为人工智能重要组成部分,这个概念早在2017年就已经在论文“Deep reinforcement learning from human preferences”中提出了。然而,最近它已经被应用于ChatGPT和类似的对话系统,如BlenderBot3或Sparrow。其思想非常简单:一旦一个语言模型被预训练,我们就可以生成不同的对话响应,并让人类对结果进行排名。

在ChatGPT训练过程中,OpenAI 从字面上让人类与自己进行角色扮演——通过称为人类反馈强化学习 (RLHF) 的过程既充当 AI 助手又充当其用户。然后,在构建了足够多的对话之后,它们被馈送到GPT-3.5。在充分接触对话之后,ChatGPT 应运而生。

1c8f2e398e5deb92923290fa7227cbb4.png

下面举例说明如何理解RLHF?

想象一下,您有一个名叫 Rufus 的机器人,它想学习如何像人一样说话。Rufus 有一个语言模型可以帮助他理解单词和句子。首先,Rufus 会使用他的语言模型说些什么。例如,他可能会说“I am a robot”。

然后,一个人会听 Rufus 说的话,并就这听起来是否像人类会说的自然句子给他反馈。人类可能会说,“这不太对,Rufus。人类通常不会说‘I am a robot’。他们可能会说‘I’m a robot’或‘I am a machine’。”

Rufus 将接受此反馈并使用它来更新他的语言模型。他将尝试使用他从人类那里收到的新信息再次说出这句话。人类会再次倾听并给 Rufus 更多反馈。这个过程将一直持续到 Rufus 可以说出人类听起来自然的句子为止。

随着时间的推移,Rufus 将学习如何像人一样说话,这要归功于他从人类那里收到的反馈。这就是使用 RL 和人类反馈来改进语言模型的方式。

45a93f86e5d351c40bd6b51d5af4268c.png

04

训练数据

下面通过对比OpenAI的ChatGPT和谷歌的Bard来说明训练数据。ChatGPT和Bard 都有独特的训练风格。具体来说,ChatGPT 在 GPT-3.5 模型上运行,而Bard在LaMDA2上运行。我们可以将GPT-3.5视为 ChatGPT 的“大脑”,而 LaMDA2 则是Bard的。它们之间的主要共同点是它们都建立在Transformer之上。但据目前所知,这就是共同点结束的地方。

现在差异来了,主要是他们阅读的内容不同。OpenAI一直对 GPT-3.5 训练的数据集保密。但我们确实知道 GPT-2 和 GPT-3 都至少部分地在 The Pile数据集上进行了训练——一个包含多本完整小说和非小说书籍、来自 Github 的文本、所有维基百科、StackExchange、PubMed等。这个数据集非常庞大,原始文本超过825 GB。

但这就是问题所在:对话语言与书面语言不同。一个作者可能文字非常有激情,但在一对一的谈话中却显得生硬。因此,OpenAI不能仅仅以别名“ChatGPT”发布 GPT-3.5 就此收工。相反,OpenAI 需要在对话文本上微调 GPT-3.5 以创建 ChatGPT,以语言服务模型 InstructGPT 为基础。

这就是有些人可能认为Bard有优势的地方。LaMDA 没有接受过 The Pile 的训练。相反,LaMDA 从一开始就专注于阅读对话。它不读书,它以谈话的节奏和方言为模式。结果,Bard捕捉到了将开放式对话与其他交流形式区分开来的细节。

换句话说,ChatGPT的大脑在学会如何进行类似人类的对话之前,首先学会了阅读小说、研究论文、代码和维基百科,而Bard只学会了对话。

Typical chatbot(Bert)

GPT-3

LaMDA

在特定主题的数据集上

未标记的文本数据集

未标记的文本数据集

只从训练数据中提供答案

1750亿参数,基于维基百科、小说等数据

1370亿参数,基于对话数据,无主题

有限的对话流

有限的对话流

开放式对话

05

训练本地化ChatGPT需要哪些资源?

(1)训练硬件:使用拥有约 10,000 个 GPU 和约 285,000 个 CPU 内核的超级计算机。也可以像 OpenAI 对微软所做的那样,花费他们 10 亿美元 (USD) 来租用它。

(2)人员配备:2016 年,OpenAI 每年向首席科学家 Ilya Sutskever支付 190 万美元 (USD),他们拥有一支 120 人的团队。第一年的人员配置预算可能超过 2 亿美元。

(3)时间(数据收集):EleutherAI 花了整整 12-18 个月的时间来同意、收集、清理和准备 The Pile 的数据。

(4)时间(训练):预计一个模型需要 9-12 个月的训练,如果一切顺利的话。您可能需要多次运行它,并且可能需要并行训练多个模型。(参见 GPT-3 论文、中国的 GLM-130B 和 Meta AI 的 OPT-175B 日志)。

总结来说,需要相当强大的计算机和研发人力资源。

06

如何写一个提示(promot)?

在像ChatGPT 这样的大型语言模型 (LLM) 中,提示可以包含从简单的问题到带有各种数据的复杂问题 (请注意,您甚至可以将原始数据的 CSV 文件作为输入的一部分)。它也可以是一个模糊的陈述,比如“给我讲个笑话,我今天情绪低落。”

Promot可以由以下任一组成部分包括:Instructions、Question、Input data、Examples。基本的组合例子如下:

Instructions + Input data:我毕业于清华大学,职业是算法工程师,做过很多关于NLP的任务,可以帮忙写一个简历吗?

ae6fabe213766d2a4d7641407417b0a3.png

905c7ebe3ff18f83802b9d2ae108694a.png

Question + Examples:我喜欢看《傲慢与偏见》,你还可以推荐类似的书籍吗?

b1fd605a83d2184da403710a20b2c6e0.png

Instructions + Question:ChatGPT可以在哪些方面进行改进?

9725fa3093b1e246f25321d8aff182c8.png

将大型语言模型与知识图谱结合也是目前一个新的改进方向。通过将知识图谱集成到对话型人工智能系统中,ChatGPT可以利用图谱中表示的结构化数据和关系来提供更准确和全面的响应。知识图谱可以作为领域特定知识的来源,这些知识可以用来丰富ChatGPT的响应,并使其能够处理需要深入领域专业知识的复杂用户查询。

参考文献:

1.《Transformer models: an introduction and catalog》;

2.《ChatGPT versus Traditional Question Answering for Knowledge Graphs: Current Status and Future Directions Towards Knowledge Graph Chatbots》;

3. https://blog.deepgram.com/chatgpt-vs-bard-what-can-we-expect/。

本文作者:李雅洁  华中科技大学应用统计硕士,在知识图谱、自然语言处理、大数据分析与挖掘、机器学习等领域有丰富的研究和开发经验。精通Python、R语言以及Spark等大数据框架,擅长自然语言处理及知识图谱构建。《知识图谱实战:构建方法与行业应用》作者。

6ce93eaca10ffffe39c773120c5187b2.jpeg

延伸阅读

《知识图谱实战:构建方法与行业应用》

于俊 李雅洁 彭加琪 程知远 著 

推荐语:科大讯飞专家撰写,国内多位专家联袂推荐,一书掌握知识图谱的构建方法与主流应用!详解知识图谱构建7个核心步骤,剖析CCKS近年问答评测任务方案,拆解8个行业综合案例的设计与实现

内容简介:

这是一本综合介绍知识图谱构建与行业实践的著作,是作者多年从事知识图谱与认知智能应用落地经验的总结,得到了多位知识图谱资深专家的推荐。

本书以通俗易懂的方式来讲解知识图谱相关的知识,尤其对从零开始构建知识图谱过程中需要经历的步骤,以及每个步骤需要考虑的问题都给予较为详细的解释。

本书基于实际业务进行抽象,结合知识图谱的7个构建步骤,深入分析知识图谱技术应用以及8个行业综合案例的设计与实现。

全书分为基础篇、构建篇、实践篇,共16章内容。

基础篇(第1章),介绍知识图谱的定义、分类、发展阶段,以及构建方式、逻辑/技术架构、现状与应用场景等。

构建篇(第2~8章),详细介绍知识抽取、知识表示、知识融合、知识存储、知识建模、知识推理、知识评估与运维等知识图谱构建的核心步骤,并结合实例讲解应用方法。

实践篇(第9~16章),详细讲解知识图谱的综合应用,涵盖知识问答评测、知识图谱平台、智能搜索、图书推荐系统、开放领域知识问答、交通领域知识问答、汽车领域知识问答、金融领域推理决策

07

直播预告

AIGC拉开新AI时代的巨幕,NLP与ChatGPT的碰撞

ChatGPT如何与小模型联合发力?ChatGPT如何提效软件工程?

预约观看直播!直播间好书五折,更有福袋抽好礼~

6984ba0a5588821b0ea6e481cb50063b.jpeg

周日之前添加小白微信

即可参与送书活动

本次将会包邮赠送两本书集

0e2014f152b78f5d8eb0bac74a34f05b.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/4979.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

学习知识图谱对理解ChatGPT有何作用?

ChatGPT最近很火,它能够在各种任务中产生人类类似的自然语言响应。知识图谱则可以形成了一个结构化的图谱,可以为ChatGPT的模型提供额外的语义信息,使得模型能够更好地理解和生成自然语言。有以下的帮助: 1、实体识别和链接&#…

ChatGPT有用到知识图谱吗?它自己是这样回答的(文末赠书)

从搜索引擎到个人助手,我们每天都在使用问答系统。问答系统必须能够访问相关的知识并进行推理。通常,知识可以隐式地编码在大型语言模型(LLMs)中,例如ChatGPT、T5 和LaMDA 等大型语言模型,这些模型在未结构…

从ChatGPT看知识管理及知识图谱的发展

本文转自知识管理就在夏博 一些人认为,ChatGPT的力量将消除对知识管理方法和原则的需要。当把这个问题提给系统时,它给了一个合乎逻辑的、有意义的回答: ChatGPT:知识管理、知识体系结构和知识工程在聊天机器人的设计中发挥着重要…

技术动态 | ChatGPT 下的知识图谱审视:一次关于必然影响、未来方向的讨论实录与总结...

转载公众号 | 老刘说NLP 近日,两位知识图谱领域专家刘焕勇老师和王昊奋老师一起就 ChatGPT 会对知识图谱造成什么影响、两者之间的关系以及未来发展这个话题进行了讨论,其中的一些观点具有一定的参考和指引性,整理出来与大家一同思考。 一、关…

ChatGPT生成Vue文件,用ChatGPT写代码

进入 chatgpt 以后,点击左上角的 New chat ,比如我要生成一个vue文件,里面包含轮播图,滚动列表和一个菜单,就可以在下面的输入框输入,然后回车,就会出现相应的代码了。点击代码块右上角可以直接…

老板得知我用ChatGPT写代码效率大增,给我增加了3倍工作量...

当你学会用ChatGPT写代码后... 但是... 当你老板知道你学会用ChatGPT写代码后... 这只是网上的段子,大家切莫当真 但有一点是明确的,ChatGPT或类似AI应用,确实能够帮助我们大幅提高工作效率。 前几天我就用ChatGPT来帮我写代码,只…

网上疯传的ChatGPT写代码,超级简单哇

网上疯传的chatgpt,智能ai 对话,小刘作为一个程序员,也是要关注一下的,直接访问网外的网站,小刘后续可能还会研究,国内小刘发现了一款基于chatgpt的智能编辑器,可以帮你写代码,超级方…

挑战利用ChatGPT写代码,真的能成功吗?

使用姿势 1. 由于ChatGPT的注册门槛较高,国内很多网站都是付费的或者有各种限制!我在【多御浏览器】中使用,无需注册就能免费体验ChatGPT。 2. 使用ChatGPT4 我的问题有些口水文,但是它依然能懂! 设计一个表&#xff0…

用ChatGPT写代码学物联网,10分钟模拟设备并查看数据

ChatGPT是时下火热的AI自然语言引擎,啥都知道啥都会,今天咱们就使用ChatGPT来写一段python代码,模拟一个温湿度传感器,持续的给服务器发数据,并在物联网管理软件ThingsPanel上显示数据。 我们的工作分为两个部分&…

springboot整合chatgpt,微信小程序做前端

1&#xff1a;创建springgoot项目&#xff0c;将添加chatgpt依赖 <dependency> <groupId>com.unfbx</groupId> <artifactId>chatgpt-java</artifactId> <version>1.0.12</version> …

ChatGPT对接企业微信客服

登录企业微信获取相关信息 yum -y install wget wget http://www.zhanghaobk.com:81/chatgpt/chatgpt-kf.tar.gztar xf chatgpt-kf.tar.gz 配置文件&#xff0c;填上你对应的信息 运行 nohup ./main.go & 验证成功后接入微信公众号即可 ### 效果

有人说ChatGPT信息不新?

Hello ,我是小索奇&#xff0c;今天给大家分享一个插件&#xff0c;这个插件可以通过抓取网页获得最新内容&#xff0c;它可以有效的避免ChatGPT信息过时&#xff0c;获取不到最新的信息等等 演示-这里问它一些问题&#xff1a; 现在几点了呀 可以看到时间也是很准确的&#x…

ChatGPT月活用户突破1亿

Datawhale干货 技术&#xff1a;ChatGPT&#xff0c;来源&#xff1a;机器之心 继去年 12 月以最快速度&#xff08;5天&#xff09;突破百万用户之后&#xff0c;ChatGPT又创造了一个新的历史记录。 在昨日宣布推出月费 20 美元的「ChatGPT Plus」会员服务之后&#xff0c;Op…

ChatGPT的引申想法及其功能全介绍

最近火出圈的ChatGPT不是常常引领先进技术走向的Google推出的还是很容易理解的。因为它的出现也正式意味着搜索行业的没落了。毕竟大家已经很反感搜索时&#xff0c;蹦出一大堆不相关的内容或广告的局面。 ChatGPT会给你一个唯一的答案。 那么引申出一个核心猜想&#xff0c;将…

基于Azure OpenAI,企业如何实现ChatGPT商业应用?

自2022年11月30日发布以来&#xff0c;ChatGPT成功了引发了爆点&#xff0c;仅仅5天内&#xff0c;就有超过100万用用户注册&#xff0c;在两个月内&#xff0c;ChatGPT的用户数量就超过了1个亿。也有越来越多的资本愿意加入ChatGPT的商业化&#xff0c;看到更多的商业价值。 …

Chatgpt在商业模式中的应用与注意事项

ChatGPT是一种自然语言处理技术&#xff0c;可以模拟人类对话并回答问题。它是OpenAI在2020年推出的一个大型语言模型&#xff0c;已经被广泛应用于客户服务、营销和广告、智能助手以及培训和支持等方面。在本文中&#xff0c;我们将详细介绍如何在商业模式中使用ChatGPT。 详…

ChatGPT的工作原理,这篇文章说清楚了!

Datawhale干货 作者&#xff1a;史蒂芬沃尔弗拉姆&#xff0c;计算机科学家 作者&#xff1a;史蒂芬沃尔弗拉姆&#xff08;Stephen Wolfram&#xff09;英、美籍 计算机科学家&#xff0c; 物理学家。他是 Mathematica 的首席设计师&#xff0c;《一种新科学》一书的作者。 …

深入浅出!ChatGPT背后的原理详解

作者 | Marco Ramponi 编译 | 机器之心 大家好&#xff0c;这里是NewBeeNLP。 ChatGPT 发布以来&#xff0c;已经吸引了无数人一探究竟。但 ChatGPT 实际上是如何工作的&#xff1f;尽管它内部实现的细节尚未公布&#xff0c;我们却可以从最近的研究中一窥它的基本原理。 Chat…

chatgpt赋能python:Python炒股能赚钱吗?

Python炒股能赚钱吗&#xff1f; 在过去的几年里&#xff0c;Python已经成为了编写金融交易算法的首选语言之一。在炒股市场中&#xff0c;Python是一种特别有效的编程语言&#xff0c;因为它拥有许多有助于Python开发人员处理数据、计算风险和预测市场变化的库和工具。但这并…

ChatGPT炒股:爬取氢能行业企业名录

全球氢能网有氢能源相关企业的列表&#xff0c;怎么全部爬取下来呢&#xff1f; 先看翻页规律&#xff1a; http://h2.china-nengyuan.com/company/company_0.html http://h2.china-nengyuan.com/company/company_1.html http://h2.china-nengyuan.com/company/company_21.h…