浅谈ChatGPT 和 对AI 的思考

新世纪以来,人工智能作为一个非常热门话题,一直收到大众的广泛的关注。从一开始的图像的分类,检测,到人脸的识别,到视频分析分类,到事件的监测,到基于图片的文本生成,到AI自动写小说,AI 自动作画,AI 超分,再到在围棋上战胜人类的AlphaGo,AlphaZero 每一次都霸占着版面的头条。

最近一段时间,另外一个基于人工智能技术的产品ChatGPT再一次火爆的国内外,以至于现在听不懂什么叫ChatGPT 都感觉自己和时代有点落伍了,那ChatGPT 究竟是什么,它能做什么,它是怎么来的,它会对于我们产生什么样的深远的影响,有人把它作为新的一轮技术革命的代表,它究竟有这么神奇吗?那我们今天就浅谈一下,顺便提出一下对于现有人工智能(AI)的一些思考.

下面的内容将从ChatGPT的前世,ChatGPT的今生,ChatGPT的一些算法细节和Chat的未来应用和一些思考来展开,由于每增加一个数学公式就会让读者的兴趣减50%,所以算法细节就不再这里过多的赘述,有需要了解同学可以多多点赞,后续在看看要不要开专题详细说明.

ChatGPT 的前世

在介绍真正的ChatGPT 前,我想先介绍一下一个通用的概念叫做自然语言处理(NLP),自然语言处理技术是一种计算机科学中的一种常见的技术,主要用于处理文字,提取文字中的包含的语义信息,实现计算机识别感知文字的任务,这种技术应用的常见的任务包括,文本情感的感知,文本翻译,文本的自动生成,问答系统,文字总结之类的语言相关的一系列工作。

之前常见的NLP技术大致会分为两类,一类用于做文本相关的预处理,包括中文的分词,断句,文字转换成词向量(类似于将模拟信号数字化的采样)等技术,一类是直接和最终任务相关的技术,包括情感的分类,文字生成等。在大规模的语言模型(LLM)出现前,一般来说对应不同的任务会训练出不同的模型来进行推理。

添加图片注释,不超过 140 字(可选)

从人类历史发展规律来看,利用机器来替代人力参与到社会的劳动的事件贯穿着人类发展的这个过程,并推动着人类逐步走过了两次工业革命(蒸汽动力的使用和电力的使用)。作为第三次的技术革命的核心,计算机技术和在它之上扩展出的互联网技术以及海量的计算机算力,也正在逐步的改变着我们的每个人的日常的生活方式。近年来,针对如何让计算机变得更加智能这个问题,应运而生的人工智能技术,成为当下最时髦的一个话题,并诞生了不少想象级别的产品。所对应的技术也逐渐从基于规则的驱动的专家模型,走向了基于大数据驱动的深度学习模型框架。而chatGPT 就是这样一种基于海量数据训练后的人工智能的深度学习模型。

假如将 ChatGPT 拆开我们发现,它是由两个部分组成的:

一个部分是Chat 表示它的用途是用来聊天的,本质上是一个问答机器人,主要的功能适用于语言文字的问答工作,这个功能本质上来说并不是一个特别新的功能,是一个很久之前就有的概念。相信大家也或多或少在实际的情况下和这类的机器人客服打过交道,之前的机器人客服可以感觉的出大部分的情况下给人的感觉上是基于一些规则在完成类似的任务,比较类似于你问我答,而且答案一般比较死板,给人的感觉上比较像机器人,给人的感觉不是太友好,导致使用的面比较窄。

另外一个关键词是GPT表征的是实际用到的模型的情况。GPT的全称是生成型预训练变换模型,是一个做自然语言处理相关任务的一个大型的模型,最新的GPT-3模型(可以理解为第三代)的参数量高达1750亿,需要利用28500个CPU 和 10000块GPU 在45TB规模的数据集的语料上面(绝大部分是英文,占比超过90%)训练而来,在目前绝大多数的语言类任务中实现了对于人类的超越,类似于在大规模的图片分类的任务上实现了对于人的超越。下面会对于这个GPT 模型进行一个详细的介绍。

添加图片注释,不超过 140 字(可选)

GPT 全称为Generative Pre-trained Transformer, 从名字和实现的技术中可以提炼出下面的四个关键词,这四个关键词就能对于这个模型可以有一个较为全面的认识。

Generative: 生成式模型。 我们一般常见的图像的检测或者分类模型,输入大多是一张图片,输出都是一堆分类的置信度或者是检测框宽高置信度之类的值,这些值是无法直接理解的,需要通过后处理,引入事先的标签信息,才能知道最终的结果是什么。而 生成式的模型在自然语言处理任务中输入的是一段文字,输出也是一段文字,这样的输入输出模式对于正常的使用者来说是一种最为自然的模式,同时也具备了最强的普适性,所以在现有的自然语言处理中得到的了广泛的应用。从最新的模型来看,这种方式也是自然语言处理任务中最常见的一种训练范式

Pre-Trained: 统一的预训练模型,当然这个不是GPT的首创,但是GPT 中也应用了这样的范式。所谓的统一预训练模型,就是把之前说的文本情感的感知,文本翻译,文本的自动生成,问答系统,文字总结之类的语言相关的等一系列工作统一为一个生成模型,比如对于情感感知分类的模型本来的输出可能是0 表示负向情感 1 表示正向情感, 2 表示中性的情感,统一为一个预训练模型就把这个输出改为三种类型的文本(正向情感,负向情感,中性情感)来将分类问题转换为文本生成问题,其他类似的功能也可以用类似的方式来进行统一。最终利用海量的数据和统一预训练的模型的方式,大规模的语言模型(LLM)在各个分支的任务上都达到了和超越了目前各个任务最佳水平,从侧面验证了这个训练方式的有效性

Transformer: 上一个阶段最火的一个模型框架,是一种由google提出的基于self-attention的网络基本结构,相比于之前的类似LSTM, RNN 等网络结构,该网络结构具有可以高并发推理和表达能力超强等特点,这个介绍里面的专业词有点多,其实这个结构单拎出来都可以讲好久,如果大家有兴趣,在最后的算法细节的介绍中,会有更加详细的描述

Unsupervised : 无监督学习,目前的GPT-3 模型采用的训练的数据集的数量大概在45TB左右,这样的数据量级想要完成高质量的标注几乎完全是一个不可能的任务,毕竟作为图片数据集的标杆的ImageNet 标注的周期也要好几年,量级也就在百万这个量级,所以GPT模型的训练采用的是无监督的生成式的方法,具体的训练过程会在下一页介绍。受益于超大的数据量和超大的模型和in-context learning 等技术的加持,整体的效果还是达到了不错的效果。

添加图片注释,不超过 140 字(可选)

现在开始介绍GPT 是如何进行训练的 :

例如,我们有如上图所示的一条这样的语料,是关于机器人三定律中的第二条的文本语料。总所周知,所有的模型训练目前基于梯度下降的算法,所谓的梯度下降都类似于我们学习知识,一开始我们不知道1+1 等于几,我们随便说一个答案比如10 ,那么老师就会告诉我们这个数字太大了,所以我们下次报的数字就是比这个小,比如8 ,然后逐步逐步的收敛到这个最终正确的结果。 那么我们针对这样的语料如何涉及问题(input)和标签(label)呢,训练GPT的时候采用的方式就特别的鸡蛋,直接使用的利用前面的一段话作为输入(input),以下一个单词作为标签(label) ,这样我们的训练过程就可以如动画所示,每次利用模型得到一个推理的单词,然后计算推理单词和标签之间的相似度作为损失进行回传,然后更新模型,直到最终得到和我们预设的标签一致。

推理的时候,我们就把整段的代码输入到模型中,然后利用高达96层的翻译器(Decoder)进行翻译,然后生成我们想要的结果,有人可能会好奇,为啥每次的结果会不太一样呢,因为在模型的输入中会包含一个随机的初始状态的种子,来保证整个问题的随机性。那有人会问那训练的时候这个怎么办呢,训练的时候一般会固定这个初始状态,或者根据一定的规则来生成这个。

添加图片注释,不超过 140 字(可选)

另外一个在自然语言处理领域比较著名的模型是(BERT)。这个模型和刚才介绍的GPT 大致的情况是类似,就会有几个异同点:

相同点来看,都使用了相同的模型结构(Transformer)架构,同时都使用用生成模型来统一自然语言处理过程,同时模型很大,训练的数据量也很大,

不同的点上来看,GPT 使用的是在名字里面没有B 因此使用的更加简单粗暴的单向模型,单向模型的好处是,训练的时候很简单,不存在后续的信息对于结果的影响而BERT 里面的B 是单词Bidirectional 的 首字母,表示使用的是一个更加具有表达能力的双向Transfomer 的结构,这个结构其实也是有它的道理,比如在一些语言中,倒装啊啥的其实是比较依赖于后续向的结果,因此BERT选用的是双向的结构,但是这个结构在训练中会有一个麻烦就是理论上后续的一些词汇会影响模型训练的效果,因此在训练的时候会利用一个掩膜(mask)来掩盖掉后续的信息,防止产生信息的泄漏

添加图片注释,不超过 140 字(可选)

最终GPT以及和它类似的BERT 等大规模语言模型框架完成了自然语言任务的的统一。统一带来的意义主要是在自然语言处理的各个任务中,不再需要针对各个任务单独的考虑模型设计等问题,都可以利用这样的统一范式来进行处理。同时由于模型具备的超级强悍的表达能力,即使对于一些较为复杂的任务,可以利用一些简单的引导就可以完成各种类型的工作,比如帮忙写代码,调试代码,生成报告,写ppt啥,并且在很多的任务中完全不需要引导也可以实现很好的效果,这种就被称为Zero-shot Generalization。

添加图片注释,不超过 140 字(可选)

2. ChatGPT 的今生今世

介绍完了GPT 我们来介绍真正的主角ChatGPT。之前提到的GPT-3模型虽然在很多的任务中表现出来特别牛的效果,同时在一些领域包括写代码,理解shell 脚本含义等任务下有着出乎意料的效果,但是在作为对话机器人的领域,总感觉和人类的感官差异较大,感觉不是特别的智能,OpenAI的专家经过分析发现这类缺陷主要的原因实现训练GPT 模型的时候没有和人类的行为做对齐导致的,因此后续设计了一款和人类对齐的InstructGPT ,其中利用了一种称之为Reinforcement Learning from Human Feadback 简称为RLHF 的技术使得模型的输出更加的贴近于实际的人类的效果。

添加图片注释,不超过 140 字(可选)

在关于InstructGPT的论文中,详细介绍了openAI 是具体是如何利用人类的反馈来提升的模型的主要来说,整个步骤分为三个部分

  1. 有监督的学习: openai从网上大家调用API的问题中通过大数据的去重和人为的筛选,精选了22000条样例进行了人工的标定,人工的标定的时候尽量的试图去理解样例中的隐含的含义和给出尽量公正正确的答案,然后利用这些进行一个有监督的学习,保证模型推理的结果尽量的和这些样本保持一致

  2. 训练一个奖励模型: 有监督的标注实在成本是不低的,第二步的标注相对于第一步进行了一定的简化,利用多个模型的多次推理可以得到不同的生成结果,对于这些生成结果进行相互的比较排序,根据这样的排序得到的结果,我们可以利用rank-loss 这类的技术训练出一个reward model 用来对于每一条结果进行打分,用来区分结果的好坏,这里的数据量其实不大也就几万条

  3. 利用强化学习更新策略模型:最后有了奖励模型,大概率大家都可以猜到会使用强化学习的方法,以奖励模型给出的分数作为评价,第三步利用强化学习中的ppo算法(强化学习可是openai 最擅长的)利用全部的数据集进行学习,最终使得模型学习到一种策略,用来生成出我们reward model 打分更高的结果,这样就实现我们想把模型输出和人对齐的想法

第二步和第三步在实际的操作过程中是可以不断的循环迭代,即利用第二步的结果训练出第三步的策略模型,然后在用第三步的策略模型生成出跟多的样本进行排序的打标训练新的reward model 然后在用来训练第三步的策略模型,如此循环往复,最终可以得到一个和我们期望的输出更加的一致的模型达到对齐的效果

在训练的过程中还是有一些小细节的,在训练中发现如果仅仅依赖于人类标定的那些样本进行调整的话,其实会导致在一些标准的数据集上的效果会出现下降,因此在训练的时候加入了最为原始的GPT-3 的结果输出一起计算最终的损失,这样的会可以保证在标注数据集上的结果。同时训练后发现,利用这样的训练模型在一个参数量减少了100倍的模型也能达到不错的效果,最终上线的chatGPT的模型的版本大概是参数量在10亿级别的模型

添加图片注释,不超过 140 字(可选)

那么ChatGPT的效果究竟如何呢,其实在知乎上也给出不少很有意思的例子:

比如:

模拟terminal

添加图片注释,不超过 140 字(可选)

做一些语言任务:

添加图片注释,不超过 140 字(可选)

教你做菜 :

添加图片注释,不超过 140 字(可选)

自己给自己找一个例子

添加图片注释,不超过 140 字(可选)

当然也会有一些一本正经的胡说八道:

添加图片注释,不超过 140 字(可选)

大家可以自行感受一下这个效果,个人觉得这样的效果还是非常令人惊喜的,特别是得知模型的语料基本上都是英文的前提下

ChatGPT 给我带来的一些思考:

最后想谈一谈ChatGPT 给我打来的一些思考

首先从一本正经的胡说八道让我联想起了一个问题,关于什么知识的问题。从小我们收到的教育就其实就是在默认老师或者父母交给我们的就是正确的知识,知识我们理解就是一种关于生活现象的经验的总结,长大后我们会从各种书籍里面获得知识,学习到一些道理,但是一个人的专业的知识领域总是有限的,直到遇到了这么一个ChatGPT的怪物。它似乎懂得所有的东西,从写代码到教做菜到教你打游戏似乎无所不知,但是很遗憾,真正到了你的专业领域其实你发现和你之前的认知是完全不是一回事,作为能够独立判断的人,其实目前还是比较容易判别或者自己认为比较容易判别这些哪些是对的,哪些是有问题的,但是随着技术的发展呢?或者说不是自己熟悉的领域呢?会不会就被这样的生成的内容误导了呢。

之前在互联网中会有一个概念叫做信息茧房,就是随着搜索推荐技术的革新和更加精准化的推荐,每个人从推荐算法中获得的信息是高度重复,一些app的推荐算法会精准的知道你想看的是什么然后给你推荐相关的内容,这样就导致每个人容易活在自己认为的世界里面。那其实再扩大一些,如果每天都和ChatGPT这样的生成模型交流,是不是会更加加剧这样的现象,毕竟这个模型更加的多变,像一个全知全能的聊天工具,一定会提供你想听到的内容,所以在未来AI 肯定会更加进入我们生活的大浪潮不可改变的情况下,我们该如何鉴别或者说如何重新定义我们所谓的知识,从而不受巨大的信息茧房的影响,能够更加客观全面的看待问题。

此外ChatGPT 在很多使用的时候会让人以为他是一个搜索引擎,是一个代码生成器,是一个代码调试器,是一个terminal,其实根据刚才的介绍,其实它就是一个模型而已,只是生成的内容过于百遍和实际,让人产生了这样那样的错觉。要表现出这样的能力,它肯定是在模型的一些地方存下这些信息,但是这些信息是以怎么样的形式存在的,是如何发挥工作的,这里面的原理性的内容还是需要后续的不断探索

最后关于知识,其实我们小时候的一些知识比如世界上有多少个国家之类的知识,其实在长大的过程中已经发生了变化,世界其实是一个变化的过程,因此知识也需要不断迭代,相比于我们可以不断修改我们的知识,作为模型要做这样的工作就难上了很多,而且训练一个这样的模型,据说OpenAI 花费在1600W 刀,看着也不是能够没事随便训练一个的,那么如何小成本的精准更新也是一个后续的重要问题

添加图片注释,不超过 140 字(可选)

最后我们来展望一下ChatGPT的应用和未来:

首先ChatGPT 对于现有的一些客服机器人绝对是一个很大的冲击,对于 目前的一些基于规则的聊天机器人基本上是这个降维打击,一些更加智能更加符合人类习惯的客服机器人眼见应该是在上线的路上了

其次,ChatGPT 是一个通用的模型,但是在专业领域目前还无法和人类的相比,在未来一定会有人将这个技术和行业做结合做行业化,在行业中发挥这项技术的优势,最终实现真正能在专业领域使用的机器人

最后GPT3.5 已经完成,GPT-4 第四代已经在开发的路上了,以后更高更快更大更强的语言模型会不会再一次给人类带来惊喜,值得我们拭目以待

添加图片注释,不超过 140 字(可选)

简要介绍和一些思考就到这里,如果想了解后续的一些算法细节知识,请多多点赞,如果大家兴趣很高,后面单独更新

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/3580.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

干货分享:AI绘图学习心得-Midjourney绘画AI,让你的AI绘画之路少走弯路

干货分享:AI绘图学习心得-Midjourney绘画AI 最重要的Prompt和参数基本 Prompts高级Prompts 一、构图指令结构二、常用指令分享三、操作技巧总结四、常用风格词汇五、常用构图词汇六、高频实用词汇推荐:七、其他AI资料获取: 本篇没有什么长篇大…

国内能用的几个AI人工智能大模型

AILINK:https://kk.rknk.net 支持功能: ChatGPT-3.5ChatGPT-4角色设定流试输出自定义轻应用Midjourney绘图 百度文言一心:https://yiyan.baidu.com实时联网生成搜索信息检索PDF/Doc问答摘要 目前已逐渐开放较多的体验名额,有兴…

从玩具到工具|社畜程序员用AI提效的神仙操作

👉腾小云导读 随着 AI 技术的日益发展,前端开发模式和提效工具也在不断地变化。作为一名前端工程师,如何应对 AI 带来的挑战和机遇?在这篇文章中,作者将介绍什么是 AIGC,并深入探讨 AI 在低代码平台的应用。…

百度生成式AI产品文心一言邀你体验AI创作新奇迹:百度CEO李彦宏详细透露三大产业将会带来机遇(文末附文心一言个人用户体验测试邀请码获取方法,亲测有效)

百度生成式AI产品文心一言邀你体验AI创作新奇迹 中国版ChatGPT上线发布强大中文理解能力超强的数理推算能力智能文学创作、商业文案创作图片、视频智能生成 中国生成式AI三大产业机会新型云计算公司行业模型精调公司应用服务提供商 总结获取文心一言邀请码方法 中国版ChatGPT上…

chatgpt赋能python:Python中的画图——创建漂亮的可视化图像

Python中的画图——创建漂亮的可视化图像 Python是一个高度可编程的语言,因此它非常适合用于创建各种类型的可视化。 在本文中,我们将介绍Python中的画图。我们将讨论如何使用Python和一些流行的数据可视化库来创建漂亮的可视化图像。我们还将探讨如何…

省钱!NewBing硬核新玩法;手把手教你训练AI模特;用AI替代同事的指南;B站最易上手AI绘画教程 | ShowMeAI日报

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 🤖 『NewBing 的2种硬核新用法』阅读文档并回答问题 & AI绘图 社区同学分享了两种NewBing的新用法,不仅准确高效&#x…

AIGC的中场战事

(图片来源:Pexels) 换皮、专业度、应用企业和大模型的博弈均会影响行业发展。 数科星球 原创 作者丨苑晶 编辑丨十里香 ChatGPT爆火,惹得众羡。 以Meta为首的企业,发起了对ChatGPT的“围剿”。日前,扎克伯格推出LLaMA“…

ChatGPT的多种用法(持续更新中。。。)

指南 写小说 “写一本拥有出人意料结局的推理小说。” “写一个让读者参与其中的交互小说。” “为孩子们写一本激励他们勇敢面对挑战的小说。” “编写一个有关科技创新的未来世界的小说。” “创造一个让读者感到沉浸其中的幻想故事。” 充当 Linux 终端 我想让你充当…

万字综述梳理ChatGPT----一文搞懂弄潮儿ChatGPT技术原理、行业现状、投资前景

本文是笔者自学ChatGPT的总结与思考,类型为综述文章,适合想全面了解ChatGPT或对人工智能感兴趣的小伙伴~~ 目录先行,自行找需,全文三万六千余字。分为三大模块,追求效率可跳转感兴趣部分直接开卷。感谢大佬们以前的写的…

还在熬夜改代码?你怕是不知道ChatGPT可以协助改代码/查找Bug

前言 你还在拼命熬夜查找Bug、修改代码吗?如果是,那你肯定没有发现ChatGPT在编程领域的辅助作用! 为了验证ChatGPT修改代码的能力,我们将尝试用不同类型的代码进行测试: 改Bug 怎么把这行代码里的中位数调成第一或者…

C语言在国内已经不行了,ChatGPT用数据告诉我的

文章目录 一、前言二、ChatGPT查到的数据三、数据亮点1.C语言近3年数据大跌2.招聘数量每年都在剧增的是全栈工程师3.薪资涨幅最高的是全栈和网安 四、结语 一、前言 不仅前在微信群里搭建了一个ChatGPT 5.0做智能助手,让他来帮我回答群问题, 搭建好之后…

ChatGPT 使用 拓展资料:吴恩达大咖 Building Systems with the ChatGPT API 构建聊天形式的模版

ChatGPT 使用 拓展资料:吴恩达大咖 Building Systems with the ChatGPT API 构建聊天形式的模版 简介 欢迎来到本课程,学习如何使用聊天API构建系统,之前我介绍了如何使用提示语调用API,但系统需要的不仅仅是单个提示或对 语言模型的单个调用。 在这门简短的课程中,我们想…

使用XINCheck文档查重软件对本地文档查重

XINCheck文本查重可以对本地的文件进行查重。github上有它的开源版,可以访问https://github.com/tianlian0/paper_checking_system查看,开源版提供了查重的基本功能和源代码。 使用介绍 1、下载、安装 点此链接下载免费版安装包进行安装(提…

噢!查重原来是这样实现的啊!

前言 项目中有一个查重的需求,就类似论文查重这种的需求,我的组长已经写好了这个 Demo 了,我也挺感兴趣的,所以也看了看是如何实现的,看完后,感慨一声,噢!原来是这样实现的啊&#…

iThenticate查重系统的使用及如何去除参考文献

题目:iThenticate查重系统的使用及如何去除参考文献 期刊投稿时,有时期刊会以重复率过高而退稿,要求降低重复率后方可送外审。这时就需要对原文进行修改,但为了确保修改是否有效,再次投稿前一般自己会进行一次查重。用…

大学生论文查重软件都有哪些?

纵观大学生论文写作的血泪史,你一定会发现写论文不难,难的是满足要求的重复率!每次在写论文的时候,一到重复率检测的时候,好多同学都是苦不堪言。这个时候拥有一个好用的查重软件至关重要。 在这里要提醒各位学弟学妹…

本科毕业论文去哪里查重比较靠谱?

毕业在即,论文好不容易写完,查重又成了难题。尤其天临元年以来,查重率越降越低,小伙伴人心重重。 学校给的免费查重次数远远不够用怎么办?查重只用一个网站不放心怎么办?大家放宽心,下面我给大…

chatGPT 与文言一心的对比

今天文言一心终于申请下来了,马上测试一下。 我测试的是汉昭帝刘弗陵,百度百科如下所示: 使用chatGPT 的提问如下所示: 使用文言一心的测试如下所示: 从上述回答中可以看出,chatGPT对于提问更加严谨&#…

ChatGPT+Midjourney,带你领略古诗词的魅力

说起 Midjourney,AI 绘画界的出图质量无人怀疑,特别是 V5 版本的上线,解决了人体的手画不好的瑕疵之后,更是迎来一波好评。国外版本的话,需要用 Discord 软件与之交互,对普通用户而言还是有使用门槛的&…

文心一言发布,你怎么看?chatGPT

百度全新一代知识增强大语言模型“文心一言”于2021年3月16日正式发布,作为一款自然语言处理技术,它引起了广泛的关注和讨论。 首先,文心一言是一款具有重大意义的自然语言处理技术。在人工智能领域,自然语言处理技术一直是一个难…