新书上市 |《这就是ChatGPT》刘江总编作序

奇事

本书的主题——ChatGPT可谓奇事。

从2022年11月发布到现在差不多半年的时间,ChatGPT所引起的关注、产生的影响,可能已经超越了信息技术历史上几乎所有热点。

它的用户数2天达到100万,2个月达到1亿,打破TikTok之前的记录。而在2023年5月iOS App发布后,也毫无悬念地登顶苹果应用商店总排行榜。

许多人平生第一次接触到如此高智能、知错能改的对话系统。撰写文章、虽然很多时候会非常自信、“一本正经的胡说八道”,甚至简单的加减法也算不对,但你提示它错了,或者让它一步步地来,它会很灵地真的变得非常靠谱,有条不紊地列出做事情的步骤,然后得出正确答案。有些复杂的任务,你正等着看它笑话呢,它却不紧不慢地给你言之成理的回答,让你大吃一惊。

众多业界专家也被它征服:

原本不看好甚至在2019年微软投资OpenAI的决策中投了反对票的盖茨,现在将ChatGPT与PC、互联网等相提并论,黄仁勋称之为iPhone时刻,OpenAI的Sam Altman比作印刷机,Google CEO Sundar Pichai说是火和电,与腾讯马化腾“几百年不遇”的观点所见略同,总之都是开启了新时代。阿里巴巴张勇的建议是:“所有行业、应用、软件、服务,都值得基于大模型能力重做一遍”。以马斯克为代表的很多专家更是因为ChatGPT的突破性能力可能对人类产生威胁,呼吁应该暂停强大AI模型的开发。

刚刚结束的2023智源大会上,Sam Altman很自信地说AGI很可能在十年之内到来,需要全球合作解决由此带来的各种问题。而因为共同推动深度学习从边缘到舞台中央而获得图灵奖的三位科学家,意见却明显不同:

  • Yann LeCun明确表示GPT代表的自回归大模型存在本质缺陷,需要围绕世界模型另寻新路,所以他对AI的威胁并不担心。

  • 在另外一位讲者插播视频里出现的Yoshua Bengio虽然也不认同单靠GPT路线就能通向AGI(他看好贝叶斯推理与神经网络的结合),但承认大模型存在巨大潜力,从第一性原理来看也没有明显的天花板,因此他在呼吁暂停AI开发的公开信上签了字。

  • 压轴演讲的Geoffrey Hinton显然同意自己的弟子Ilya Sutskever大模型能学习到真实世界压缩表示的观点,他意识到具备反向传播(通俗地理解就是内置知错能改机制)而且能轻易扩大规模的人工神经网络,智能可能会很快超过人类,因此他也加入到呼吁AI风险的队伍中来。

ChatGPT代表的人工神经网络的逆袭之旅,在整个科技史上也算得上跌宕起伏。它曾经在流派众多的人工智能界内部屡受歧视和打击。不止一位天才先驱以悲剧结束一生:

1943年Walter Pitts与Warren McCulloh提出神经网络数学表示时才20岁,他中学都没有念完,后来因为与导师维纳失和,脱离学术界,因饮酒过度46岁即英年早逝;

1958年30岁时通过感知机实际实现了神经网络的Frank Rosenblatt,43岁生日溺水身亡;

反向传播的主要提出者David Rumelhart则是50多岁正值盛年罹患罕见的不治之症,1998年开始逐渐失智,2011年与病魔斗争十多年后离世。

……

一些顶级会议和明斯基这样的学术巨人都曾毫不客气地反对甚至排斥神经网络,逼得Hinton等人不得不先后采用“关联记忆”、“并行分布式处理”、“卷积网络”、“深度学习”等更中性或者晦涩的术语为自己赢得一隅生存空间。

Hinton自己从1970年代开始,坚守冷门方向几十年,从英国到美国最后立足曾经的学术边陲加拿大,在资金支持匮乏的情况下努力建立起一个人数不多但精英辈出的学派。

直到2012年他的博士生Ilya Sutskever等在ImageNet比赛中用新方法一飞冲天,深度学习开始成为AI的显学,并广泛应用于各个产业。

2020年,他又在OpenAI带队,通过千亿参数的GPT-3开启了大模型时代。

ChatGPT自己的身世也极富戏剧性。

2015年30岁的Sam Altman和28岁的Greg Brockman与马斯克联手,召集了30岁的Ilya Sutskever等多位AI顶级人才,共同创立OpenAI,希望在谷歌、Facebook等诸多巨头之外,建立中立的AI前沿科研力量,并雄心勃勃地把人类水平的人工智能作为自己的目标。

那时候,媒体基本上报道基本上都是以马斯克支持成立了一家非盈利AI机构为标题,并没有多少人看好OpenAI。甚至Ilya Sutskever这样的灵魂人物,加入前也经过了一番思想斗争。

前三年,他们在强化学习、机器人、多智能体、AI安全等方面多线出击,也的确没有取得特别有说服力的成果。以至于主要赞助人马斯克对进展不满意,动念要来直接管理,被理事会拒绝后,选择了完全离开。

2019年3月,Sam Altman开始担任OpenAI的CEO,并在几个月内完成了组建商业公司、获得微软10亿美元投资等,为后续发展做好了准备。

而科研方面,2014年Olin工学院本科毕业两年后加入OpenAI的Alec Radford开始发力,作为主要作者,他在Ilya Sutskever等的指导下,连续完成了PPO(2017)、GPT-1(2018)、GPT-2(2019)、Jukebox(2020)、ImageGPT(2020)、CLIP(2021)、Whisper(2022)等多项开创性工作。尤其是2017年情感神经元的工作,开创了“预测下一个字符”的极简架构结合大模型、大算力、大数据的技术路线,对后续GPT产生了关键影响。

GPT的发展也不是一帆风顺的。

从下图1可以清晰地看到,GPT-1论文发表之后,OpenAI这种有意为之的更加简单的decoder-only架构(准确地讲是带自回归的encoder-decoder)并没有得到太多关注,风头都被几个月之后谷歌的BERT(encoder-only架构,准确地讲是encoder-非自回归的decoder)抢去了。出现了一系列xxBERT类的很有影响的工作。

e7b1f24961fa124474243ab8978f4bd4.png

图1 大模型进化树,出自Amazon杨靖锋等2023年4月的论文“Harnessing the Power of LLMs in Practice”

即使到今天,后者的引用数累计已经超过6.8万,比GPT-1的不到6000仍然高了一个数量级。两篇论文技术路线不同,无论是学术界还是工业界,几乎所有人当时都选择了BERT阵营。

2019年2月发布的GPT-2将最大参数规模提升到15亿级别,同时使用了更大规模、更高质量和更多样的数据,模型开始展现很强的通用能力。

当时令GPT-2登上技术社区头条的,还不是研究本身(直到今天论文引用数也是6000出头,远不如BERT),而是OpenAI出于安全考虑,最开始只开源了最小的3.45亿参数模型,引起轩然大波。社区对OpenAI不Open的印象,始自这里。

这前后OpenAI还做了规模对语言模型能力影响的研究,提出了“规模定律”(Scaling Law),确定了整个组织的主要方向:大模型。为此,将强化学习、机器人等其他方向都砍掉了。难能可贵的是,大部分核心研发人员选择了留下,改变自己的研究方向,放弃小我,集中力量做大事,很多人转而做工程和数据等工作,或者围绕大模型重新定位自己的研究方向(比如强化学习就在GPT 3.5以及之后的演进中发挥了重大作用)。这种组织上的灵活性,也是OpenAI能成功的重要因素。

2020年GPT-3横空出世,NLP小圈子里的一些有识之士开始意识到OpenAI技术路线的巨大潜力。在中国,北京智源人工智能研究院联合清华大学等高校推出了GLM、CPM等模型,并积极在国内学术界推广大模型理念。从图1看到,2021年之后,GPT路线已经完全占据上风,而BERT这一“物种”的进化树几乎停止了。

2020年年底,OpenAI的两位副总Dario和Daniela Amodei兄妹带领多位GPT-3和安全团队的同事离开,创办了Anthropic。Dario Amodei在OpenAI的地位非同一般,他是Ilya Sutskever之外,技术路线图的另一个制定者,也是GPT-2和GPT-3项目以及安全方向的总负责人。而随他离开的,有GPT-3和规模定律论文的多位核心。

一年后,Anthropic发表论文“A General Language Assistant as a Laboratory for Alignment” ,开始用聊天助手研究对齐问题。此后逐渐演变为Claude这个智能聊天产品。

6de745a331726cb8211b459da58629f9.png

2022年6月,“Emergent Abilities of Large Language Models”论文发布,一作是从达特茅斯学院本科毕业才两年的谷歌研究员Jason Wei(今年2月他也在谷歌精英跳槽潮中去了OpenAI)。文中研究了大模型的涌现能力,这类能力在小模型中不存在,只有模型规模扩大到一定量级才会出现。也就是我们熟悉的“量变会导致质变”。

到11月中旬,本来一直在研发GPT-4的OpenAI员工收到管理层的指令,所有工作暂停,全力推出一款聊天工具,原因是有竞争。两周后,ChatGPT诞生。这之后的事情已经载入史册。

业界推测,OpenAI管理层应该是得到了Anthropic Claude的进展情况,意识到这一产品的巨大潜力,决定先下手为强。这展现出核心人员超强的战略判断力。要知道,即使是ChatGPT的核心研发人员也不知道为什么产品推出后会这么火(“我爸妈终于知道我在干什么了”),他们在自己试用时完全没有惊艳的感觉。

2023年3月,在长达半年的“评估、对抗性测试和对模型以及系统级缓解措施的迭代改进”之后,GPT-4发布。

微软研究院对其内部版本(能力超出公开发布的线上版本)研究的结论是:“在所有这些任务中,GPT-4的表现与人类水平惊人的接近……鉴于GPT-4的广度和深度,我们认为它可以合理地被视为通用人工智能(AGI)系统早期(但仍然不完整)的版本。”

此后,国内外的企业和科研机构纷纷跟进,几乎每周都有一个甚至多个新模型推出,但综合能力上OpenAI仍然一骑绝尘,唯一可以与之抗衡的,是Anthropic。

很多人会问,为什么中国没有产生ChatGPT?其实正确的问题(prompt)应该是:为什么全世界只有OpenAI能做出ChatGPT?他们成功的原因是什么?对此的思考,到今天仍有意义。

ChatGPT,真奇事也。

奇人

本书作者Stephen Wolfram可谓奇人。

1e3347b66d30d8d9857fc40b8923a910.png

他虽然并不是马斯克那种大众层面妇孺皆知的科技名人,但在科技极客小圈子里确是如雷贯耳的,被称为“在世的最聪明的人”。

谷歌的创始人之一Sergey Brin大学期间曾经慕名到Wolfram的公司实习。而搜狗和百川智能创始人王小川更是他出名的铁杆粉丝,“带着崇敬和狂热的心……关注和追随多年”。

Wolfram小时候是出名的神童。因为不屑于看学校推荐的“蠢书”,而且算术不好,也不愿意刷已经被人解答过的题,一开始老师们还以为这孩子不行。

结果人家13岁就自己写了几本物理书,其中之一名为《亚原子粒子物理》。

15岁在 Australian Journal of Physics 发表了一篇正儿八经的高能物理论文“Hadronic Electrons?”,提出了一种新形式的高能电子-强子耦合。这篇论文还有5次引用。

cdb1878879751dda594132918c1c2d42.png

在英国的伊顿公学、牛津大学等名校Wolfram都是晃了几年,也不怎么上课,他厌恶已经被人解决的问题,结果没毕业就跑了,最后20岁在加州理工学院直接拿了博士,导师是大名鼎鼎的费曼。

随后他留校,成为加州理工学院的教授。

1981年Wolfram荣获第一届麦克阿瑟天才奖,是最年轻的获奖者。同一批都是各学科的大家,包括1992年诺贝尔文学奖得主沃尔科特。

他很快对纯物理失去了兴趣。1983年转到普林斯顿高等研究院,开始研究元胞自动机,希望找到更多自然和社会现象的底层规律。

这一转型产生了巨大影响。他成为复杂系统这一学科的开创者之一,有人认为他做出了诺贝尔奖级的工作。20多岁的他也的确与多位诺贝尔奖得主盖尔曼、菲利普·安德森(正是他1972年发表文章“More is Different”提出了涌现这一概念)等一起参与了圣塔菲研究所的早期工作,并在UIUC创立复杂系统研究中心。他还创办了学术期刊 Complex Systems 。

为了更方便地做元胞自动机相关的计算机实验,他开发了数学软件Mathematica(这个名字还是他的好友乔布斯取的),又进而创办软件公司Wolfram Research,转身为一位成功的企业家。

Mathematica软件的强大,大家可以从本书后面对ChatGPT解读时高度抽象和清晰的语法中直观的感受到。说实话,这让我动了想认真学一下这一软件和相关技术的念头。

1991年,Wolfram又返回研究状态,开始昼伏夜出,每天深夜埋头做实验、写作长达十年,出版了1000多页的巨著 A New Kind of Science。

书中的主要观点是:万事皆计算,宇宙中各种复杂现象,包括人产生的还是自然中自发的,都可以用一些规则简单的计算模拟。

Amazon上书评的说法可能更好懂:“伽利略曾宣称自然界是用数学的语言书写的,但Wolfram认为自然界是用编程语言(而且是非常简单的编程语言)书写的。”

而且这些现象或者系统,比如人类大脑的工作和气象系统的演化,在计算方面是等效的,具有相同的复杂度,这称为“计算等价原理”。

书很畅销,因为语言很通俗,又有近千幅图片,但学术界尤其是物理老同行也有很多批评。主要集中在书中的理论并不原创(图灵关于计算复杂性的工作,康威的生命游戏等都与此类似),而且缺乏数学严谨性,因此很多结论很难经得住检验(比如自然选择不是生物复杂性的根本原因,图灵出版的图书《量子计算公开课》的作者Scott Aaronson也指出Wolfram的方法无法解释量子计算中非常核心的贝尔测试的结果)。

而Wolfram回应批评的方式是推出Wolfram|Alpha知识计算引擎,被很多人认为是第一个真正实用的人工智能技术,结合知识和算法,实现了用户采用自然语言发出命令,系统直接返回答案。全世界的用户可以通过网页、Siri、Alexa包括ChatGPT插件来使用这一强大的系统。

如果我们拿ChatGPT代表的神经网络来看Wolfram的理论,就会发现一种暗合关系:GPT底层的自回归架构,与很多机器学习模型相比,的确可以归类为“规则简单的计算”,而其能力也是通过量变累积之下涌现出来的。

Wolfram经常为好莱坞的科幻电影做技术支持,用Mathematica和Wolfram编程语言生成一些逼真的效果,比较著名的包括《星际穿越》里的黑洞引力透镜效应,和《降临》里掌握了以后能够超越时空的神奇外星人语言,都极富想象力。

4b5b8780ab89d1bdbe3f099f2a9f8d24.png 44e2bb57659c2582e2af34a4d44c8179.png

他当年最终离开学术界,与普林斯顿同事不和有关。老师费曼写信劝他:“你不会理解普通人的想法的,他们对你来说只是傻瓜。”

我行我素,活出了精彩的人生。

Stephen Wolfram真奇人也。

奇书

奇事+奇人,本书当然可谓奇书了。

像Stephen Wolfram这样的大神能动手为广大读者关注度极高的主题写一本通俗读物,这本身就是一个奇迹。

他40年前从纯物理转向复杂系统,就是想解决人类智能等现象的第一性原理,有很深的积累。由于他交游广泛,与Geffrey Hinton、Ilya Sutskever、Dario Amodei等关键人物都有交流,也有第一手资料,保证了技术的准确性。难怪本书出版后,OpenAI的CEO称之为“ChatGPT原理的最好解释”。

全书分两部分,篇幅很小,但是关于ChatGPT最重要的点都讲到了,而且讲得通俗透彻。

我在图灵社区发起的“ChatGPT共学营”,与各种技术水平、专业背景的同学有很多交流,发现要理解大模型,正确建立一些核心概念,是非常关键的,没有这些支柱,即使你是资深的算法工程师,认知也可能有很大偏差。

比如,GPT技术路线的一大核心理念,是用最简单的自回归生成架构,来解决无监督学习问题,也就是利用原始的数据无需人特意标注,然后从中学习数据中对世界的映射。其中自回归生成架构,就是书中讲得非常通俗的“只是一次添加一个词”。这里特别要注意的是,选择这种架构的目的并不是为了做生成任务,而是为了理解或者学习,是为了实现模型的通用能力。在2020年之前甚至之后的几年里,业界很多专业人士都想当然地以为GPT是搞生成任务的而选择了无视。殊不知GPT-1论文的标题就是“通过生成式预训练改进语言理解”。

再比如,对于没有太多技术背景或者机器学习背景的读者来说,了解人工智能最新动态时可能遇到的直接困难,是听不懂老出现的基本概念“模型”、“参数(在神经网络中就是权重)”是什么意思,而这些概念并不是那么容易讲清楚。本书中,大神作者非常贴心地用直观的例子(函数和旋钮)做了解释。(参见“什么是模型”一节)

而关于神经网络的几节内容图文并茂,相信对各类读者更深刻地理解神经网络及其训练过程的本质,以及损失函数、梯度下降等概念都很有帮助。

作者在讲解中也没有忽视思想性,比如下面的段落很好地介绍了深度学习的意义:

“深度学习”在 2012 年左右的重大突破与如下发现有关:与权重相对较少时相比,在涉及许多权重时,进行最小化 (至少近似)可能会更容易。

换句话说,有时候用神经网络解决复杂问题比解决简单问题更容易——这似乎有些违反直觉。大致原因在于,当有很多“权重变量”时,高维空间中有“很多不同的方向”可以引导我们到达最小值;而当变量较少时,很容易陷入局部最小值的“山湖”,无法找到“出去的方向”。

这一段讲清楚了端到端学习的价值:

在神经网络的早期发展阶段,人们倾向于认为应该“让神经网络做 尽可能少的事”。例如,在将语音转换为文本时,人们认为应该先 分析语音的音频,再将其分解为音素,等等。但是后来发现,(至 少对于“类人任务”)最好的方法通常是尝试训练神经网络来“解 决端到端的问题”,让它自己“发现”必要的中间特征、编码等。

掌握这些概念的why,都有益于理解GPT的大背景。

嵌入这个概念无论对从事大模型研发的算法研究者,基于大模型应用开发的程序员,还是想深入了解GPT的普通读者,都是至关重要的,也是“ ChatGPT 的中心思想”,但相对比较抽象,不是特别容易理解。本书“‘嵌入’的概念”一节是我见过的对这一概念最好的解释,通过图、代码和文字解读三种方式,相信大家都能掌握。当然,后文中“意义空间和语义运动定律”一节还有多张彩图,可以进一步深化这一概念。

本节最后还介绍了常见词标记(token),并举了几个直观的英文例子。

接下来对ChatGPT工作原理和训练过程的介绍也是通俗而不失严谨。对Transformer这个比较复杂的技术讲得非常细致,而且也如实告知了目前理论上并没有搞清楚为什么这样就有效果。

第一部分最后收尾,结合作者的计算不可约理论,将ChatGPT的理解上升到一个高度,与Illya Sutskever在多个访谈里强调的GPT的大思路是通过生成来获取世界模型的压缩表示异曲同工。

在我看来,这一段落是非常引人深思的:

产生“有意义的人类语言”需要什么?过去,我们可能认为人类大脑必不可少。但现在我们知道,ChatGPT 的神经网络也可以做得非常出色。……我强烈怀疑 ChatGPT 的成功暗示了一个重要的“科学”事实:有意义的人类语言实际上比我们所知道的更加结构化、更加简单,最终可能以相当简单的规则来描述如何组织这样的语言。

语言是严肃思考、决策和沟通的工具,相比感知、行动,从孩子的获取先后和难易程度来看,应该是智能中最难的任务。但ChatGPT很可能已经攻破了其中的密码,正如Wolfram说的“”。这确实预示着未来我们通过计算语言或者其他表示方式,有可能进一步大幅提升整体智能水平。

由此推广开来,人工智能的进展,有可能在各学科产生类似的效应:原来以前认为很难的课题,其实换个角度并不是那么难的。加上GPT这种通用智能助手的加持,“一些任务从基本不可能变成了基本可行”,最终使全人类的科技水平达到新高度。

本书的第二部分是ChatGPT与Wolfram|Alpha 系统对比与结合的介绍,有较多实例。如果说GPT这种通用智能更像人类的话,大部分人类确实是天生不擅长精确计算和思考的,未来通用模型与专用模型的结合,应该也是前景广阔的方向。

稍有遗憾的是,本书重点只讲了ChatGPT的预训练部分,而没有过多涉及后面也很重要的几个微调步骤:监督微调(SFT)、奖励建模和强化学习。这方面比较好的学习资料是2023年5月OpenAI创始成员、前Tesla AI负责人Andrej Karpathy在微软Build大会上的演讲“State of GPT”。

8b0c8f187405846f0931b84917f96808.png

我在图灵社区“ChatGPT共学营”中提供了这一演讲的视频和中文精校文图,将来也会有本书的导读课,欢迎大家加入。

刘江老师和万维钢老师将在7月25日分享《这就是ChatGPT》书籍相关的内容,欢迎预约关注!

点击阅读原文,可加入ChatGPT共学营。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/8291.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

跨越山海的云知声,迎来了自己的GPT时刻

文|光锥智能,作者|郝鑫,编辑|王一粟 “世界上最高的山是什么山?” 云知声创始人兼CEO黄伟仍清楚地记得,十年前他用语音提出的第一个问题。答案播放出来的那一刻,黄伟第一次体会到创…

ChatGPT开始颠覆学习方式,应试教育面临哪些挑战?

ChatGPT爆火几个月,整个教育系统都在被颠覆。全球范围内,不少大学教授、系主任和管理人员,都在对课堂进行大规模的调整,以应对ChatGPT对教学活动造成的巨大冲击。 国内传统应试教育选出的分霸、考霸,是更能吃苦&#…

ChatGPT在教育领域的实际应用范围及局限性

ChatGPT 可以用来聊天,搜索,翻译,写代码,甚至参加某些考试。 ChatGPT在教育领域有哪些实际应用的范围 一、信息检索的替代方案 ChatGPT可以帮助学生获取精确的信息,并提供即时的结果。 例如,通常搜索引擎…

微软总裁揭示:中国将成为人工智能ChatGPT的强劲对手,商业应用加速推进

人工智能(AI)是当今世界最热门的话题之一。自从该领域进入了今天的阶段,它的发展速度越来越快,引起了人们的关注。在人工智能领域,中国的研究机构和企业将成为一个重要的竞争者。这是微软总裁布拉德史密斯在日本接受采…

牛逼,一个基于 ChatGPT 的 AI 阅读助手

【公众号回复 “1024”,免费领取程序员赚钱实操经验】 大家好,我是章鱼猫。 今天推荐的这个项目是「myGPTReader」,AI 阅读助手,一个在 slack 聊天软件里的 bot,可以读取任何网页、电子书与文档,并根据与问…

ChatGPT AI智能对话机器人 全新版本

ChatGPT中文版这是一款可以和人工智能聊天的软件,您可以与人工智能进行热烈的讨论,在聊天过程中会出现了很多可以触及的话题,用户可以在这里了解到软件的AI思维是怎样的,对任何问题都有独到的见解。 ChatGPT ChatGPT 无限问答版 立…

chatgpt赋能python:Python继续循环

Python继续循环 在编程中,循环是一种重要的控制结构。Python作为一种高级语言,提供了多种循环结构:for循环、while循环等等。但是有时候我们需要继续循环,也就是跳过当前循环,进行下一次循环。在Python中,…

【跟着chatgpt学go】Gooutine和Channel

Goroutine Goroutine 是 Go 语言中的一种并发机制,它是一种轻量级线程,可以通过关键字 go 启动一个新的 Goroutine。相比传统的线程,Goroutine 拥有更小的栈空间,因此可以创建更多的 Goroutine。 下面是一个简单的 Goroutine 的…

进阶 用循环实现用户登录程序

编写代码实现登录&#xff0c;并且只登录三次。 #include<stdio.h> int main() { int i0;for(i0;i<3;i){printf("请输入密码“);}return 0; } 根据提议我们可以首先打出框架。 不妨先假设密码为字符串。123456.#include<stdio.h> int main() { int…

chatgpt赋能python:Python怎么循环

Python怎么循环 循环是编程中最重要的控制结构之一&#xff0c;它允许我们重复执行一组语句&#xff0c;直到满足某个条件为止。在Python中&#xff0c;我们有多种循环结构可供使用&#xff0c;本文将介绍它们及其用法。 for循环 for循环通常用于迭代&#xff08;遍历&#…

求助linux tty1问题 登录后闪退 循环登陆

第一天换了镜像清华源&#xff0c;装了几个包&#xff0c;第二天服务器卡死&#xff0c;重启无法进入图形界面 输账号密码弹出来一堆报错&#xff0c;然后闪退&#xff0c;又要重新登录 报错/usr/lib/update-notifier/update-motd-fsck-at-reboot:26:ask:not found 报错/usr/li…

【ChatGPT】《Cursor教程:全自动代码生成器,GPT-4让人人都可以编程》- 知识点目录

《Cursor教程&#xff1a;全自动代码生成器&#xff0c;GPT-4让人人都可以编程》 Cursor是一款由GPT-4加持的全自动编程神器&#xff0c;任何人都可以用它来编程或者学习编程。 CommandK&#xff1a;用来调出生成代码框&#xff0c;输入你想要的程序CommandL&#xff1a; 问它…

智能客服领域中的ChatGPT:如何打造一款更加智能化、精准化的中文版?

在ChatGPT智能机器人工具的实际应用中&#xff0c;如果在雷区周围提出问题并让其自我介绍&#xff0c;则可以大致了解该工具的基本特性和技术构成。这也说明&#xff0c;在设计和研发ChatGPT时&#xff0c;我们需要关注其对话交互、文本理解和生成等多方面技术要素的融合&#…

ChatGPT:未来的客服之星

当谈论到智能客服的应用时&#xff0c;ChatGPT&#xff08;聊天型GPT&#xff09;的效果确实令人惊喜。ChatGPT是一个基于人工智能的语言模型&#xff0c;具备理解和生成自然语言的能力&#xff0c;使其成为智能客服领域的强大工具。 随着人工智能的快速发展&#xff0c;智能客…

ChatGPT对软件测试的影响

本文首发于个人网站「BY林子」&#xff0c;转载请参考版权声明。 ChatGPT是一个经过预训练的AI语言模型&#xff0c;可以通过聊天的方式回答问题&#xff0c;或者与人闲聊。它能处理的是文本类的信息&#xff0c;输出也只能是文字。它从我们输入的信息中获取上下文&#xff0c;…

ChatGPT引爆变革:第四个被颠覆的行业——新闻与媒体

随着ChatGPT技术的不断发展&#xff0c;新闻与媒体行业正面临前所未有的颠覆。在这个领域&#xff0c;ChatGPT可以高效地生成新闻报道、编辑文章、撰写评论&#xff0c;甚至提供实时的新闻动态更新。这将带来新闻传播的速度和效率的革命性提升&#xff0c;同时也可能带来对新闻…

利用ChatGPT场景化学习英语听说读写

大家好&#xff0c;我是可夫小子&#xff0c;关注AIGC、读书和自媒体。解锁更多ChatGPT、AI绘画玩法。加我&#xff0c;备注&#xff1a;chatgpt&#xff0c;拉你进群。 我们从初中就开始学习英语&#xff0c;到大学也有小十年&#xff0c;在这个过程中&#xff0c;我们投入了很…

通过ChatGPT聊天,用Ctrl+C和Ctrl+V 两分钟开发了3个游戏

直接上图 游戏生成详细教程已经放到了我的知识星球了。下图部分展示 对ChatGPT还不了解的抓紧上车了&#xff0c;别人都赚钱了&#xff0c;你还没接触&#xff0c;加入我的知识星球告诉你怎么玩赚&#xff0c;还送你一个国内很贵的ChatGPT独立账号。 下面截图是我的ChatGPT掘金…

macOS “应用程序不能打开”

右键*.app打开“显示包内容”-“contents” - “MacOS” 更改该应用的权限 在终端中输入&#xff1a;chmod x &#xff08;x前后空格&#xff09; 加应用文件路径更改安全性&#xff0c;运行该app 运行

使用python调用ChatGPT的API,打造属于自己的桌面智能助手

上期图文教程,我们介绍了ChatGPT的注册使用过程,并且使用ChatGPT生成了一个CNN卷积神经网络的代码,由于ChatGPT的官方只公布了GPT-3的API接口,因此我们基于ChatGPT 3代的API接口打造自己的智能小助手。 这里刚开始,由于我直接使用ChatGPT-3 API text-davinci-003模型搭建自…