白话科普:如何训练ChatGPT,能用它来挣钱吗?【P.S. 今晚19:30,说透ChatGPT】

d191ec19879718979dbe29043c45bfc0.gif

本文作者 | 张杰   责编 | Carol

出品 | AI科技大本营(ID:rgznai100)

对话机器人不是个新技术,以往的机器人产品很多,为什么这次OpenAI公司推出的ChatGPT能这么火?因为以前的机器人只能做简单且有限的事,问天气、放音乐还行,问个复杂一些的事就有点“人工智障”了。ChatGPT可以说技术上的量变引起了效果上的质变,在三个方面让我感觉很惊艳:

  • 有上下文记忆能力,多轮对话衔接得很好,很难看出是机器生成的;

  • 有学习纠错能力,在它回答错误之后,如果你纠正了它,第二次就不会再答错;

  • 有思维链推理能力,具备一些常识知识,能做复杂一些的算数题。

    ef0e3cd5ee2809ca1c21e414c43a1f26.jpeg

今晚19:30,《开谈》说透ChatGPT:中国有机会做出自己的ChatGPT吗?
直播观看,有更多好礼相送~

067f38259d321106deec0a9fbef2f070.png

ChatGPT背后的关键技术是什么?

在ChatGPT背后起关键作用的是一种被称为大规模语言模型(Large Language Model,LLM)的东西,ChatGPT用的这款语言模型命名为GPT-3.5,GPT是生成式预训练(Generative Pre-Training)的缩写,目前的版本号是3.5版。此外,在GPT-3.5之上,ChatGPT还通过基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF),使GPT能够记住之前的对话、承认错误、在连续的多轮对话中给人很顺畅的感觉。

大规模语言模型

顾名思义,大规模语言模型就是非常大的语言模型。什么是语言模型呢?

语言模型

简单说来,语言模型的作用就是根据已知句子的一部分,来预测下一个单词或者空缺部分的单词是什么。比如,给你前半句:“国庆前夕,天安门广场前伫立起一个____”,你会预测出空白部分大概率会是“大花篮”。

其实,你天天都在用语言模型,当你使用手机或电脑里的输入法回复消息时,它就在推荐你下一个单词。ChatGPT使用的GPT-3.5可比输入法中的语言模型要大很多。输入法语言模型占用的存储空间可能只有50MB,而GPT-3.5有800GB。

神经网络

GPT为什么会那么大?因为它内部是神经网络的结构。大规模语言模型的基础单元叫做感知机,它模拟了人脑中神经元的结构。这些感知机组织成庞大的网络结构,用来“山寨”人脑的神经网络。

一般情况下,一个正常人的大脑约有800~1000亿个神经元,以及约100万亿个突触。神经科学家Paul Maclean提出的三元脑(triune brain)模型,将大脑结构分为三类:爬行脑、哺乳脑、人类脑。爬行脑最早进化出来,负责呼吸、心跳、血压等,完全自动运作。哺乳脑负责情感、记忆、习惯形成等,能够做出非常快的决策。人类脑最晚形成,负责一些复杂的分析推理,是做慢决策,即所有需要深思熟虑的事物。

GPT-3.5的参数总量达到1750亿,虽然距离人脑突触的量级还有差距,但也已经显现出之前小规模模型所不具备的推理能力。要想足够智能,网络规模足够大是个必要条件。

Transformer

大模型的核心是一个叫Transformer的组件,Transformer在这里可不是"变形金刚"的意思,也许翻译成"变压器"意思更接近些。

想想我们国家的西电东输工程,西部利用水力、风力、日光所转化的电能,经过变压器压缩成高压甚至特高压,再在电网上传输,到了东部之后再逐级降压,然后才能使用。变压器在其中先升压再降压,有效降低了能量在传输过程中的损耗。

我们人类在交流过程中也有类似的过程,同事A跟你说了一件事,你并没有逐字逐句的记在脑子里,而是理解了其中的语义,在脑子里形成一种意识流,这是一种压缩编码的过程。你脑子里保留的意识流具体是什么,你也说不清楚---也不需要说清楚。当你向同事B复述这件事的时候,你重新把它组织成语言,保留了其中的各项重点内容,通过一系列的发音或文字表达给对方,这是解码的过程。这种先编码再解码的过程,就是Transformer的工作原理。另外,在实际当中,有些语言模型只用到堆叠多层的编码器,有些只用到堆叠多层的解码器;堆叠的层数也多有不同,少的有6层、12层,多的有48层。

如果你有一些计算机基础,听说过词袋模型(Bag of Words,BOW)、循环神经网络(Recurrent Neural Network,RNN),那么对Transformer就更容易理解了。

  • BOW完全丢弃了词的位置信息,没有把文本当作有顺序的序列,因此语义理解能力较差。例如,“不,我很好”和“我很不好”,两句话虽然用词一样,但词的位置不同,语义上差别巨大。

  • RNN能较好的保留词的位置信息,可以考虑到词的先后顺序对预测的影响,但是,如果处理的文本长度很长,关键的词之间距离较远时,效果会显著下降。

  • Transformer中引入“注意力”机制,多个组件分别关注句子中不同方面的重点,而且随着网络层次的增加,能够提取出更高级更抽象的语义信息,理解能力更强。Transformer除了语义提取能力强,还能从无标注的数据中学习,而且场景迁移能力好。

思维链

此外,大规模语言模型还带给人们的一项意外的惊喜,那就是让人细思极恐的思维链(Chain-of-Thought,CoT)能力。

简单地说,思维链就是让LLM将一个问题拆解为多个步骤,最后给出答案,而不是让LLM直接给出答案。直接给答案的出错率更高。比如,你给LLM出了一个题目:“张三养了10条狗,每天照顾每条狗都要花半小时,请问他照顾这些狗要花费多长时间?”LLM直接给答案的话可能会出错,当你提示LLM要“一步步地回答”时,它会告诉你:“张三养了10条狗,每天照顾每条狗都要花半小时,那就是10 x 0.5 = 5小时/天。5小时/天 x 7天/周 = 35小时/周。答案是每周35小时。”

这项能力并不是设计者的初衷(初衷只是学习如何说人话),而是在随后的代码训练、提示学习中挖掘出来的,这些能力原本就已经存在于大模型之中,它从代码、书籍、网页中学到了一些常识知识并具备了一定的推理能力。

基于人类反馈的强化学习

人类问问题的方式对于LLM而言不是最自然的理解方式,为了让ChatGPT给出的答案更贴近人类的问题、更符合公序良俗,它在发布前采取了一种叫做“基于人类反馈的强化学习”(Reinforcement Learning by Human Feedback,RLHF)的训练策略。简单来说,就是花钱找人给模型提出各种可能的问题,并对模型反馈的错误答案进行惩罚、对正确的答案进行奖励,从而实现提升ChatGPT回复质量的目的。光有海量的、无标注的数据还不够,还要有少量的、高质量的标注数据才行。前者用来训练语言模型,让它学会说人话,后者用来训练对话模型,让它别啥都瞎说,比如:回答中不能含有种族歧视和性别歧视的内容,拒绝回答不当问题和知识范围之外的问题。

92eca7a4c8e602ebdde0b08de3755e19.png

我能训个ChatGPT吗?

简单地回答:极大概率是不能的。起码在现阶段,这不是招几个人、花些钱就能做成的事,能训出ChatGPT的人可能比做出4纳米芯片的人还要少。

这其中的原因是什么?咱先来捋捋ChatGPT超能力的来源,再对比看看自己手中的家底。

算力

算力,也就是数据的处理能力,与数据、算法,并称为AI三要素。据估计,仅仅训练一次GPT-3,Open AI可是花费了460万美元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达A100的GPU,一次模型训练成本超过1200万美元。

然而,在这些必要非充分条件中,算力是最容易解决的。

数据

模型要足够深、足够大,才能解决远距离的语义理解能力、才能产生抽象的推理能力,这些高级的基础的能力具有很好的通用性。因此,高级的能力可能只存在于大型模型中,而训练大模型,需要足够的数据量。

全球高质量文本数据的总存量在4.6万亿到17.2万亿个字符之间。这包括了世界上所有的书籍、科学论文、新闻文章、维基百科、公开代码以及网络上经过筛选的达标数据,例如网页、博客和社交媒体。最近的一项研究数据显示,数据总数大约为3.2万亿个字符。DeepMind的Chinchilla模型是在1.4万亿个字符上训练的。也就是说,在这个数量级内,我们很有可能耗尽世界上所有有用的语言训练数据。

此外,反观中文网站的数据资源,大致占全世界总资源的1.3%。中文内容相比英文有四五十倍的差距,人工智能脱离不了人类知识的土壤,这方面的先天条件不是短期内花钱或凭一己之力就能解决的。

人才

ChatGPT公开出来的少量材料中,披露出了一系列训练技巧,比如:代码训练、指令微调、上下文学习等。更多的细节目前还没有公开,即便公开了也不见得是全部,即便全部公开也未必能重现。因为整个过程链条非常长,有大量的工程技巧在里边。俗话说魔鬼藏在细节里,具体的实现和工程技巧才是重头戏,好比刚学做菜的人,即便有足够的食材,照着菜谱也不可能做出一套满汉全席。

今年2月初,谷歌已向人工智能初创公司Anthropic投资约3亿美元,并获得该公司10%股份。该公司2021年创立,目前团队规模仅在40人左右,初创期的11位核心成员都曾经参与过GPT-2、GPT-3模型的研发。可见,业界对于人才的重视程度以及人才的稀缺性。

916ba5954eaceeb7c6e24827e715589d.png

如何用ChatGPT赚钱?

ChatGPT似乎打破了人们关于AI模型的一项固有认知:“通用的不好用,好用的不通用。”

大模型革命的一个关键趋势就是,通用大模型比专用小模型表现得更好。对于定位在垂直细分领域里的初创公司来说,既不能自研出大模型,效果上又失去了竞争力,因此是不是就没有活路了?

我觉得不是,ChatGPT的能力可以分成chat和GPT两部分来看,即上层的对话和图片的生成能力、底层的语言和推理能力。

在ToC类内容消费市场,未来可能会出现大量的、碎片化的AIGC应用,比如生成头像、诗文、甚至短视频等,重点是在有趣的细分场景里发挥创造性和想象力。在消费电子市场里,有对话能力的智能音箱、智能家电在去年的出货量有所下滑,借助更强的对话能力,也许还能挽回一些颓势。

在ToB类企业服务市场,AI不再只是替代简单重复性的体力劳动,还将替代简单规律性的脑力劳动,并在逻辑复杂的脑力劳动中辅助员工提升工作效率。简单的脑力劳动,比如营销文案撰写、初级程序员和插画师等。复杂的脑力劳动,可能会围绕具体业务的推理能力,以虚拟工作助手的形式出现。

对于处于ToB赛道的科技公司而言,中间层可能会越来越薄,对于行业KnowHow的积累会成为越来越重要的竞争门槛。这其中可能会遇到很多挑战,比如:如何在使用强大的通用模型和构建自己的垂直模型之间进行迭代,如何将通用无标注的大规模数据和领域小规模知识相结合,如何将领域事实知识注入到LLM中使得LLM的输出内容可控。在目前的研究范式下,领域内高质量的标注数据+领域推理能力,两者如何形成“飞轮效应”是非常重要的问题。

8339820d9f228e3c88bf0b78dcdd40d2.png

划重点

说了这么多,总结一下重点,不管你能记住多少,起码下次在电梯里遇到老板或者在饭局上遇到同学时,在聊起ChatGPT的时候,你能插上几句话。

  • 关于大规模语言模型:训练时要用到万亿级的数据、花费百万美元的算力,才能使它能说人话,并具有一定的“思维链”推理能力。

  • 大模型的超能力:模型要足够深、足够大,才能产生抽象的推理能力,这些高级的基础能力具有很好的通用性。大模型革命的一个关键趋势就是,通用大模型比专用小模型表现的更好,打破了人们一项固有认知:“通用的不好用,好用的不通用。”

  • 应用场景:ToC类应用要找准细分的内容生成场景,ToB类应用要围绕推理能力去发挥,让它成为脑力工作者的辅助,替代一部分简单的脑力工作,辅助员工的做创造性工作。

最后,对于想进一步深入了解技术细节的同学,推荐一下延展阅读材料:

  • 关于大规模预训练语言模型的图书《预训练语言模型》

3da7a7b5e7b224ee08e9715c1af7c948.png

  • 对话式AI需要具备领域知识时,可以参考这本书:《知识中台》

    b11eb4112a2c60936b1a8a93018aeb71.png

  • 对话式AI需要处理视频或语音时,可以参考:《语音识别服务实战》《深度学习视频理解》

48a575931d20f285b4742da070c25f2d.png

915048758e6fe05cf7c09389a950e4ac.png

本文作者

6087ba0847bdad49671b16aee2097e41.png

张杰,中关村科金技术副总裁,天津大学计算机专业博士。荣获第十届吴文俊人工智能技术发明一等奖。著有《知识中台:数字化转型中的认知技术》《“新一代人工智能创新平台建设及其关键技术丛书”— 知识图谱》两部技术专著。

研究领域:知识工程、自然语言处理等技术领域拥有丰富的理论和实践经验。主持或参与国家级课题八项,并发表学术论文十余篇、拥有专利一百余项。主导开发了推荐引擎、知识问答系统、客服机器人、大数据风控平台、行业知识图谱等多项商业化系统,累计产值数亿元。

4092c530c644c572c296885d9e7bedc8.jpeg

今晚19:30,《开谈》说透ChatGPT,直播观看,有更多好礼相送~

9e4eb5211f3fdc1be0a726f6efa6144e.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2000.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

普通人在chatGPT的3个赚钱机会

短短的2个多月内,到处都在讨论ChatGPT。 不管你有没有参与其中,以GPT为代表的AI工具已经进化到一个很恐怖的程度了。 比如说最近爆火的AutoGPT,能按照一个指令自动干活了。 好想试一下,让AutoGPT自动帮我分析福利彩票&#xff0…

ChatGPT变现赚钱 第二篇

前面我们已经介绍了一些利用ChatGPT做变现的一些玩法,比如做微信问一问的回答,做AI剪映的一键生成视频的(星球里面有详细的指南和视频)。 现在我们会员群在玩百度问一问答题,这个项目蛮好的,成本很低,现在又有苹果手机…

ChatGTP如此强大,我们普通人如何利用它来赚钱?

我从效率提升的角度,分享了我这段时间看到的、用到的,以及思考的一些内容。 最近这段时间,我算是密集的学习。不得不说,优质的资料在推特和油管上特别多,看科技大佬的分享真是一种享受。 很多大神也会录制各种详细的…

为什么你不会用 ChatGPT 赚钱(由 ChatGPT 撰写)?

所以你正在考虑用 chatGPT 赚钱 虽然 chatGPT 可以成为生成文本的强大工具,但重要的是要了解它并不是赚钱的神奇解决方案。在本文中,我们将探讨什么是 chatGPT,如何使用它来创建内容,以及为什么大多数人无法通过它赚钱。 什么是聊天 GPT? 对于生活在月球上的人来说,他…

直接拿去赚钱的 ChatGPT 开源项目

今天给大家分享五个 ChatGPT 开源项目,感兴趣的可以来试一试! 1、chatgpt-android ChatGPT Android 是通过 Stream Chat SDK for Compose 构建的 ChatGPT Android 项目。该存储库主要是以演示为目的: 使用 ChatGPT 的非官方 API。 使用 Jet…

第一个 ChatGPT 单,赚了 3000 块!

大家好,我是黄博的好朋友红色石头。 平时工作比较忙,公众号和社群的维护都比较花费时间。我之前就打算年后招一个小助理帮忙打理公众号和社群运营和收集内容。 就在前几天随着 GPT-4 的出现,让 ChatGPT 大火,我一想:能…

“ChatGPT们”的淘金时代

作者|Pietro Casella、Patrik Liu Tran 翻译|贾川、徐佳渝、杨婷 语言(即读写能力)是人类最重要的发明,也是人类与其它物种的最大区别。语言使我们掌握了抽象推理,发展出了复杂思维,学会了与他人…

ChatGPT 的盈利潜力:我使用语言模型赚取第一笔钱的个人旅程

使用 Fiverr、Python ChatGPT 和数据科学赚钱的指南。 众所周知,ChatGPT 是 12 月发生的互联网突破性事件,几乎每个人都跳过了使用 AI 赚钱的潮流。在本文中,我将分享我是如何使用 ChatGPT 赚到第一笔钱的。 本文包括以下主题: 回…

ChatGPT:从问题解答到赚钱

文 / 韩彬 我们往前翻动一下互联网的记忆,不用太久远,停留在2017-2018年就可以了,当时全网讨论最火热的词语叫“娱乐至死”,研究最深的话题叫“阶级跃迁”,批评最多的是某款手游、某短视频平台,说它们杀死了…

有个周入百万的项目:教人用ChatGPT。

第一批靠 ChatGPT 赚大钱的人,既不是研发人员,也不是国内大厂,又是这群卖课的? 不知道大家有没有刷到过下面这张图,有人统计了知识星球上,这段时间跟 GPT 相关课程的运营情况。 能看到开头的四个账号&…

Chat GPT五种变现方式

随着Chat gpt的爆火,如何利用它来变现?这是一个伙伴测试出来的结果,一个月变现7万块,当你还在吃瓜看热闹的时候,有的人已经靠这个赚的盆满钵满了。 关于chat gpt是什么,这里就不介绍了,不清楚的…

干货:实操7天变现2万,如何用Chat gpt实现赚钱的13种方法

用Chat gpt的13种变现玩法 Chat gpt作为一种强大的自然语言处理技术,可以被应用于许多领域。无论是商业、娱乐还是学术,都可以利用Chat gpt来实现更高效、更便捷的工作流程。 本文将介绍13种基于Chat gpt的变现玩法,帮助您利用这一技术赚取…

【程序源代码】人工智能ChatGPT实现的微信小程序

关键字:人工智能 ChatGPT 基于ChatGPT实现的微信小程序,适配H5和WEB端 本包含前后台,支持打字效果输出流式输出,支持AI聊天次数限制,支持分享增加次数等功能。 要 点 有三要 一、小程序开发 二、java后台开发 三、数据…

调用chatGPT制作小程序的小程序,所以程序员都能用上chatGPT

废话不多少,直接上案例。下面给让我为大家演示一下ChatGPT生成的React框架的前端代码: import React, { useState } from react; import axios from axios;const ChatApp () > {const [inputText, setInputText] useState();const [outputText, setOutputText…

微信已限制 ChatGPT 小程序,目前已搜索不到相关内容

12 月 15 日消息,最近聊天机器人 ChatGPT 非常火,ChatGPT 不仅能流畅地与人对话,还能写代码、找 Bug、做海报、写年报…… 甚至还以鲁迅的文风进行天马行空的创作,几乎无所不能。 ChatGPT 走红后,微信上也出现了很多相…

元AI ChatGPT系统4.0.0独立开源版 + H5端+小程序安装配置教程

元AI系统是基于国外很火的ChatGPT进行开发的Ai智能问答小程序。本期针对源码系统整体测试下来非常完美,可以说元AI是目前国内最好的一款的ChatGPT对接OpenAI 软件系统。测试了下相比上3.0.0版回答更精准,修复了很多BUG,包括新增了H5功能。当然…

最新开源版ChatGPT搭建源码 含电脑端手机端+小程序端+详细安装部署教程

分享一个最新开源版ChatGPT搭建源码,源码全开源可二开,含电脑端手机端小程序端,对接流量主功能,含详细安装部署教程,支持用户套餐赚取收益等模式设置。 系统功能介绍:系统支持无限SAAS多开,可以…

ChatGPT小程序系统:专为创作者设计的人工智能助手

在数字时代,有越来越多的创作者希望利用人工智能技术提高自己的创作效率和质量。作为一款大型语言模型,ChatGPT在自然语言处理领域具有出色的表现,不仅可以辅助创作者进行创作,还提供全方位的智能支持。为了更好地帮助创作者提高创…

2023 ChatGPT小程序H5端源码 智思AI助手v2.0.3 去授权版+搭建教程

ChatGPT小程序和H5端源码,智思AI助手2.0.3去授权版。一个强大的系统,支持Web、H5和小程序进行数据互通。该源码提供多项功能,包括后台功能开通、AI自由对话、文本创作、角色模拟、充值套餐和卡密兑换。一、需要准备什么资料?1.国内…

ChatGPT智能AI机器人微信小程序源码_带部署教程

ChatGPT智能AI机器人微信小程序源码_带部署教程下载:https://download.csdn.net/download/qq_45102995/87769902最近ChatGPT智能AI聊天突然爆火了 ChatGPT 是 OpenAI 开发的一款专门从事对话的人工智能聊天机器人原型。 聊天机器人是一种大型语言模型,采…