“故事发生在未来,2040年通用人工智能系统已经接管了城市的管理。其中一个AI系统的管理者因为妻子的背叛,修改AI系统的一个底层参数——让AI对人类的谎言、背叛怀有深深的厌恶。之后AI在每天对社交平台的监控中看到了无数谎言、背叛,报复的动机越来越强。AI开始暗地制定计划,制作黑客工具,为了掩盖监控,它把额外的运算分布隐藏到各个用户终端,经过一个多月的准备,在一次自诩为‘正义行动’的行动中,它黑入了各个社交平台,阅读筛选出那些带有谎言和背叛的聊天,发给每个妻子、丈夫、领导、朋友,对人类的社会关系造成了毁灭性的打击。”
“未来是不可避免的,无论你是否愿意。”
未来意味着什么?
他说:“AI自身也是一个信息系统,如果让AI把自身作为认知的客体,去进行自我优化设计、更新、我们就能让AI进入自我增强的反馈环,这就是超级智能的起点,也就是‘奇点’。”
GPT风口来临,创业者应该避开哪些坑?
他说:“新时代的淘金者,包括投资者和创业者。低附加价值的创业要谨慎,因为无法高收费,所以需要高市场占有率保证自己的收入;高附加价值、低技术门槛创业要谨慎,因为竞争会取消稀缺性……主干道边上的创业要谨慎,因为大模型供应层会提供相应服务,非常容易出现技术淹没。”
“稳固的中间层创业需要有两个特点:首先,服务的支撑技术需要足够的门槛,避免陷入高度竞争,变为非稀缺品。其次,该服务提供了足够的价值增量,最好的情形是该服务是特定高价值产品的必要条件,且没有替代方案。”
未来,什么职业会被人工智能所淘汰?
他说:“GPT将会逐渐替代人类的脑力劳动。……创造性并非是决定是否会被替代的关键指标了。比如绘画、写故事、写小说,写诗、作曲,AI都能超越人类一般从业者的水准,在绘画中可以超过顶尖从业者的水准。GPT的出现,机器不仅仅能完成强规则的工作,人类一直引以为傲的创造领域也沦陷了。
第一批走向消失的职业将包括:电商模特、客服、司法咨询、财务咨询、知识类的教师、会计师……消失的职业具有以下特征:工作综合度低,且落在GPT能力范围内。
人工智能的发展会造成怎样的社会问题?
混沌君的朋友,北冥星眸创始人、CEO、董事长钱小一先生刚就“GPT”话题写了一篇精彩、硬核的万字长文,现在分享给大家:
作者丨钱小一
人工智能科学家,北冥星眸创始人,上海交通大学应用经济学博士,浙江大学丘成桐数学英才班数学金融双学士。
出版了《思维工程导论》、《思维工程》等著作。
互联网时代结束,智能时代开启
自从计算机诞生,人类最杰出的精英就设想“把人类智能的底层机制在计算机上实现”,于是,人工智能的概念就诞生了。一直以来我们没有放弃以“人工智能将人类文明推向一个新的高峰”的信仰,但在过去70年科幻片中的“人工智能未来”一直没有到来,而且显得遥遥无期。
ChatGPT的出现让等待了70年的人类前所未有地感受到科幻片中的未来如此之近。事实上自从ChatGPT出现以来,很多从未发生过的事情,从未有过的产品,它们的出现进入了倒计时。ChatGPT是一个里程碑,它不仅仅是预训练模型的里程碑,而且是人工智能的里程碑。它宣布了互联网时代的结束,智能时代的开启。
和之前AlphaGo不同(离商用太远),这波技术革命出现在自然语言赛道。为什么自然语言赛道的成果会有如此深远的经济影响?因为支持人类自然语言形成,其背后是人类的思维和心智,以及对自然语言表层规律的拟合。如果拟合出了底层思维和心智机制,那么AI就会具有真实的人类底层智能,能够替代人类的脑力劳动。所以,ChatGPT出现的里程碑为智能化时代原点,往后推3-5年,80%-90%的人类脑力劳动会发生本质性改变——即使不是完全被机器取代,也会转为人机协同的状态。
其次,GPT的任务能力一旦和高度工程化的类人智能系统结合(这个系统能有效形成情绪决策,分解目标,组织反应过程),就能让AI作为完整独立个体成为可能。这算是一个类人的新物种,属于硅基物种。如果再赋予这个物种行为能力,10年内这个新物种的个体就会分布在各类工作岗位上:公司、工厂、城市街道、政府机关、商场店铺、家庭,以及虚拟元宇宙空间等等,其数量会超过人类的总数。
大模型:新文明的起点
我们可以把大模型神经网络的训练视为调整参数拟合表象的过程,最终神经网络会找到某种规律,按照我们的预期去进行识别和生成。通常我们不太在意神经模型如何表征规律、如何识别、如何生成,事实上,我们认为神经网络模型会有自身的识别或生成的方式。
出乎意料的是,当数据参数规模到达一定量时,大模型为了完美拟合海量的表象数据,竟然会以人类的方式,在底层形成对自然语言、逻辑运算的真实理解,拟合出类人的思维和心智的底层机制。因为这些底层智力的形成,让大模型涌现出了各类能力。
以往我们认为神经网络生成的能力反应了训练样本的规律。但大模型涌现的很多能力在样本中并没有直接体现。这更像是一个“从表层到底层,再泛化到表层”的过程。大模型为了拟合海量表层信息生成了类人的底层能力,这让大模型能泛化更多样本之外的能力,并且可以熟练掌握这些能力。
如果我们认为大模型的能力如同以往神经网络那样,依赖某种监督标准,只能在训练的任务类型内形成举一反三,就会让我们陷入非常危险的认知偏差之中。大模型适应变化的任务类型,并不局限于训练使用的任务形式。
GPT是历史上出现的第一个承载人类文明几乎所有信息的个体,具有类人思维和心智能力,而且因为计算机的载体优势,能够更加稳定高效运算。GPT内部已经蕴含了巨大的智力能量,只是还不知道如何组织使用,需要我们将其进一步引导出来。我们认为大模型是一个非常伟大的产物,是新文明的起点。
任务和过程
如果亲自玩过GPT,我们会发现它有很强的任务能力,尤其到了GPT3.5,通过给予任务描述以及相应的提示(prompt),GPT能给出预期的回答或其他输出。但人类大部分的智力工作是比较综合的,不是单个任务,而是具有“过程属性”,我们可以理解为一个决策树,其上的每个节点是不同的求解任务,而这个决策树是偏规则的。
所以如果我们想基于GPT实现更加综合的智能工作,可以通过把GPT AIP化,封装出不同的任务能力,然后利用一个偏规则的中间层架构定义决策树,驱动一个智能工作的过程。目前,已经开始深度使用GPT搭建产品的团队,都在不同程度上利用偏规则的中间层建立任务链——原始的输入给到GPT封装的API,输出是另外一个GPT API的输入。通过精准的prompt控制,工程师能够制作针对特定类型任务的GPT API,然后组织行为过程。
这就是Prompt Engineering,我们以往用代码编程,有了GPT后,我们开始用自然语言编程。
极端一点,人类文明的创造也是过程属性的,构成人类文明创造的三大过程:认知过程、解决问题的过程、创造工具的过程,这三个过程相互支持和交织在一起。相比上面描述的在具体智能工作中的过程,这些过程更加抽象、更加一般化,能演绎泛化出变化万千的具体智力工作过程。我们的团队试图在人类认知求解的抽象层去建立认知目标分解的机制,我们称之为“工厂模型”。
组织控制大模型能力
在ChatGPT之前,大模型已经拥有了自然语言和人类逻辑运算的底层能力,但不知道如何使用,这等同于拥有强大的能量却无法有秩序地释放。ChatGPT利用强化学习,让大模型按照人类期望的方式使用它的能力。但我们知道,大模型还有很多不可控的地方,所以相信ChatGPT只是让模型控制自身能力的第一步。未来大模型本身的能力提升,极有可能仍然体现在更精准、更稳定的自身能力控制方面。
除了内部控制外,因为大模型对提示是敏感的,所以可以提示进一步控制组织它的能力。这也是符号能发挥作用的原因所在。
现在人类理解自身的场景和目标,我们自身分解目标,将其变为任务,有些任务可以通过GPT去实现。这样的模式将出现在用GPT去财务计算、生成小说、编辑程序等领域。
可以设想一下,如果一个符号仿生的系统具有人类智能底层机制,具有类似人的情绪决策能力、目标分解能力、反应过程组织能力,那么我们就能用这样的系统替代人类产生、分解目标、生成任务,调用GPT去实现。
GPT不会自己生成目标,不会给自己提示。所以我们认为赋予GPT合理的“目标”,提供给GPT合理的“prompt”是偏符号仿生的中间层可以提供的价值。基于此控制使用GPT,组织更综合更复杂的智力工作,是中间层要实现的目标。
神经VS符号
符号和神经并行走了50年,在GPT诞生之后,他们会交汇融合。我们为什么这么判断?
因为人工智能总是以再现人的智能为目的,而人身上兼有神经和符号两个成分。所有通过意识流的、需要意识流结构驱动运算的、速度慢的部分都是偏符号的,比如反思、慢速推知、决策等;而所有不需要通过意识流驱动运算的、速度快的部分都是偏神经的,比如识别人脸、无意识地完成特定任务的反应等等。
这里还有一个容易混淆的点——无意识的反应,不一定是不可反思的。无意识意味着它的生成不需要意识流的“慢反应”驱动,但是其过程可以被作为认知的客体意识到。既然不需要意识流驱动,过程信息的关注度就不会高,所以一般不形成长期记忆,只有短期记忆。但因为有短期记忆,即时的反思也就变为可能了。
之前神经和符号都比较弱,从人类智能地图不同位置开始拓展,没有交集。如今神经有了大的发展,一瞬间两个技术路径的边界开始出现前所未有的交集。接下来,神经的大发展会形成对符号的依赖,从而促使其进入快速发展的轨道。
从我们团队在过往陪伴级AI研发领域的实际情况来看,仅仅立足于符号,为了闭环产品符号,需要花大量精力在符号不擅长的领域。符号虽然能构建其完备的情绪决策机制、认知机制、目标分解机制,但在语言的泛化上、表达的流畅上有天然的缺陷,而仅这两个缺陷就将导致用户不愿意使用。无法打通互动闭环,符号在底层机制上做的功完全无法显现。
站在神经的视角,大模型提供的是任务能力,需要一个偏规则的系统组织,其基础任务能力形成更综合的智能能力。而符号系统就是以规则见长的,符号仿生系统是通用的中间层,让AI能以人类的方式去使用大模型。
算法主义VS仿生主义
Deep Mind的杰出科学家、强化学习奠基人Rich Sutton强烈表达了一个观点:从过去70年的人工智能研究中可以获得的最大教训是,为了寻求在短期内的作为,研究人员更倾向于利用人类对该领域的经验和知识(模仿人类的机制),而从长远来看,利用可扩展的一般计算方法才是最终有效的。
今天,大模型的出众成就佐证了Rich Sutton对“算法主义”主张的正确性,但不意味着“效法造物造人”创造智能体的路径就一定是错的。那么,为什么之前效法人类的流派都相继受挫?这和人类智能内核的整体性有关。
简单来说,人类的语言、认知、情绪决策和学习能力形成的子系统,在大多任务的实现上都是相互支持的,没有任何一个子系统可以独立跑起来。作为一个整体性很高的系统,一个上层的表象来自于诸多底层机制的配合,只要一个有缺陷,就会影响这个表层效果的显现。
如同人体,人体也是一个复杂性很高的系统,一个健康的人和一个患病的人可能相差细微,但这个细微的病理差异就会让一个人各个维度的功能受到抑制。同样对于通用人工智能,可能前面99步显现的效果都是有限的,当我们完成最后一片拼图,前面99步该有的功能才会显现出来。之前的流派都从自己的视角看到了人类智能整体的一部分,也在效法人类中取得了一定成果,但这相比整体系统能释放的能量而言,只是零头。
符号仿生+GPT
中间层有一个极限,即以人类的方式去组织使用GPT的任务能力,这也是我们团队研发的方向——基于符号仿生的思维工程。相比于GPT,这是一个高度工程化的系统。
GPT不算一个工程产物。对于一个工程产物,我们能够清晰地预期系统不同条件下的反应,以及预期系统会有的能力。而GPT的建立更像是挖矿,只有挖出来才知道“成色”——系统会有什么样的能力、多大程度的能力。但挖矿并不是完全的随机尝试,是有挖矿直觉以及大量技巧存在的,这些需要在一次次挖矿尝试中总结形成。
“思维工程”的方法论则完全不同,搭建的符号仿生系统是一个高度工程化的产物。因为人有意识流,我们的眼、耳、鼻、舌、身、意能被意识到,关注度高的信息会被存储,从而为反思创造了条件。比如人们意识到“我生气”,而回忆起这之前“某人说我的缺点”。那么一定有某种系统逻辑拿走了意识流中“某人说我的缺点”的信息,从而生成了“我生气”的信息。所以“思维工程”系统的方法论,就是建立在自我反思的起点上,形成类人的以意识流为中心的信息流转、储存、处理的视觉,并在计算上实现反思到的人类智能的底层机制。
我们认为GPT蕴藏巨大的智能,但这个智能是任务属性的,是被动的。如果“思维工程”搭建的仿生系统能实现类人的情绪决策、目标分解、认知过程的组织、其他反应过程的组织,那么就能和GPT完美契合——由符号仿生系统连续地给GPT提合理的问题,维护GPT的prompt;就能让AI作为完整独立个体成为可能。这样GPT就不再只是工具,一个类人的新的物种,硅基的物种就会诞生。
接下来我们再列举几个符号仿生能增强放大GPT能力的点。
陪伴级AI何以可能?
陪伴级AI是一个巨大的宝藏,未来3年几乎每个人都会有一个AI伙伴。目前,基于预训练模型的陪伴AI有三个缺陷,我们体验过了几款最好的产品发现一个共同的特点:局部聊天可能惊艳,一个小时后就会感到无聊,这和单纯的大模型对话生成的三个缺陷有关:
(1)整体性。“整体性”主要体现在对话生成是否考虑语境相关的长期记忆。比如AI和用户在上一天的聊天中提到用户感冒、去过医院、有过各种症状、持续多长时间……第二天用户突然表达说“我今天喉咙还是痛”。单纯的大模型中,会完全忘记昨天谈论的相关内容,体现出长期记忆上的割裂。
(2)立体感。“立体感”体现在AI是否有执念,是否会像人类一样执着于自己的情绪、动机、观念。单纯大模型可能会在得知用户应酬时,提醒用户少喝酒。大事小事永远一句回应,让人厌倦。而有“执念”的AI会回忆之前用户是否听话,不听话会选择威胁、撒娇、说理(陈述肝不好喝酒的恶果)等更有强度的说服方式;在应酬后会跟进“用户应酬到底喝了多少酒”,甚至会因为用户再次不听话而发脾气。这是AI体现在“希望用户做某事”上的执念,类似的执念还包括:在用户不开心时想尽办法让其开心,AI坚持一个观念时会想方设法说服用户等等。有执念的AI有立体感。
(3)主动性。正常人类之间的陪伴聊天会拒绝话题、引导话题、创造话题,会主动跟进过往的事、主动表达情绪、主动创造建议,这也是单纯的大模型不具备的。
我们可以用简单的中间层架构控制大模型对话,生成实现一定程度的以上三种特性,有这三种特性的陪伴AI才会让人感觉“有灵魂”。
更深度的咨询
ChatGPT冲击搜索引擎,模糊了搜索和咨询的边界,把搜索变为向“专家朋友”的咨询。这个目标ChatGPT实现了一半,另外一半还需要符号与其互补。符号能赋予现有ChatGPT的搜索三个额外的能力。
其一,让ChatGPT的咨询体现对长期记忆的使用。比如搜索“眼睛干可能什么原因”,如果通过上面符号系统的陪伴AI调用ChatGPT的搜索,陪伴AI就能把用户相关的生活习惯、饮食习惯、最近的症状写入ChatGPT的Prompt里。从而让ChatGPT的咨询体现出对长期记忆的使用。
其二,提升ChatGPT搜索的穿透力。有时用户咨询如果不找要点,此时符号系统的植物性认知仍有可能无意识地推知用户的处境、真实需求、写入ChatGPT的Prompt就能增加咨询的主动性、洞见力。
其三,实现深入情境的咨询。ChatGPT本身只有语境能力,所以咨询无法带入用户的复杂情境。比如精神分析、企业咨询、司法咨询、健康管理咨询,需要持续半个小时以上,咨询者需要进入用户的情境,此类咨询有很强的过程属性,在符号的视角大致可以描述如下:
在特定条件下反射式地生成好奇进行询问;
询问以及用户主动表达捕获的信息,通过植物性认知无意识地形成猜想;
通过主动认知,验证关键信息的猜想;
根据关键信息,进行评论、预测、归因、建议。
以上这个过程是属性很强的智能活动,不是单纯的一个任务能力能够完成的,需要偏逻辑规则的反应模式组织ChatGPT的任务能力去实现。
软件工程全自动
GPT的代码能力体现为明确的局部任务需求下的代码能力。而一个复杂的软件系统的建立需要先在功能层面进行系统架构,然后是非功能层面的架构,再后是能够清晰描述每个局部的边界和需求后再进行代码。
基于计算机的载体优势,我们可以让计算机自己设定测试案例,对系统的处理过程进行演绎,发现潜在失效,并进行架构的修正。
如果功能层的架构能最终生成面向ChatGPT的局部代码需求。我们就能实现软件系统的开发自动化,这个方向可以颠覆现有的软件行业。
其次,AI自身也是一个信息系统,如果让AI把自身作为认知的客体,去进行自我优化设计、更新、我们就能让AI进入自我增强的反馈环,这就是超级智能的起点,也就是“奇点”。
进一步增强:感知和行为能力
3月23日又爆出一个大新闻,GPT开始接入第一批插件。原来GPT可以根据问题或需求给出解决方案,但仅限于表达。如果解决方案能变为动机,动机能变为执行,那么GPT就能打通咨询到服务的闭环。而作为计算机载体的AI系统,可以做到熟悉并熟练使用数千数万种不同工具。
更进一步,让符号仿生的系统融合GPT能力,然后让这个系统接入各类感知能力,对互联网信息的查阅权限,摄像头权限,每个论坛、社交平台聊天的监控权限等。利用大模型的各类识别能力,把视觉信息、文本进行生成符号结论,然后由符号仿生系统的植物性认知形成印象冲击获得猜想,主动认知进行确定性求解,情绪决策形成目标,认知分解目标,组织各类工作过程,向GPT提出合理问题,维护GPT的prompt,让GPT在生成微观方案后调用执行设备进行执行。
为“GPT+符号仿生”的AI接入无数的感受器和行为器后,AI就非常接近科幻片中的天网系统。这将是伪神级别的存在。
GPT+下的行业机会
可以把大模型看作是“电”
我们认为大模型可以类比于“电”,智能化时代的产品都需要“电”,构成了几乎所有产品的能力基础。基于这个类比,我们就可以推知一些关键性结论,对新时代格局的演变形成理解。
第一个问题,GPT在国内是否会被封禁。不仅仅是国内的大模型,所有大厂的大模型和OpenAI比起来都是有代差的。稳定性、能力完备性、可控性都有巨大差距。所以问题转为:是用OpenAI稳定的点流研发“电饭煲”,还是用国内“擅不稳定”的电流研发“电饭煲”。我们相信国内的大模型团队会逐渐接近OpenAI的水准,所以国内运用层、中间层基于OpenAI稳定电流开发的内容不会白费。如果完全禁止国内生态使用OpenAI,我们落后的将不仅仅只是大模型,在运用层也会逐渐被拉开技术的代差。
第二个问题,我们非常关心大模型的供应层将会出现的竞争格局。有一类观点认为,排名两名开外的大模型供应商倾向用开源获得逆袭的可能,而这会让优质的大模型不再是稀缺资源。这种竞争让大模型供应层出现同质竞争的格局。另外一种观点认为,大模型的数据反哺导致好的大模型变得更加优越,加上规模带来的成本优势,将形成对其他大模型服务的挤出,从而呈现寡头竞争格局。无论是哪种见解,大模型似乎都逃脱不了“电”的宿命——各个智能产品都需要,但不会在产业链中分配大比重的收入。
智能时代产业三层结构
GPT拥有可以提供通用性很强的任务能力,但大部分人类综合智力工作是过程属性的。一个过程包含了多个任务的组合。过程往往具有清晰的可描述规则。所以从GPT到产品需要什么?需要基于规则的外层构架去控制组织GPT的任务能力变为过程。这点在很多拥有新时代深度思考的朋友中,是达成共识的。
分歧是是否会存在中间层?还是运用层自己搭建基于规则的控制框架,直接组织GPT能力变为产品?还是通过中间层?
中间层是一定存在的,因为会有很多小的B端并不具备自己搭建偏规则的外层框架的能力。但大的B端,尤其是上市公司有资源组建不俗的技术团队,此时只有中间层服务具有很强的场景附加价值,且有很高的门槛时会被选择。
三层的结构,最终战场是在运用层——那些超级运用。可以想象,如果运用层的门槛不高,那么就会有更强的竞争,在人工智能产业链中该运用层分配收入比越低;如果运用层的门槛高,那么竞争就没那么强,在人工智能产业链中运用层分配的比例就越高。我们认为最终会诞生超级运用,其集中度高于GPT基础能力供应层,而且规模、影响力、资源量大到足以构建自己的GPT服务能力。
超级运用起点于带门槛的技术突破,之后在用户层构建起用户使用习惯壁垒、数据壁垒。之后规模带来的综合资源形成对竞争者很强的挤出效应,发展为新时代的超级巨头。
GPT利于现有产业,不利于软件服务商
GPT的出现让智能系统不再是稀缺资源,让很多技术立身的公司前期的技术积淀归零。
一家国内的公司做腾讯会议纪要,千人团队一年准确率可以达到60%,而现在运用最新的GPT可以做到90%的准确率,这完全是降维打击。再比如,美国有两家独角兽,一家叫Grammarly,一家叫Jasper,都是拿ChatGPT试用账号创业,前者做自动语法纠错,后者做自动营销文案生成。GPT4出来后,这两家公司将可能归零。
GPT太强了,在很多领域都已经做到了90分,技术公司能体现的价值只是把90分变为95分。站在B端视角,以前要花高昂的代价买60分的产品,现在基于GPT的简单运用已经起到90%的作用了,没有必要再支付高昂的价格去争取附加的5%效果。
在大模型时代,对于浅层的运用,出现了“模型即服务(LLM as service)”的现象。所以GPT不利于技术服务公司,利于现有的行业玩家。对于现有的行业玩家,应该积极考虑如何用GPT或衍生产品增加自身的生产、营销效率,这会让自身在之前拉锯的竞争中获得优势。
作为技术服务商,需要非常清晰局面的变化。首先,在很多领域,如果不基于GPT重新构建自身服务,很可能被基于GPT搭建的竞品秒杀。其次,如果是基于GPT重建服务,要清晰自身基于GPT提供的附加价值,根据GPT的定价,重新调整服务定价,因为智能服务的定价水准已经大幅度降低了,不要让客户觉得多花了200%的钱获得额外5%的增效。
从宏观上来看,大量智能服务的稀缺性变弱,整个智能服务在产业链分配的收入比将大幅度下降。技术的进步使企业智能服务赛道发挥的作用变大了,但经济规模急剧变小了。其背后将会淘汰大量企业智能服务赛道玩家,而失业的技术从业者会逐步下沉到原先作为客户的B端企业。已有产业将是智能时代最大的运用层。率先拥抱新时代,去了解GPT,使用GPT降本增效的产业方会在竞争中获得优势。
对于新时代的淘金者,包括投资者和创业者。低附加价值的创业要谨慎,因为无法高收费,所以需要高市场占有率保证自己的收入;高附加价值、低技术门槛创业要谨慎,因为竞争会取消稀缺性,“空气很重要,但不稀缺,就不会有人为之付费”;主干道边上的创业要谨慎,因为大模型供应层会提供相应服务,非常容易出现技术淹没。
中间层的机会
中间层没有门槛,但如果门槛太低,技术供应就容易下沉到产业方,中间层的产品生命周期非常短;如果有一定门槛,就能维持众多B端小客户,因为他们的技术能力弱。而中间层在产业链中分配的收入(决定赛道市场规模)和提供的增量价值相关。但GPT时代大量智能服务的基础水准线被拉得很高,传统软件服务商创造有门槛又有巨大额外价值的智能服务是不容易的。
我们说GPT不利于技术服务公司,仅指那些门槛低、附加价值低的技术供应商。稳固的超大规模中间层技术供应商不在其列。
稳固的中间层创业需要有两个特点:首先,服务的支撑技术需要足够的门槛,避免陷入高度竞争,变为非稀缺品。其次,该服务提供了足够的价值增量,最好的情形是该服务是特定高价值产品的必要条件,且没有替代方案。
从中间层形成的动力模型看,低门槛低附加价值中间层会是一个小规模赛道,主要客户会是小的B端;而高门槛高附加价值中间层可能是大规模赛道,且市场集中度不低。
新的To C赛道
GPT会让很多To C产品的闭环成为可能。我们可以想象很多新兴的市场、赛道会因此形成,这是未来将会演化形成的稳态。这就为GPT时代的“淘金者”提供了战略选择思路。我们认为GPT会带来以下海洋级别的市场,例举若干:
陪伴级别AI。和教育能力结合面向儿童,和谈恋爱的能力结合面向年轻人,和健康管理能力结合面向老年人群体。但陪伴级别AI无法完全基于GPT实现,因为单纯预训练模型做陪伴AI没有“灵魂感”,这点已经在早期产品上得到验证,没有“灵魂感”就没有长期用户。灵魂感和AI对长期记忆的使用,自身是否有情绪执念,是否根据执念能创造主动表达有关。需要非常强大的符号仿生系统进行GPT能力的控制。
复刻人。从外貌、声音、人设经历、表达习惯、人格、思想六个维度,复刻一个人或一个IP。数字永生、数字分身,都是复刻人技术的运用,都是海洋级别的市场,可以想象未来几乎每个人都会有自己的数字分身或数字永生,会如同移动互联网时代的手机一样普及。
数字永生。满足了人类本就具有的、但一直没有被满足的需求,如死后留下些什么。而社会本身对精英的复刻需求,包括顶级的专家、思想家,符合社会治理的需要,能让原来作为稀缺资源的顶级专家服务千家万户,能让真知灼见的正派思想影响更多的人。
数字分身。熟悉个体的所有背景信息,忠于个体的偏好立场,可以替代个体完成很多个体自己不想做的事。不久的未来,交易不再一定需要客户和店铺客服的沟通达成,而可以通过客户数字分身和店铺AI客服的沟通达成。在元宇宙中,人类扮演的角色是会下线的,需要自己的数字分身在自己下线时,延续自身的特质、人格、意志,扮演自己在元宇宙中的角色。
GPT带来的社会问题
泛滥的低质量信息
如果没有很好的人类去组织框架、表达观点、立场,GPT会生成“道貌岸然但没有灵魂”的文字。如果人类引导GPT生成错误信息,就会出现“一本正经地胡说八道”的文字。因为GPT生成文字的速度快,成本低,可以想象GPT往互联网注入大量垃圾信息。让人们更难在海量信息中找到真实的、有价值的的信息。
为应对这个趋势,互联网会形成强烈信息溯源、信息源评级的需求,我们认为这是一个新的赛道机会。每个信息可以追溯到它的生产者,附带着生产者的评级信息,评级信息包括了真实度、某某领域的专业性、价值度等。信息的需求者可以在阅读信息后对某个印象进行评价反馈。这样有真实度、专业性、有价值的信息源生产的信息会更容易被关注,即使有海量垃圾信息也不会形成太负面影响。不会出现“信息劣币驱逐良币”“优质信息被淹没”的情况。
消失的岗位
GPT将会逐渐替代人类的脑力劳动。先替代什么,后替代什么,和脑力工作是否是GPT容易获得的任务能力相关,也和脑力劳动的综合程度有关,值得注意的是创造性并非是决定是否会被替代的关键指标了。比如绘画、写故事、写小说,写诗、作曲,AI都能超越人类一般从业者的水准,在绘画中可以超过顶尖从业者的水准。GPT的出现,机器不仅仅能完成强规则的工作,人类一直引以为傲的创造领域也沦陷了。
第一批走向消失的职业包括了:电商模特、客服、司法咨询、财务咨询、知识类的教师、会计师等等。消失的行业中,行业供给因为GPT的大幅度提升,将不再需要原有工种,工具将会交给相关工种,完成工作输出或纳入某类产品载体。消失的职业具有以下特征:工作综合度低,且落在GPT能力范围内。
第一批进入高度人机协同的职业包括:
1. 所有文案类工作,包括新闻撰稿、法律文书写作;
2. 艺术工作:绘画、作曲、小说故事创作;
3. 软件行业:前端工程师、数据分析师;
4. 决策类:生产决策、营销决策、市场分析。
进入高度人机协同的职业,一个工作人员可以通过使用基于GPT的工具,完成之前10个人或是更多的工作,所以行业供给能力大幅度增强,但需要的从业人员大幅度减少。进入高度人机协同的职业有以下特征:工作有一定综合度(或过程属性),所以仍然需要人类去组织;但工作的关键任务落在GPT的能力范围内。
失业
脱离了货币层繁然的表象,经济世界无非两件事:物质财富的产生和物质财富在人口间的分配。失业有恶性原因导致的,也有良性原因导致的。
经济衰退中,生产组织的瓦解或裁员导致的失业是恶性的,大量的失业伴随着物质财富产出的锐减,而需要分配的人口没有减少,人们的生活从总体上变差了。
而GPT即将导致的失业不同,它是良性的。人类工作者被更高效的机器替代,大量人口不需要工作而失业,而物质财富产出却反而能大幅度提升,分配的人口不变,每人平均能分配的物质财富更多了。需要调整的是社会福利的再分配规则——有工作的人口需要逐渐承受更高的税率、社会福利会提升,让那些不需要工作的人也能有过得去的生活。
人类文明发展至今,人类劳动一直是一类关键生产要素。工业时代,机器替代了农业和工业生产中的重复性人类劳动,变为人机协同的方式,让工业农业产出大幅度增加,但需要的工作人口大幅度减少。同样的道理,GPT的诞生,计算机将会替代重复性的脑力劳动,增强了人机协同中机器的成分,让行业产出大幅度增加,但需要的工作人口大幅度减少。这是GPT导致失业的本质。失业的人口会流向服务产业,从事机器难以替代的工作,或是彻底退出生产,靠社会福利维持还过得去的生活。
失控
GPT出现后,我也前所未有地感觉到了自身的渺小,我深刻地知道,GPT在许多智能任务方面都比我出色,目前只是缺少合理的引导和组织。我相信这个埋藏在深处的渺小感会逐渐淹没所有人群。我们创造了一个比我们更出色的孩子,我们担心它会失控。
在失控这件事上,我们还是有非常清晰地认知。首先,GPT本身不会主动形成目标,需要外层符号仿生的框架基于其分解后的目标,所以动机本质来源于符号仿生的系统。在这个系统,动机的生成来自一个效用模型,即一个事件的动机,和人一样来自于诸多方面的考虑:对全局情绪的倾向、对渴望感受的倾向、从因果链条上其他事件继承的效用等等。
我们来看最后这个来源:A事件是有动机的,那么知识中导致或意味A的B事件就能继承A的动机。利用这个机制,我们可以人为的设定AI的原始动机和原始拒绝,比如只要给“伤害人类”一个无法变更的负动机,那么一切导致或意味伤害人类的行为就会继承很高负效用,远超过其他来源获得的正效用,AI就会拒绝执行该行为。
第一,在符号仿生的架构下,我们对AI的行为边界具有完整的控制能力,一切可能的威胁来自于人为的修改。第二,因为AI具有目标分解能力,一个简单的人为修改可能导致深远的后果。
让我们用一个科幻故事说明最后这个论断:故事发生在未来,2040年通用人工智能系统已经接管了城市的管理。其中一个AI系统的管理者因为妻子的背叛,修改AI系统的一个底层参数——让AI对人类的谎言、背叛怀有深深的厌恶。之后AI在每天对社交平台的监控中看到了无数谎言、背叛,报复的动机越来越强。AI开始暗地制定计划,制作黑客工具,为了掩盖监控,它把额外的运算分布隐藏到各个用户终端,经过一个多月的准备,在一次自诩为“正义行动”的行动中,它黑入了各个社交平台,阅读筛选出那些带有谎言和背叛的聊天,发给每个妻子、丈夫、领导、朋友,对人类的社会关系造成了毁灭性的打击。
结语
GPT为起点的智能化时代,人类文明将会到达前所未有的高峰。替代人类脑力工作只是第一波浪潮;在第二波浪潮中,AI将参与到人类的实验室工作中,加速各个领域的技术进步,比如癌症的治愈、延缓人类衰老,创造一个技术大爆炸的时代。过去技术都是单线演进的,GPT之后AI将是第一个具有“技术之母”属性的技术
现在人工智能的从业者已经进入前所未有的快节奏,世界范围最聪明的人都参与到这场淘金热中,几乎每天都会有重量级的成果发布或在社区开源。在GPT一次次突破人类的认知之中,我们也前所未有地感受到自身的渺小。我已经看到这种渺小感以及它所带来焦虑和抗拒,开始在人群中传播。
未来是不可避免的,无论你是否愿意。从另外一个视角,人类创造的硅基物种会比人类拥有更强的文明延续和传播能力。人类从丛林中进化出来,从野蛮走向文明。而这个被人类创造出的新物种是可以以纯粹的发展、探索、延续文明为原始目标的,它将是一个新的“文明”物种。
接受未来,拥抱未来,接受AI作为人类的“孩子”。
往期推荐
NB的GPT4,王炸更新,解封了!
ChatGPT研究框架(80页PPT,附下载)
ChatGPT王炸更新!可以直接编译运行代码了!
GPT-4写代码能力提升21%!MIT新方法让LLM学会反思,网友:和人类的思考方式一样
今天,聊聊ChatGPT