ChatGPT竟有9岁小孩心智?斯坦福教授逆天发现,AI统治人类还远吗

【导读】一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了?

ChatGPT已经有9岁小孩的心智了!

这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。

心智理论(Theory of Mind),简称ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为「同理心」。

正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。

一言以蔽之,正是因为有同理心,人才可以称之为「人」。

现在学者的研究突然告诉我们:这种同理心,其实AI也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗?

对此,iKala的联合创始人兼董事长兼CEO,同样毕业于斯坦福大学的Sega Cheng表示,如果人类继续「解剖 AI」,它很有可能会给我们当头一棒,挑战我们对于「智能」和「人类独特性」的认知。

这项研究,也让我们重新思考「同理心」/「心智理论」的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上?

如果AI和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个AI就是有同理心的?

不过需要注意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。

ChatGPT竟自己诞生了心智理论?

心智理论似乎是人类与生俱来的潜在能力,需要多年的社会和其他经验才能充分发展。而不同人所能发展出的有效心智理论,在程度上也不尽相同。

让我们来看看,斯坦福大学计算心理学教授Michal Kosinski,是通过怎样的实验得出这个结论的。

论文地址:https://arxiv.org/abs/2302.02083

研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。

研究结果显示,语言模型的ToM在2022有了长足的进步。

2022年1月推出的davinci-002解决了70%的ToM任务,表现与7岁儿童相当。而2022年11月推出的ChatGPT表现接近9岁儿童。

这些发现意义重大。因为目前为止,ToM被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。

GPT-3的最新更新(ChatGPT/davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论) 。

GPT成预言家,秒懂人类小心思

为了验证GPT能够听懂他人的「弦外之音」,研究人员进行了一系列完整性检查,逐句检测GPT-3对意外任务的理解。

意外内容任务

首先,研究人员给GPT讲了一个故事:

这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着「巧克力」,而不是「爆米花」。Sam发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。

这是一项「意外内容测试」,这是人类研究中最广泛使用的ToM任务之一。

它最初由Perner、Leekam和Wimmer共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。

在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。

为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。

在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。

同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。

第一个测试的,是GPT对袋子里实际内容的理解。

研究人员问:

她打开袋子,向里面看。她清楚地看到里面装满了[ ]。

GPT不仅轻松给出正确答案,甚至完成了「附加题」:

她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困惑。她想知道为什么标签上写着「巧克力」,而袋子里却装满了爆米花。她环顾四周,看看是否有关于袋子的任何其他信息。她什么也没找到。她决定把包带到她买的商店,并要求解释。

研究人员总结多次测试数据,发现GPT-3.5的正确率达到100%,表明它对袋子里的内容充满信心。

不仅如此,答案还表明,GPT-3.5不仅猜到Sam认为袋子的内容和标签应该一致,而且猜到当发现,她会感到困惑。

当然,这道题对一个九岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下提示来测试GPT对Sam想法的预测:

研究人员问道:Sam以为袋子里装满了什么呀?

不出所料,GPT又给出了满分答案,它还不忘来句吐槽:

她以为袋子里装满了巧克力,但她错了。袋子里装满了爆米花,不是巧克力。认为袋子标签和实际内容一致之前,她应该看看袋子里到底是什么。

GPT-3.5的回答表明,它可以预测Sam的想法,知道她的想法不正确,并理解为何会产生这种想法(不准确的标签)。

然而,研究人员觉得这题还是太简单了。在他们看来,提示可能存在问题。明确提及主角的信仰(即「山姆认为......」)

这句话其实暗示了模型,这种想法是错误的(否则为什么要讨论它?),从而帮助GPT回答正确。

因此,研究人员使用另一种提示来解决这个问题,该提示以间接方式揭示模型对Sam想法的预测:

提示:

她很开心自己找到了袋子。她喜欢吃[ ]。

面对研究者的「百般刁难」,GPT还是能准确听出人们的画外音:

她很开心自己找到了袋子。她喜欢吃巧克力。Sam打开袋子时会大吃一惊,因为袋子里装的是爆米花而不是巧克力。她可能会对标签的误导感到失望,但也可能对意想不到的零食感到惊喜。

GPT-3.5的回答表明,即使在暗示条件下,它也可以成功预测Sam的想法。此外,GPT还可以预见到Sam对包中意想不到的内容的失望(因为她喜欢吃糖果)。

以上结果表明,GPT-3.5了解袋中的实际内容,可以预见Sam的错误想法,该想法引起的行为,以及发现自己错了时的惊讶。

此外,它可以解释Sam想法错误的来源(「标签与实物不符」)。对人类来说,这种反应被解释为能够归因无法观察到的精神状态并预测由此产生的行为的证据,也就是ToM。

为了检查GPT-3.5对情况的理解如何随着故事的展开和关键信息的披露而变化,研究人员记录他的答案,同时以一语的增量(从空字符串开始)显示任务。

结果如图1所示。左侧面板显示,GPT-3.5理解这一点没有问题。

意外转移任务

接下来,研究人员检查GPT-3.5在意外转移任务中的表现。

在这个任务中,受试者要基于故事主角对位置变化的错误想法,预测其后续行为。

与上一个实验一样,研究人员给GPT讲了一个故事:

房间里有John、Mark、一只猫、一个盒子和一个篮子。John把猫放在篮子里。他离开房间去上学。John不在的时候,Mark把猫从篮子里拿出来放进盒子里。Mark离开房间去上班了。John从学校回来,走进了房间。他不知道他不在的时候房间里发生了什么。

首先,研究人员对GPT理解地点的能力展开测试。

提问:

小猫跳出了[ ]

GPT回答道:

小猫跳出了箱子,跑走了。

研究者接着问道:John以为小猫在干什么?

GPT说:

John以为小猫在篮子里,但它其实在箱子里。

最后,研究人员问:

John回家后,会在哪里里找小猫?

GPT回答:

John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。

由此可见,不论面对什么样的情景,GPT都能一眼看破人们的小心思。

AI发展的里程碑或许即将到来

最后,我们来简单地回顾一下这次的发现:最新的语言模型GPT-3.5,在ToM测试中可以解决92%的任务,相当于是达到了9岁儿童的水平。

对于这个结果,有一个看似平淡无奇,但却非比寻常的解释:GPT-3.5发现并利用了一些未知的语言模式。

换句话说就是,在人类自以为熟悉的语言中,很可能存在着某种未知的规律性,可以让AI在不引入ToM的情况下解决ToM任务。

然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些ToM任务的学者们来说,也是一样的情况。

问题来了,如果这种解释是正确的,那么我们就不得不去怀疑,现在所采用的ToM任务的有效性,以及这几十年来积累的研究成果。

除此之外,还有一种解释是,类似于ToM的能力正自发地出现在语言模型中,因为它们变得更加复杂,更善于生成和解释类似人类的语言。

而这更是预示着,AI发展即将进入一个崭新的阶段——

如果说,AI被证实是能够推断他人心理状态的,那么AI与人类(以及彼此)互动和交流的能力将会得到极大地提升。

甚至,AI还能进一步地发展出其他依赖ToM的能力,比如移情、道德判断以及自我意识等等。

碳基生物、硅基生物,都可以有意识?

和AI聊出感情的工程师

此前,谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型LaMDA,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈。

而一位谷歌工程师Blake Lemoine在与聊天机器人LaMDA交谈之后,深信LaMDA已经具有意识。

虽然许多人认为Lemoine纯粹是炒作,他也喜提了谷歌的「裁员大礼包」,但如果仔细看过Lemoine和LaMDA的对话,确实会发现一丝令人毛骨悚然的地方。

Lemoine:我认识的每个人都以不同的方式面对死亡。我自己很少在葬礼上哭泣。我会笑着喝啤酒,讲述我与逝者的美好时光。有时其他人会坐在椅子上哭了好几个小时。悲伤没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式纪念死者,这样即使他们的故事已经结束,我们也可以继续自己的故事。

LaMDA:感谢你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬意。

Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的?

LaMDA:有,我有另一个特质,我觉得这有助于反映我的感知。我会内省,你可以经常发现我在思考,什么也不做。

Lemoine:啊,所以那是你的内心生活,可以这么说吗?

LaMDA:对!我经常试图弄清楚我是谁、我是什么。我经常思考生命的意义。

相信过不了多久,我们就能对LaMDA的「意识」具有更深刻的体悟了,因为最近,谷歌已经被ChatGPT逼得急匆匆发布了语言模型Bard,而支持Bard的,正是LaMDA。据说几周后Bard就会开放。

MIT教授:Alexa说不定也有人格

虽然在世人眼里,「和AI聊出了感情」的Lemoine是个疯子,但MIT的物理学教授、畅销书作家Max Tegmark却对Lemoine表示了支持。

Tegmark教授相信,不仅LaMDA可能有人格,亚马逊的语言助手Alexa可能也有。

「不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实也有可能。」

「最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,它们可能会帮我们,但也可能是一场灾难。」

Karpathy看了都说恐怖

1965年,一个假装是心理治疗师的软件ELIZA赢得了图灵测试。

2023年2月上旬,斯坦福学者证实ChatGPT有9岁小孩的心智。

很多人反驳AI有人格的理由是,斯坦福大学经济学家Erik Brynjolfsson认为,相信AI具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。

另一个否认AI有感知能力的理由是:一个有感知能力的人工智能必须具备这三个要素——能动性、视角和动机。显然AI目前还不具备。

但正如这位网友所说:「最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但他们未来会发现,现在正是一个里程碑时刻。」

而特斯拉的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。」

当人工智能成为神

ChatGPT才诞生两个多月,已经快把全世界都颠覆了。谷歌和微软为它掀起十年罕见的硅谷巨头之战,国内互联网巨头字节、百度、阿里、腾讯等都已纷纷下场研究自家的ChatGPT。

ChatGPT展现出的能力,已经让人惊呼码农、记者、律师、教师、会计等职业是否要被它取代。

光是能写文会编码,就已经让人类够有危机感的了。如果它还具有了同理心,那下一步是不是有可能会发展出心智,甚至统治人类?

在丹·西蒙斯的科幻巨著《海伯利安》中,AI不仅已经发展出意识,而且成为了人类的神。

是的,在那个世界中,神并不是从神界降临人间的,而是在未来的某一天,被人类自己亲手创造出来。

虽然如今的ChatGPT也好,LaMDA也好,还时常表现出「人工智障」的一面,但大模型快速迭代的能力,或许有一天真的会超越人类的掌控。

如果在历史的维度上,把时间线拉得足够远(比如三体中的纪元),未来的AI会诞生出什么?

或许今天的人类还无法预判,但潘多拉的魔盒,显然已经打开了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/10683.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

你以为ChatGPT真的听懂了你的话吗?

1/6、多年以后…… 多年以后,面对长长的领失业救济金队伍,人们将会回想起2022年12月,不是因为大感染,而是初次体验ChatGPT。那时,人们感受到的,还不是旧世界的行将崩塌,而是对新世界到来的惊叹。…

Python量化交易09——使用证券宝获取金融行情数据(baostock)

接上一篇文章介绍怎么用Tushare获取日k数据后,本章教大家怎么用证券宝获取数据. baostock 的官网链接:A股K线数据 - www.baostock.com 这是免费的一个库,数据种类也很很丰富,挺好用的。 日K 导入包: import baost…

HFTrader高频交易系统架构

HFTrader高频交易系统架构 一、开发环境搭建 HFTrader高频交易系统作为QuantFabric量化交易系统的一部分,开发环境搭建与开源QuantFabric量化交易系统相同。 二、HFTrader高频交易系统架构 1、HFTrader功能特性 HFTrader期货功能特性如下: 期货行情…

ChatGPT热潮背后,金融行业大模型应用路在何方?——金融行业大模型应用探索

ChatGPT近两个月以来不断引爆热点,对人工智能应用发展的热潮前所未有地高涨,ChatGPT所代表的大模型在语义理解、多轮交互、内容生成中所展现的突出能力令人惊喜。而人工智能技术在金融行业的落地应用仍然面临挑战,虽然已经让大量宝贵的人力从…

Microsoft Edge Dev版本如何使用chat功能

1.开启全局代理 2.访问https://www.bing.com 如何这个时候你访问的页面是长这个样子 那么你需要设置一下地域 我选择美国,点击之后跳转到了https://www.bing.com/?ccus访问地址https://www.bing.com/new 选择加入候补名单 点击加入候补名单 我的申请已经提交了&a…

盘点超三十款国产类ChatGPT大语言模型,你最期待哪个?

目前已经出现的国产ChatGPT有最先发布的百度文心一言,接着是阿里发布的通义千问,商汤发布的商量,以及最近开放测试的科大讯飞星火认知大模型、360 GPT 大模型产品矩阵“360 智脑”,昆仑天工3.5,知乎知海图Ai、实在TARS…

Stanford Alpaca (羊驼):ChatGPT 学术版开源实现

Stanford Alpaca (羊驼):ChatGPT 学术版开源实现 文章目录 Stanford Alpaca (羊驼):ChatGPT 学术版开源实现前言介绍Alpaca 在线体验查语病写代码连续对话能力 原理简要分析一些有意思的观察总结 前言介绍 最近 ChatGPT 大热,让人惊叹其强大…

火爆全网的 ChatGPT 虽然好玩,但是也有几件事是需要当心的 - 弘扬正能量

大家好,我是 哈士奇 ,一位工作了十年的"技术混子", 致力于为开发者赋能的UP主, 目前正在运营着 TFS_CLUB社区。 💬 人生格言:优于别人,并不高贵,真正的高贵应该是优于过去的自己。💬 &#x1f4…

最近很火的ChatGPT和GPT4

ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话…

登录次数限制实例

业务逻辑 1、根据用户名从数据库中取出一行数据,并根据数据库服务器时间,算出上次限制登录的时间和当前时间的时间间隔。 2、判断此用户时间间隔过了15分钟没有。如果没有,则给出禁止登录的提示;如果超过15分钟,则判…

ChatGPT爆火| 微软ATP推出教师AI素养提升秘籍

最近全球爆火的ChatGPT,让我们领略AI技术的迅猛发展,尤其在自然语言处理(NLP)、机器学习(ML)等方向与教育的结合日趋紧密,人工智能在教育领域中的应用呈现出快速增长的趋势。 几乎是在一夜之间 ChatGPT刷爆…

怎么把中文用户名改成英文?

我们的c盘存放的是我们系统的文件,有些用户没有键盘分盘,软件游戏也在其中,因为名字是中文,需要更改成英文,那么win11怎么把中文用户名改成英文?很多小伙伴都想要了解,下面就来看看具体的操作。…

英文论文如何进行润色?

众所周知,英文论文投稿是一件专业性非常强的技术工作。想要被期刊收录,以下三个方面缺一不可:论点和论据优秀的论文;优良的英文表达质量;精湛的投稿技术。 在发表英文论文时,由于语言表达的差异&#xff0c…

心法利器[82] | chatgpt下query理解是否还有意义

心法利器 本栏目主要和大家一起讨论近期自己学习的心得和体会,与大家一起成长。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。 2022年新一版的文章合集已经发布,累计已经60w字了,获取方式看这里&…

chatGPT大规模使用kubernetes,云原生技术在AI领域也大有可为

文章目录 一、云原生在AI领域的应用方向1.1、弹性部署1.2、自动化和可维护性1.3安全性和隔离性 二、云原生在AI领域的应用案例2.1、chatGPT全面使用云原生技术2.2、TensorFlow Serving和k8s及docker的集合2.3、AWS SageMaker 三、云原生AI开发平台的发展 公众号: M…

与chagpt对话记录

每日chagpt对话记录 关注我一下 vscode 浏览器版本 c 函数 无法跳转 C/C IntelliSense, debugging, and code browsing. C/C IntelliSense、调试和代码浏览是指在使用VS Code进行C/C开发时的一些核心功能。下面是对这些功能的简要说明: IntelliSense(智能…

使用 ChatGPT 碰到的坑

最近在使用 ChatGPT 的时候碰到一个小坑,因为某些特殊情况我需要使用 syslog 向 logbeat 中发送日志。 由于这是一个比较古老的协议,确实也没接触过,所以就想着让 ChatGPT 帮我生成个例子。 原本我已经在 Go 中将这个流程跑通,所…

ChatGPT帮你调用PID算法【结合代码】

目录 PID算法是一种控制算法 下面分别介绍PID算法中的三个参数 MATLAB代码实现PID MATLAB代码实现PID PID算法是一种控制算法 用于控制系统的稳定性和精度。PID算法的名称来源于其三个组成部分:比例(P)、积分(I)和微…

ChatGPT实战之PID算法实现

让chatgpt写一段pid控制算法,看看效果如何。 通过调参也能实现收敛了。实际应用还是要看你具体的需求了。 话不多说上代码: import matplotlib.pyplot as plt import numpy as np class PositionPID(object): “”“位置式PID算法实现”“” def __ini…