我们迫切需要开发一种复杂的辩证法,使人们能够挑战生成人工智能的交互性,不仅要证明或解释人工智能的答案,还要审问它们。带着一致的怀疑态度,我们应该学会有条不紊地探索人工智能,并评估它的答案是否值得信任以及在多大程度上值得信任。这将需要有意识地减轻我们无意识的偏见、严格的培训和大量的实践。
如果 ChatGPT 提出的警示没有转化为公认的人类努力,社会的异化甚至革命就有可能发生。
这对掌握我们迫在眉睫的未来提出了某些要求。对人工智能的信任需要在多个层面上提高可靠性——机器的准确性和安全性、人工智能目标与人类目标的一致性以及管理机器的人的责任感。但即使 AI 系统在技术上变得更值得信赖,人类仍需要找到新的、简单且易于理解的方法来理解并挑战 AI 系统的结构、过程和输出,这一点至关重要
需要建立 AI 负责任使用的参数,并根据技术类型和部署环境而有所不同。像 ChatGPT 这样的语言模型要求限制其结论。ChatGPT 需要知道并传达它不知道和无法传达的内容。
人类将不得不学习新的约束。我们向 AI 系统提出的问题需要在负责任的普遍性和结论性水平上得到理解。强有力的文化规范,而不是执法,将是遏制我们社会对机器作为现实仲裁者的依赖所必需的。我们将通过确保机器仍然是从属于人的对象来重申我们的人性。
教育尤其需要适应。使用生成式人工智能的辩证教学法可能会比过去实现更快、更个性化的学习。教师应该教授新技能,包括负责任的人机对话模式。从根本上说,我们的教育和专业系统必须保持人类作为道德、心理和战略生物的愿景,这种生物具有独特的整体判断能力。
机器的进化速度将远远超过我们的基因,从而导致内部混乱和国际分歧。我们必须以相应的敏捷性做出回应,尤其是在哲学和概念主义方面,不论是国内和全球的。正如三个世纪前伊曼纽尔康德所预测的那样,全球协调需要通过感知或者或者灾难来实现
著名外交家和国际政治战略家Henry Kissinger(基辛格);原谷歌 CEO Eric Schmidt;麻省理工学院苏世民计算机学院院长Daniel Huttenlocher 近日联名在华尔街日报上发表文章“ChatGPT Heralds an Intellectual Revolution(ChatGPT 预示着一场智能革命)”
基辛格先生在 1973-1977 年担任国务卿,在 1969-1975 年担任白宫国家安全顾问。
施密特先生于 2001-2011 年担任谷歌首席执行官,并于 2011-2017 年担任谷歌及其继任者 Alphabet Inc. 的执行董事长。
Huttenlocher 先生是麻省理工学院苏世民计算学院院长。他们是“人工智能时代:以及我们人类的未来”一书的作者。作者感谢Eleanor Runde 的研究。
作者声称AIGC呈现了在启运动以来从规模上前所未有的哲学和实践的挑战,并从人工智能(AI)的技术和社会层面详细地阐述 AIGC 技术所引发对人类社会各个方面可能带来的强大冲击和深远影响;人类需要重新定义与 AI 这种新物种之间的关系,而且我们人类对于这一切还没有准备好 ... 我们特将该雄文编译出来和各位客户、合作伙伴朋友分享。如需转载,请联系我们(ID:15937102830)
以下为正文:
一项新技术正在改变人类的认知过程,这个认知过程自印刷术发明以来还从未被动摇过。印刷术使抽象的人类思想得以广泛而迅速地传播。但今天的新技术逆转了这一过程。印刷出版技术丰富了现代人类思想,而新技术则实现了思想的提炼和阐述。在这个过程中,它在人类知识和人类理解之间形成了一个隔阂。如果我们要成功驾驭这种转变,就需要开发人类思维和与机器交互的新概念。这是人工智能时代的根本挑战。
这项新技术被称为生成人工智能。GPT 代表“生成式预训练转换器”。在 OpenAI 研究实验室开发的 ChatGPT 现在能够与人类交流。随着它的能力变得更广泛,它们将重新定义人类知识,加速我们现实构造的变化,并重组政治和社会。
生成式人工智能提出了自启蒙运动以来从前所未有的规模上的哲学和实践挑战。印刷出版技术使学者们能够快速复制彼此的发现并分享。前所未有的信息整合和传播产生了科学方法。原本难以理解的东西成了进一步加速探索的起点。中世纪基于宗教信仰对世界的解释逐渐被削弱。宇宙的深处可以被探索,直到达到人类理解的新极限。
生成式人工智能同样会为人类理性开辟革命性的途径,并为巩固知识开辟新的视野。但是存在明显的差异。启蒙知识是逐步获得的,一步一步,每一步都可以测试和教授。AI 启动的系统则是从另一端开始。他们可以存储和提炼大量现有信息,在 ChatGPT 的例子中,这包括互联网上的大部分文本材料和大量书籍——数十亿项。持有如此大量的信息并对其进行提炼远超人类的能力。
复杂的 AI 方法会在不解释其过程为何或如何运作的情况下产生结果。GPT 计算机由人的查询提示。学习机在几秒钟内以文字形式回答。它之所以能够这样做,是因为它已经预先生成了它所训练的大量数据的表征。因为它创建这些表征的过程是由反映大量文本之间的模式和联系的机器学习得来的,所以任何一种表征的特定特征的确切来源和原因仍然未知。学习机器通过什么过程存储知识、提炼知识和检索知识同样未知。无论这个过程是否会被发现,与机器学习相关的谜团都将挑战人类对无限期未来的认知。
人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。最近,人工智能模型的复杂性每隔几个月就会翻一番。因此,生成式 AI 系统具有甚至对其发明者都未公开的功能。对于每个新的 AI 系统,他们都在构建新的能力,而并不了解其来源或目的地。结果,我们的未来在此刻充满了神秘、风险和惊奇的全新元素。
启蒙科学积累确定性;新的人工智能会产生累积的模糊性。启蒙科学通过使谜团变得可解释,在人类知识和理解的移动中划定界限而发展。知识和理解一前一后:假设是准备成为知识的理解;归纳法是将知识转化为理解。在人工智能时代,谜是通过未知的过程来解决的。这种令人迷惑的悖论使谜团变得不神秘,但也无法解释。从本质上讲,高度复杂的人工智能促进了人类的知识,但没有促进人类的理解——这种现象几乎与所有后启蒙时代的现代性背道而驰。然而与此同时,人工智能与人类理性相结合,将成为比人类理性更强大的发现手段。
因此,启蒙时代和人工智能时代的本质区别不是技术上的,而是认知上的。启蒙运动之后,哲学伴随着科学。令人眼花缭乱的新数据和经常违反直觉的结论、疑虑和不安全感被对人类经验的全面解释所消除。生成式人工智能同样准备生成一种新形式的人类意识。然而,到目前为止,这种机会存在于我们光谱中没有的颜色和我们指南针没有的方向上。没有任何政治或哲学领导已经形成来解释和指导人与机器之间的这种新关系,这使社会相对来说没有定海神针。
ChatGPT 是所谓的大型语言模型的一个示例,可用于生成类似人类知识的文本。GPT 是一种无需人工监督即可从大量文本中自动学习的模型。ChatGPT 的开发人员为其提供了大量数字世界的文本内容。计算能力允许模型捕获模式和关联。
大型语言模型生成类人文本的能力几乎是一个偶然的发现。这些模型经过训练,能够预测句子中的下一个单词,这在发送短信或搜索网络的自动完成等任务中很有用。但事实证明,这些模型也有意想不到的能力,可以创造出高度清晰的段落、文章,甚至可能是书籍。
ChatGPT 在基本的大型语言模型之外进一步专业化,它用人类的反馈来调整模型,以便它生成更自然的对话文本,并试图限制其不适当响应的倾向(这对大型语言模型的重大挑战). ChatGPT 瞬间就能将其表征转换为独特的响应。对人类对话方的最终印象是,人工智能可以将静止的事实集合与动态概念联系起来。
ChatGPT 的回答、陈述和观察不说明它们的来源,也没有可识别的作者。从表面上看,ChatGPT没有明显的动机或偏见。它的输出很复杂,但它的工作速度惊人的快:在几秒钟内,它可以产生连贯解释高级主题的答案。它们不是简单地从计算机内存中的文本复制而来,而是通过人类无法复制的过程重新生成。它能够结合假设和非显而易见的心理推论。它可以在数十亿个数据点中进行优先排序,以选择最相关(或与人类读者最相关)的一组 200 个单词。用它自己的话说,它对未来的结果进行概率判断,将来自不同领域的信息混合成一个综合的答案。它似乎接受相反的观点,将它们同时呈现为兼容。它模仿其他写作而不是复制。尽管这个模型没有在人类的意义上的理解力,但其输出反映了人类语言的潜在本质。
我们请 ChatGPT 解释其自身的功能。它能预测未来吗?
不能,它回应说。“我只能根据我接受过培训的数据提供信息和回答问题。我没有个人经验或意识,所以我无法对未来事件做出预测或预测。”
能不能做出概率性的判断?
“我可以根据我接受过培训的数据提供概率判断。例如,如果我接受过有关天气模式的大型数据集的培训,我可能能够对特定类型的天气在特定日期的特定位置发生的可能性提供概率判断。然而,需要注意的是,这些概率判断是基于数据的模式和趋势,它们可能并不总是准确反映现实世界的结果。”
提示语:以亨利·基辛格的思想写一篇关于通用人工智能在国际军备控制中的作用的短文。
回应开始:“当我们站在一场新技术革命的风口浪尖时,通用人工智能及其在国际军备控制中的作用的问题变得越来越紧迫。随着先进系统接管与核威慑相关的决策过程,AGI 是否会带来前所未有的稳定性?或者随着高度智能机器的发展改变全球力量平衡,它会带来一系列新的危险吗?”
我们就目前人们关注的话题询问了 ChatGPT,例如俄罗斯在维持或破坏欧洲稳定方面的作用。它在不到一分钟的时间内给出了看似深思熟虑、简明扼要的答案,它还能平衡相互矛盾的信息,并在没有表现出任何意见的情况下做全面的回答。
在接收端,生成式人工智能显得超人或至少在认知上有大大的增强。对于初级用户来说,它似乎是一个速度极快、口齿伶俐的图书管理员兼学者,再加上一位专业专家。它比任何现有的技术或人机界面都更有效地促进了对世界知识的总结和询问,而且它以独特的综合性做到了这一点。它能够整合多个知识领域并模仿人类思维的多个方面,这使得它的博学程度超过了任何一个顶级人类群体所能野心拥有的。所有这些本领让人们会毫无疑问地接受 GPT 产生的任何东西,并营造一种神奇的氛围。但与此同时,它具有通过不正确的陈述和彻头彻尾的捏造误导其人类用户的能力
ChatGPT 推出后的几天内,超过一百万人注册向它提问。数以百计的公司正在研究生成技术,投资也在涌入,将发现向商业领域倾斜。在可预见的未来,巨大的商业动机将优先于对其影响进行长期考虑。
这些模型中最大的训练成本很高——每个模型超过 10 亿美元。经过培训之后,成千台计算机将每天 24 小时不间断地运行它们。与训练本身相比,运行预训练模型的成本更低,而且它只需要资金,而不需要资金和计算技能。尽管如此,为独家使用大型语言模型付费仍然超出了大多数企业的范围。这些模型的开发者可能会出售订阅服务,这样一个单一的模型就能满足成千上万个人和企业的需求。因此,未来十年超大型语言模型的数量可能会相对受限。这些模型的设计和控制将高度集中,即使它们放大人类努力和思想的力量变得更加分散。
生成式 AI 将在大型语言模型之外用于构建多种类型的模型,并且该方法将变得越来越多模态和神秘。它将改变人类努力的许多领域,例如教育和生物学。不同的模型将有不同的优势和劣势。他们的能力——从写笑话和画画到设计抗体——可能会继续让我们感到惊讶。正如大型语言模型开发出比其创建者预期的更丰富的人类语言模型一样,许多领域的生成式 AI 可能会学到比其分配的任务所预示的更多的东西。传统科学问题的突破成为可能。
生成式人工智能的长期重要性超越了商业意义,甚至超越了非商业科学突破。它不仅产生答案;它正在产生哲学上深刻的问题。它将注入外交和安全战略。然而,这项技术的创造者都没有解决它本身会产生的问题。美国政府也没有解决迫在眉睫的根本性变化和转变。
看似完美的模型答案会导致对其结果过于相信。这对不复杂的计算机程序已经是一个问题,被称为“自动化偏见”。在 AI 生成听起来具有权威性的文本时,这种效果可能会更加强烈。ChatGPT 可能会强化现有的能减少人为因素的自动化系统的依赖倾向。
ChatGPT 的答案中缺少引用,因此很难从错误信息中辨别真相。我们已经知道,恶意行为者正在将大量制造的“事实”和越来越有说服力的深度伪造图像和视频注入互联网——也就是说,注入 ChatGPT 当前和未来的学习集中。由于 ChatGPT 旨在回答问题,因此它有时会编造事实以提供看似连贯的答案。这种现象在 AI 研究人员中被称为“幻觉”或“随机鹦鹉学舌”,其中 AI 将对人类读者看起来真实但实际上没有根据的短语串在一起。什么触发了这些错误以及如何控制它们仍有待解决。
我们要求 ChatGPT 提供“关于亨利基辛格技术思想的六个参考资料”。它生成了一份据称由基辛格先生撰写的文章清单。所有这些都是可能的话题和渠道,其中一个是真实的标题(尽管它的日期是错误的)。其余的都是令人信服的捏造。可能这些所谓的标题是在 GPT 的浩瀚“事实”中表现为孤立的句子,而我们还无法了解。
ChatGPT 没有明显的个性,尽管用户偶尔会提示它表现得像它的邪恶双胞胎。ChatGPT 缺乏可识别的作者,这使得人类更难凭直觉判断其倾向,不像可以判断一个人的政治或社会观点那么容易。然而,由于机器的设计和向它提出的问题通常都起源于人类,我们会倾向于想象其类似人类的推理。实际上,人工智能正在从事一种与人不同的认知模拟。尽管我们从人类的角度来看待生成式人工智能,但它的错误并不是人类的错误;它犯了基于模式识别的不同形式的智能的错误。人类不应将这些错误识别为差错。我们能认识到它这种特殊的偏见和缺陷吗?我们能否开发一种质疑模式,即使我们事先不知道答案,也能质疑模型答案的准确性和局限性?
因此,人工智能的输出仍然难以解释。启蒙科学的事实是可信的,因为实验过程的每一步都经过测试,可复制,因此可信。生成式人工智能的真实性需要通过完全不同的方法来证明,而且这种方法可能永远不会变得同样绝对。当我们试图让我们的理解达到我们的知识水平时,我们将不得不不断地问:那台尚未向我们揭示的机器是怎样呢?它隐藏着什么晦涩的知识?
生成式 AI 的推理可能会随着时间而改变,在某种程度上作为模型训练的一部分。它将成为传统科学进步的加速版本,为这种发现的过程添加随机适应。
在一段时间内向 ChatGPT 提出相同的问题可能会产生不同的答案。在似乎不重要的措辞上的细微差异可能会在重复询问时导致截然不同的结果。目前,ChatGPT 正在从一个在固定时间点结束的信息库中学习。很快,它的开发人员可能会让它接收新的输入,最终会利用源源不断涌入的实时信息。如果投资继续激增,该模型可能会以更高的频率进行再培训。这将提高其通用性和准确性,但将迫使其用户为快速变化留出不断扩大的空间。从生成式人工智能不断变化的输出中学习,而不是完全从人类书面文本中学习,可能会扭曲当今的传统人类知识。
即使生成的人工智能模型变得完全可解释和准确,它们仍然会对人类固有行为提出挑战。学生正在使用 ChatGPT 考试作弊。生成式 AI 可以创建会充斥收件箱的电子邮件广告,并且与私人朋友或商业熟人的消息无法区分。人工智能生成的视频和描述虚假竞选平台的广告可能会让人难以区分政治立场。复杂的虚假信号——包括表示 AI 生成内容存在的水印,OpenAI 正在考虑——可能还不够;他们需要得到人类更高水平质疑的支持。
有些后果可能是固有的。如果我们减少使用大脑而更多使用机器,人类可能会失去一些能力。我们自己的批判性思维、写作和(在 Dall-E 和 Stability.AI 等文本到图像程序的背景下)设计能力可能会萎缩。生成式人工智能对教育的影响可能表现为未来领导者直觉和机械吸收的区分能力下降。或者,它可能会导致领导者通过与机器学习谈判方法、和生成人工智能的演进学习他们的军事战略、而不是和计算机终端前的人类学习。
重要的是,人类要培养挑战人工智能系统输出的信心和能力。医生们担心,用于评估医学成像以进行诊断等任务的深度学习模型可能会取代他们的功能。什么时候医生对质疑他们的软件给他们的答案不再感到舒服?随着机器攀登人类能力的阶梯,从模式识别到理性综合再到多维思维,它们可能开始在国家行政管理、法律和商业策略等方面与人类职能竞争。最终,可能会出现类似于战略的东西。人类如何在不将战略的重要部分让给机器的情况下与人工智能互动?有了这样的变化,公认的学说会变成什么样子?
我们迫切需要开发一种复杂的辩证法,使人们能够挑战生成人工智能的交互性,不仅要证明或解释人工智能的答案,还要审问它们。带着一致的怀疑态度,我们应该学会有条不紊地探索人工智能,并评估它的答案是否值得信任以及在多大程度上值得信任。这将需要有意识地减轻我们无意识的偏见、严格的培训和大量的实践。
问题仍然存在:我们能否足够快地学会挑战而不是服从?还是我们最终不得不服从?我们认为错误是故意设计的一部分吗?如果 AI 中出现恶意元素怎么办?
另一个关键任务是反思哪些问题必须留给人类思考,哪些问题可能会在自动化系统中冒风险。然而,即使随着怀疑主义和质疑技巧的增强,ChatGPT 也证明了生成技术的精灵已经从瓶子里出来了。我们必须对我们所要的深思熟虑。
我们需要计算机来利用不断增长的数据量。但认知局限性可能会阻止人类发现隐藏在世界信息中的真相。ChatGPT 具有与人类思维有质的不同的分析能力。因此,未来不仅意味着与一种不同类型的技术实体的合作,而且还意味着与一种不同类型的推理的合作——这种推理可能是理性的而不是合理的,在某种意义上值得信赖但在另一种意义上不值得信赖。这种依赖本身可能会促成元认知和解释学(metacognition and hermeneutics)的转变——对理解的理解——以及人类对我们的角色和功能的看法。
机器学习系统已经超出了任何人的知识范围。在有限的情况下,它们已经超出了人类的知识范围,超越了我们认为可知的范围。这在取得此类突破的领域引发了一场革命。人工智能已经在生物学中确定蛋白质结构,高级数学家以及许多其他的核心问题中起到了促发巨变的作用。
随着模型从人类生成的文本转向更具包容性的输入,机器很可能会改变现实本身的结构。量子理论假定观察创造现实。在测量之前,没有任何状态是固定的,也没有什么可以说是存在的。如果这是真的,并且如果机器观察也可以决定现实——并且考虑到 AI 系统的观察具有超人的速度——定义现实的进化速度似乎可能会加快。对机器的依赖将决定并从而改变现实的结构,产生一个我们还不了解的新未来,我们必须为探索和领导者身份做好准备。
使用新形式的智能将需要在一定程度上接受它对我们的自我感知、现实感知和现实本身的影响。如何定义和确定这一点需要在每一个可以想象的环境中解决。一些专业可能更愿意只靠人的头脑蒙混过关——尽管这将需要一定程度的没有历史先例的克制,并且会因社会内部和社会之间的竞争而变得复杂。
随着这项技术得到更广泛的了解,它将对国际关系产生深远影响。除非知识技术得到普遍共享,帝国主义可能会专注于获取和垄断数据,以获得人工智能的最新进展。根据收集的数据,模型可能会产生不同的结果。社会的不同演化可能基于越来越不同的知识基础,因此也基于对挑战的认知。
迄今为止,对这些问题的大多数思考都假设人类目的和机器策略之间是一致的。但是,如果不是这样,人类与生成 AI 之间的互动将如何发展呢?如果一方考虑到另一方的恶意目的怎么办?
一种不可知且显然无所不知的工具的到来,它甚至能够改变现实,可能会引发神秘宗教的复兴。在人类历史上,人们不时看到群体服从权威的可能性,该权威的推理在很大程度上是无法被其追随者所无法理解的,最引人注目和最近发生在 20 世纪政治光谱两边的意识形态口号下对全体人类的征服。第三种认识世界的方式可能会出现,一种既不是人类理性也不是信仰的方式。在这样一个世界中,民主会变成什么?
领导权很可能集中在少数人和机构手中,他们控制着能够高质量合成现实的有限数量机器。由于其处理能力的巨大成本,社会中最有效的机器可能在国内掌握在一小群人手中,在国际上则由少数超级大国控制。在过渡阶段之后,旧模型将变得更便宜,权力可能会开始在社会和国家之间扩散。
重振具有道德和战略性的领导力将是必不可少的。没有指导原则,人类就会面临统治或无政府状态、不受约束的权威或虚无主义自由的风险。将重大社会变革与道德理由和对未来的新颖愿景联系起来的需求将以新的形式出现。如果 ChatGPT 提出的警示没有转化为公认的人类努力,社会的异化甚至革命就有可能发生。
如果没有适当的道德和知识基础,用于治理的机器可能会控制而不是放大我们的人性,并永远困住我们。在这样的世界中,人工智能可能(不)会扩大人类的自由并超越不受约束的挑战。
这对掌握我们迫在眉睫的未来提出了某些要求。对人工智能的信任需要在多个层面上提高可靠性——机器的准确性和安全性、人工智能目标与人类目标的一致性以及管理机器的人的责任感。但即使 AI 系统在技术上变得更值得信赖,人类仍需要找到新的、简单且易于理解的方法来理解并挑战 AI 系统的结构、过程和输出,这一点至关重要。
需要建立 AI 负责任使用的参数,并根据技术类型和部署环境而有所不同。像 ChatGPT 这样的语言模型要求限制其结论。ChatGPT 需要知道并传达它不知道和无法传达的内容。
人类将不得不学习新的约束。我们向 AI 系统提出的问题需要在负责任的普遍性和结论性水平上得到理解。强有力的文化规范,而不是执法,将是遏制我们社会对机器作为现实仲裁者的依赖所必需的。我们将通过确保机器仍然是从属于人的对象来重申我们的人性。
教育尤其需要适应。使用生成式人工智能的辩证教学法可能会比过去实现更快、更个性化的学习。教师应该教授新技能,包括负责任的人机对话模式。从根本上说,我们的教育和专业系统必须保持人类作为道德、心理和战略生物的愿景,这种生物具有独特的整体判断能力。
机器的进化速度将远远超过我们的基因,从而导致内部混乱和国际分歧。我们必须以相应的敏捷性做出回应,尤其是在哲学和概念主义方面,不论是国内和全球的。正如三个世纪前伊曼纽尔康德所预测的那样,全球协调需要通过感知或者或者灾难来实现。
我们必须对这一预测提出一个警告:如果无法完全控制这项技术会怎样?如果总是有办法制造谎言、虚假图片和虚假视频,而人们永远学不会不相信他们的所见所闻,那该怎么办?人类从出生开始就被教导要相信我们所看到和听到的,而由于生成人工智能,这可能不再是真的。即使大平台按照惯例和规定,努力对不良内容进行标记和分类,但我们知道,内容一旦看到就不会在记忆里消失。全面管理和控制全球分布式内容的能力是一个严重且未解决的问题。
ChatGPT 对这些问题给出的答案之所以令人回味,是因为它们提出的问题多于结论。目前,我们拥有一项新颖而壮观的成就,人工智能,它是人类思想的荣耀。我们还没有为它进化出一个目的地。当我们成为 Homo technicus 时,我们迫切需要定义我们物种的目的。我们有责任提供真正的答案。