多伦多大学教授杰弗里·辛顿(Geoffrey Hinton)因其对神经网络的开创性研究而经常被称为“人工智能教父”,最近成为该行业的非官方监管机构。今年春天,他辞去了谷歌的工作,更自由地批评他帮助开创的领域。他认为最近像ChatGPT和Bing Chat这样的生成AI的激增是开发中不受控制和潜在危险的加速的迹象。与此同时,谷歌似乎放弃了以前的克制,因为它用巴德聊天机器人等产品追逐竞争对手。
在本周于多伦多举行的碰撞会议上,Hinton扩大了他的担忧。当公司吹捧人工智能是从租赁到运输货物的所有解决方案时,Hinton正在敲响警钟。他不相信好的人工智能会战胜坏的人工智能,他认为合乎道德的人工智能可能会付出高昂的代价。
对人类的威胁
多伦多大学教授杰弗里·辛顿(左)在碰撞2023上发言。
Hinton认为,人工智能的好坏取决于制造它的人,而糟糕的技术仍然可以胜出。“我不相信一个试图阻止坏人工智能的好人工智能能够获得控制,”他解释说。例如,他说,阻止军工联合体生产战斗机器人可能很困难——公司和军队可能“喜欢”战争,因为伤亡人员是可以轻松更换的机器。虽然Hinton认为大型语言模型(经过训练的人工智能可以产生类似人类的文本,如OpenAI的GPT-4)可能会导致生产力的大幅提高,但他担心统治阶级可能会简单地利用这一点来丰富自己,从而扩大已经很大的贫富差距。它将“使富人更富,穷人更穷,”辛顿说。
Hinton还重申了他广为人知的观点,即人工智能可能对人类构成生存风险。如果人工智能变得比人类更聪明,就不能保证人们会继续负责。Hinton说,如果AI决定控制是实现其目标所必需的,那么“我们就有麻烦了”。对他来说,这些威胁“不仅仅是科幻小说”,必须认真对待。他担心,社会只有在有机会看到杀手机器人“有多可怕”之后才会控制它们。
Hinton补充说,存在很多问题。他认为,偏见和歧视仍然是问题,因为扭曲的人工智能训练数据会产生不公平的结果。算法同样会产生回音室,强化错误信息和心理健康问题。Hinton还担心AI会在这些房间之外传播错误信息。他不确定是否有可能抓住每一个虚假的说法,尽管“将所有假货标记为假货很重要”。
这并不是说Hinton对AI的影响感到绝望,尽管他警告说,健康地使用该技术可能会付出高昂的代价。人类可能不得不进行“实证工作”来理解人工智能是如何出错的,并防止它夺取控制权。他补充说,纠正偏见已经是“可行的”。大型语言模型AI可能会终结回音室,但Hinton认为公司政策的变化尤为重要。
这位教授在回答有关人们因自动化而失去工作的问题时毫不讳言。他认为需要“社会主义”来解决不平等问题,人们可以通过从事可能随时代变化的职业来对冲失业,比如管道(不,他不是在开玩笑)。实际上,社会可能必须做出广泛的改变以适应人工智能。
行业保持乐观
谷歌 DeepMind CBO 科林·默多克在 2023 年碰撞。
早些时候在碰撞的谈判更有希望。谷歌DeepMind业务主管科林·默多克(Colin Murdoch)在另一场讨论中表示,人工智能正在解决世界上一些最严峻的挑战。在这方面没有太多争议 - DeepMind正在对每种已知的蛋白质进行编目,对抗抗生素抗性细菌,甚至加速疟疾疫苗的工作。他设想了可以解决多个问题的“通用人工智能”,并以谷歌的产品为例。Lookout对于描述照片很有用,但底层技术也使YouTube短视频可搜索。默多克甚至称过去6到12个月是人工智能释放其潜力的“灯泡时刻”。
Roblox首席科学家摩根·麦奎尔(Morgan McGuire)基本上同意这一点。他认为,游戏平台的生成式人工智能工具“缩小了新创作者和老手之间的差距”,使编写代码和创建游戏内材料变得更加容易。Roblox甚至发布了一个开源的AI模型StarCoder,它希望通过使大型语言模型更容易访问来帮助其他人。虽然 McGuire 在讨论中承认在扩展和审核内容方面存在挑战,但他认为元宇宙因其创意池而拥有“无限”的可能性。
默多克和麦奎尔都表达了与辛顿相同的担忧,但他们的语气显然没有那么危言耸听。默多克强调,DeepMind想要“安全、道德和包容”的人工智能,并指出专家咨询和教育投资就是证据。这位高管坚称,他对监管持开放态度,但前提是它允许“惊人的突破”。反过来,McGuire表示,Roblox总是推出具有内容审核功能的生成AI工具,依靠不同的数据集并实践透明度。
对未来的一些希望
Roblox 首席科学家摩根·麦奎尔在 2023 年碰撞中发表讲话。
尽管头条新闻总结了他最近的评论,但Hinton对AI的整体热情在离开谷歌后并没有受到抑制。如果他没有放弃,他确信他将致力于多模态人工智能模型,其中视觉、语言和其他线索有助于为决策提供信息。“小孩子不只是从语言中学习,”他说,并暗示机器也可以这样做。尽管他对人工智能的危险感到担忧,但他相信它最终可以做人类能做的任何事情,并且已经展示了“一点点推理”。例如,GPT-4 可以自行调整以解决更困难的难题。
Hinton承认,他的碰撞演讲并没有说太多关于人工智能的良好用途,比如应对气候变化。人工智能技术的进步可能是健康的,即使担心其影响仍然很重要。辛顿坦率地承认,尽管存在迫在眉睫的伦理和道德问题,但他的热情并没有减弱。“我喜欢这些东西,”他说。“你怎么能不喜欢制造智能的东西呢?”