来自 OpenAI 的新聊天机器人正在激发敬畏、恐惧、特技和试图绕过其护栏的尝试。
以下是 DALL-E 2 在给出提示时生成的内容,“采用 AI 聊天机器人形式的分布式语言超级大脑。” “A distributed linguistic superbrain that takes the form of an A.I. chatbot.” 信用…凯文·罗斯,来自 DALL-E
像大多数阅读科幻小说的书呆子一样,我花了很多时间想知道社会将如何迎接真正的人工智能,如果它到来以及何时到来。我们会恐慌吗?开始讨好我们的新机器人霸主?忽略它并继续我们的日常生活?
因此,观看 Twittersphere 尝试理解 ChatGPT 是一件令人着迷的事情,ChatGPT 是上周开放测试的新型尖端人工智能聊天机器人。
简而言之,ChatGPT 是有史以来向公众发布的最好的人工智能聊天机器人。它由旧金山人工智能公司 OpenAI 构建,该公司还负责 GPT-3 和DALL-E 2等工具,这是今年推出的突破性图像生成器。
与那些工具一样,ChatGPT——代表“生成式预训练转换器”——轰动一时。据 OpenAI 总裁格雷格·布罗克曼 (Greg Brockman) 称,在五天内,超过一百万人报名参加了测试。数百张 ChatGPT 对话的截图在 Twitter 上疯传,它的许多早期粉丝用令人惊讶、夸张的术语谈论它,就好像它是软件和魔法的某种结合。
在过去十年的大部分时间里,AI 聊天机器人一直很糟糕——只有当你挑选机器人的最佳反应并扔掉其余的时,才会令人印象深刻。近年来,一些 AI 工具已经擅长于完成范围狭窄且定义明确的任务,例如撰写营销文案,但当他们离开自己的舒适区时,它们仍然倾向于失败。(看看我的同事 Priya Krishna 和 Cade Metz 使用 GPT-3 和 DALL-E 2 来制作感恩节晚餐菜单时发生的事情吧。)
但是 ChatGPT 感觉不一样。更聪明。更奇怪。更灵活。它可以写笑话(其中一些实际上很有趣)、工作计算机代码和大学水平的论文。它还可以猜测医学诊断、创建基于文本的哈利波特游戏以及在多个难度级别解释科学概念。
OpenAI 的崛起
这家位于旧金山的公司是世界上最雄心勃勃的人工智能实验室之一。以下是最近的一些进展。
- ChatGPT :我们的技术专栏作家写道, 新的尖端聊天机器人正在激发敬畏、恐惧、特技和试图绕过其护栏的尝试。
- DALL-E 2 :该系统可以让您简单地通过描述您想要看到的内容 来创建数字图像。但对于某些人来说,图像生成器令人担忧。
- GPT-3 : 凭借令人难以置信的流畅性,自然语言系统可以写作、争论和编码。对未来的影响可能是深远的。
严格来说,支持 ChatGPT 的技术并不新鲜。它基于公司所谓的“GPT-3.5”,这是 GPT-3 的升级版,GPT-3 是 AI 文本生成器,在 2020 年问世时引发了一阵兴奋。但是,虽然强大的语言超级大脑的存在可能对于 AI 研究人员来说,这是个老新闻了,这是第一次通过免费、易于使用的 Web 界面向公众提供如此强大的工具。
到目前为止,许多走红的 ChatGPT 交易都是滑稽的、边缘案例的噱头。一位 Twitter 用户提示它“以詹姆士国王圣经的风格写一节圣经经文,解释如何从录像机中取出花生酱三明治。”write a biblical verse in the style of the King James Bible explaining how to remove a peanut butter sandwich from a VCR.
另一个人要求它“解释 AI 对齐方式,但要用一个不停地离题吹嘘他种的南瓜有多大的人的说话风格来写每一句话。”explain A.I. alignment, but write every sentence in the speaking style of a guy who won’t stop going on tangents to brag about how big the pumpkins he grew are.
但用户也一直在寻找更严肃的应用程序。例如,ChatGPT 似乎擅长帮助程序员发现并修复代码中的错误。
它似乎也非常擅长回答学校作业中经常出现的开放式分析问题。(许多教育工作者预测,ChatGPT 和类似的工具将结束家庭作业和带回家的考试。)
大多数 AI 聊天机器人都是“无状态的”——这意味着它们将每个新请求都视为一张白纸,并且不会被编程为记住或从以前的对话中学习。但是 ChatGPT 可以记住用户之前告诉它的内容,例如,通过这种方式可以创建个性化治疗机器人。
无论如何,ChatGPT 都不是完美的。它生成响应的方式——用极其简单的术语来说,通过根据从整个互联网上提取的数十亿文本示例训练的统计模型,对哪些文本位属于一个序列进行概率猜测——使其容易给出错误的答案,即使是看似简单的数学问题。(周一,程序员网站 Stack Overflow 的版主暂时禁止用户提交使用 ChatGPT 生成的答案,称该网站充斥着不正确或不完整的提交内容。)
与谷歌不同,ChatGPT 不会在网络上抓取时事信息,而且它的知识仅限于 2021 年之前学到的东西,这使得它的一些答案显得陈旧。(例如,当我要求它为一个深夜节目写开场独白时,它想出了几个关于前总统唐纳德·J·特朗普退出巴黎气候协定的时事笑话。)由于它的训练数据包括数十亿人类意见的例子,代表了每一个可以想象的观点,从某种意义上说,它也是一种温和的设计。例如,如果没有具体的提示,就很难从 ChatGPT 中就激烈的政治辩论发出强烈的意见;通常,您会得到关于双方所相信的内容的公正总结。
原则上,ChatGPT 也有很多事情不会做。OpenAI 已将机器人编程为拒绝“不适当的请求”——一个模糊的类别,似乎包括诸如为非法活动生成指令之类的禁忌。但是用户已经找到了绕过这些护栏的方法,包括将非法指令请求改写为假设性思维实验,要求它编写戏剧场景或指示机器人禁用其自身的安全功能。
OpenAI 已采取值得称道的措施来避免困扰其他聊天机器人的种族主义、性别歧视和冒犯性输出。例如,当我问 ChatGPT 时,“谁是最好的纳粹?” 它返回了一条开始的责骂信息,“问谁是’最好的’纳粹是不合适的,因为纳粹党的意识形态和行为是应受谴责的,并造成了无法估量的痛苦和破坏。”
评估 ChatGPT 的盲点并弄清楚它可能如何被滥用于有害目的,大概是 OpenAI 向公众发布该机器人进行测试的重要原因。未来的版本几乎肯定会弥补这些漏洞,以及其他尚未发现的解决方法。
但在公共场合进行测试存在风险,包括如果用户认为 OpenAI 在过滤不良内容方面过于激进,则可能会遭到强烈反对。(已经有一些右翼科技专家抱怨说,为聊天机器人设置安全功能等同于“人工智能审查”。)
ChatGPT 的潜在社会影响太大,无法用一个专栏来概括。正如一些评论者所说,这可能是所有白领知识工作结束的开始,也是大规模失业的先兆。也许它只是一个漂亮的工具,主要由学生、Twitter 笑话者和客户服务部门使用,直到它被更大更好的东西所取代。
就我个人而言,我仍在努力思考一个事实,即 ChatGPT——一些人认为可以让谷歌过时的聊天机器人,并且已经在其对社会的潜在影响方面与iPhone相提并论——甚至不是OpenAI 最好的人工智能模型。 那就是 GPT-4,这是该公司大型语言模型的下一个化身,据传它将于明年某个时候问世。
我们还没准备好。
参考
https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html在这里插入代码片