埃隆·马斯克 (Elon Musk) 否认了他最著名的作品之一。
特斯拉、SpaceX 和 Twitter 的首席执行官以热爱工作每天睡觉不超过 6 小时而闻名,他脑子里想着几件事,其中一件事关 OpenAI 的发展,太平洋时间凌晨 1 点 36 分,他发表推文指责 OpenAI 违背初心:被微软控制,只顾赚钱。
作为联合创始人之一,马斯克对 OpenAI 的现状非常不满:“OpenAI 最初是作为一家开源(这就是为什么我把它命名为‘Open’AI)的非营利性公司而创建的,为了抗衡谷歌,但现在它已经成一家闭源的营利性公司,由微软有效控制……这完全不是我的本意。”马斯克于 2018 年离开 OpenAI 董事会,不再持有该公司股份,但显然他对 OpenAI 的现状依然十分关心。
紧接着,他又发推文晒出一张聊天截图,让 ChatGPT 回复“创建一个非营利组织,然后在其下用非营利组织的资源衍生一个盈利公司”的问题,并借用 ChatGPT 的观点来批评 OpenAI。
ChatGPT 回复说,打着非营利组织的幌子开办营利性企业,是很不道德和非法的。非营利组织的资源用于慈善或公共目的,应以透明和负责任的方式运作。任何滥用非营利组织特权的企图只会导致公众对其失去信任,并可能导致法律后果。
过去两个月里,ChatGPT 已经表明了人工智能取得了令人难以置信的进步,但根据马斯克的说法,这应该是我们该担心的事情。这位亿万富翁长期以来一直警告不受监管的人工智能开发可能会带来危险,他曾表示,人工智能比核弹头“危险得多”。
作为 OpenAI 的联合创始人,马斯克还曾于去年在世界政府峰会上发表评论说,ChatGPT“向人们展示了人工智能已经变得非常先进”,“它只是没有大多数人可以访问的用户界面。”
他补充说,汽车、飞机和医药必须遵守监管安全标准,但人工智能还没有任何规则或法规来控制其发展。“坦率地说,我认为我们需要规范人工智能安全,”马斯克说。“我认为,人工智能比汽车、飞机或药品对社会带来的风险更大。监管可能会稍微减慢人工智能的发展速度,但我认为这也可能是一件好事。”
1.从创立非营利组织,到与 OpenAI 分道扬镳
2015 年,埃隆·马斯克和前 Y Combinator 总裁 Sam Altman 共同创立了 OpenAI。
人工智能是一把双刃剑,可以用来做好事,也可以拿来做坏事。作为 OpenAI 的联合创始人之一,马斯克当初成立 OpenAI 的初衷是为了确保该技术不会被滥用。马斯克等人认为 AI 不应该为个人或公司独有,它属于全人类;OpenAI 的目标是将在人工智能领域的研究结果开放地分享给全世界。马斯克坚持要求 OpenAI 开发的技术是开源的,他认为避免 AI 被拿来做坏事的方法就是广泛地传播这项技术,不要限制人们掌握这项技术,开放这项技术让所有人都可以用,这样就能减轻超级智能可能会带来的威胁,
OpenAI 成立的当年,马斯克就强调,人工智能是人类“最大的生存威胁”。马斯克并不是唯一一个警告过人工智能潜在危害的人。2014 年,史蒂芬霍金警告说人工智能可能终结人类。
“很难想象人类水平的 AI 能给社会带来多大的好处,同样难以想象如果构建或使用不当会对社会造成多大的损害,”一份宣布 Open AI 成立的声明写道。
然后到了 2018 年,马斯克在 OpenAI 官方博客上宣布离开公司董事会。博文中提到,虽然马斯克会离开 OpenAI 董事会,但并不会与 OpenAI 彻底撇清关系,他仍然会继续为该公司提供支持。
就在宣布马斯克离开 OpenAI 董事会的前一阵子,OpenAI 还发布了一篇论文,讨论了 AI 技术可能给人类带来的负面威胁,并呼吁各方对 AI 技术保持警惕,避免 AI 技术被滥用。
2019 年,该公司开发了一款可以制作假新闻的人工智能工具。起初,OpenAI 表示该机器人非常擅长编写假新闻,因此他们并不准备发布它。但同年晚些时候,OpenAI 还是发布了 NLP 模型 GPT-2(2020 年,发布了 GPT-3)。该模型可以生成连贯的文本段落,流畅地写出一段文章。从技术的角度来看,这确实是不小的进步,但是如果一旦被滥用,这一技术极有可能被用来生产假新闻,造成社会恐慌等负面影响。
几天后,马斯克宣布跟 OpenAI 彻底分道扬镳。马斯克表示:由于自己与 OpenAI 内部一些发展观点上的不和,所以选择了退出,并且自己已经一年多没有跟 OpenAI 合作过了,之后将专注于解决特斯拉以及 SpaceX 面临的大量工程问题。
不久之后,OpenAI 宣布接受微软 10 亿美元注资,摆脱了非营利组织的地位。在新的利润结构下,OpenAI 投资者可以获得高达其原始投资的 100 倍的收益,剩下的钱将用于非营利性工作。
微软通过注资,获得了 GPT-3 的底层代码,用来整合到微软的产品和服务当中去。在一篇博文中微软表示:“通过 GPT-3 模型,我们可以释放出巨大的商业潜能,直接帮助人们写作、描述和总结大量数据、将自然语言转换成另一种语言等等,未来的可能性只会受限于人们的想法和方案。”
2.马斯克积极“吃瓜”
2020 年,麻省理工学院技术评论对微软和 OpenAI 的交易表达了不满,称 OpenAI 本应造福人类,而现在 ,它只是在造福世界上最富有的公司之一。马斯克也发推文说,“这看起来确实是‘开放’的对立面。OpenAI 基本上被微软‘控制’了。
2022 年 11 月 30 日, OpenAI 演示了使用 GPT-3.5 模型的聊天机器人,该公司计划接下来发布完整的 GPT-4。
与此同时,马斯克仍在发表评论。“我们离危险的强大人工智能不远了,”马斯克在推特上回应 Sam Altman 的帖子时说。他称 ChatGPT “好得吓人”。
对于媒体的负面报道,马斯克也积极吃瓜。
2 月 16 日,有新闻报道 Bing 聊天机器人发表“我不会伤害你,除非你先伤害我”的言论,马斯克转发并评论说“可能需要再润色一下……”
对于 stratechery.com 发表的聊天机器人“好斗个性”报道,马斯克转发并表示:“有意思”。
似乎他对任何 Bing 的负面事件都感兴趣,对于类似“Bing 要报复人类”推文,马斯克都会进行点评。
并且宣称我们需要的是一个“TruthGPT”:
3.写在最后
对于马斯克的人工智能威胁论,虽然 AI 乐观派们一直认为这是反应过激,有点危言耸听,但是放到 ChatGPT 爆火之后,我们或许更能理解马斯克的初衷。人们也感觉到负责任地发展一项技术有多么重要,因此马斯克的这次言论得到了更多人的重视,推特用户纷纷发表评论:“疯狂的商业世界充满了假装做慈善工作的骗子。”“WokeGPT”...... 各方媒体也都给予了中立的报道。
OpenAI 是在深度学习的炒作中应运而生的,巨头公司们在 ImageNet 博得眼球之后对深度学习给予了厚望。亚马逊、谷歌、微软、IBM、Facebook……他们生怕自己落在他人之后,而要在竞争中不至于落败,就要吸引足够多的资本介入。然而资本家不是慈善机构,尽管他们身负一定的社会责任,但对于他们来说,首要关注的事情仍然是如何从投资中获得回报。
OpenAI 最初受到推崇,也是因为它的使命感:希望确保该技术得到安全开发,并将其收益平均分配给全世界。现在我们也知道了算法是有偏见的,同时也是脆弱的;他们可以造假,可以欺骗用户。如果被企业资本推动,往往会将它们的权力集中在少数人手中,并因此失去精心监督和指导,那么结果有可能是灾难性的。正像马斯克所说:“这既是积极的,也是消极的,具有巨大的前景和巨大的能力,”但同时也伴随着“巨大的危险”。