“人工智能影响着全世界的人,但人们却无法对如何塑造它发表意见”—— Timnit Gebru。
▲ 摄影:Winni Wintermeyer/卫报
“ 这感觉就像一场淘金热,” Timnit Gebru 说。“事实上,这就是一场淘金热。许多赚钱的人并非真正参与其中。但决定这一切是否应该做的是人类。我们应该记住,我们有权力这做出这样的决定。”
Gebru 谈论的是她的专业领域:人工智能。在我们视频通话交谈的那天,她正在卢旺达基加利,准备在关于人工智能的国际会议上主持一个研讨会,并组织一场小组对话。这次大会主要讨论人工智能能力的大幅增长,以及人们在对人工智能的疯狂讨论中常常忽略的一个事实:许多人工智能系统很可能建立在大量偏见、不平等和权力失衡之上。
这是国际表征学习大会(International Conference on Learning Representation, 简称 ICLR)首次在非洲国家举办(译者注:之前这一会议几乎都在欧美发达经济体举办)——有力地说明了大型科技公司对南方国家的忽视。当 Gebru 谈到“人工智能影响着全世界的人,但人们却无法对如何塑造它发表意见“时,她的背景故事更加鲜明地凸显了这个问题。
Gebru 在埃塞俄比亚长大,十几岁时,埃塞俄比亚和她父母的出生地厄立特里亚爆发了战争,Gebru成为了一名难民。在爱尔兰待了一年之后,她来到了马萨诸塞州波士顿的郊区,并从那里考入了北加州的斯坦福大学,这为她在计算机行业的前沿领域的职业生涯打开了大门:先是苹果,然后是微软,最后是谷歌。但在 2020 年底,她在谷歌的工作突然结束了。
作为谷歌小型伦理人工智能团队的技术联合负责人,Gebru 与人合著发表了一篇学术论文,该论文警告说,现在人工智能已经越来越多地融入我们的生活,明显把互联网搜索和用户推荐提升到复杂的新水平,并且威胁将要掌握写作、作曲和分析图像等人类才能。该论文称,由此产生的明显危害就是这种所谓的“智能”是基于庞大的数据集,这些数据集“过度代表霸权观点,并植入可能对边缘化人群造成损害的偏见”。更直白地说,人工智能有可能加深白人、男性、相对富裕人群并且以美国和欧洲为中心的思维方式的主导地位。
作为回应,谷歌的高级管理人员要求 Gebru要么撤回这篇论文,要么把她和她同事的名字从上面去掉。这引发了导致她离职的一系列事件。谷歌说她辞职了,但 Gebru 坚称她被解雇了。
她说,这一切告诉了她,大型科技公司被开发人工智能的动力所消耗,“你不希望像我这样的人挡你的路。我认为这非常清楚地表明,除非有外部压力要求采取不同的做法,否则公司不会进行自我监管。我们需要监管,我们需要比单纯的利润动机更好的东西。”
▲ 图:Gebru 在 2018 年的技术危机颠覆会议上发表讲话
摄影:金佰利怀特/盖蒂图片社为技术危机拍摄
40 岁的 Gebru 有时说话快得令人眼花缭乱,唯恐我们的谈话时间无法概括她生活中丰富的细节。她倾向于使用技术内部人士的精确、审慎的词汇,同时又带有一种荒诞感,这种荒谬感集中在一个特别尖锐的讽刺上:这个行业充斥着拥护自由、自觉进步观点的人,却似乎经常将世界推向与这些理念相反的方向。
她反复谈及的一个主题是种族主义,包括她在美国教育体系和硅谷所遭遇的偏见经历。她说,当她在马萨诸塞州读高中时,关于她的科学天赋,一位老师直截了当地告诉她:“我遇到过很多像你这样的人,他们认为他们可以从其他国家来到这里,参加最难的课程”。这种直接带有被动攻击性,意味着隐晦地否定或怀疑:尽管她的物理成绩分数很高,但她要求进一步研究该学科的请求遭到担忧,担心她可能觉得太难。
“作为一名移民,种族主义的自由形态让我感到非常困惑,” 她说。“听起来真的很关心你的人,但他们会说:'你不觉得这对你来说会很难吗?' 我花了一段时间才真正搞清楚发生了什么。”
后来发生了一次更明目张胆的偏见经历。当时她和一位朋友(一位黑人女性)在酒吧里遭到袭击。“那是我在美国经历过的最可怕的遭遇,” 她说。“那是在旧金山——另外一个自由主义的地方。我被人袭击了,但是根本没有人来帮助我。看到那样的情景真是太可怕了:你都快要被勒死了,然而路过的人只是漠然地看着你。”
她报了警。“这比不打电话给他们更糟糕,因为起初他们多次指责我撒谎,并不断告诉我,要冷静。然后他们给我的朋友戴上手铐,尽管她刚刚遭到袭击。” 她的朋友后来被拘留在警察局。
在斯坦福大学,虽然她的一些白人同学经常以居高临下的态度问她是否因为平权行动计划而被录取,但她的本科时代是在这样一个环境中度过的:高年级学生至少会“经常谈论种族多样性,而且有来自不同地方的不同人”。在苹果公司担任音频工程师( 2005 年- 2007 年)后,她回到斯坦福大学攻读博士学位,并拥有了截然不同的经历。
她说,她的生活变成了“每天和同一群人一起去办公室——这有点像工作。根本没有人长得像我。这实在是太震撼了。”
▲ 摄影:温妮·温特梅尔/卫报
Gebru:“我不担心机器会接管世界,我担心的是人工智能社区中的群体思维、狭隘和傲慢。”
Gebru 开始专注于尖端人工智能,创立了一个系统,该系统显示了有关特定社区汽车拥有情况的数据如何突出与种族、犯罪率、选举行为和收入水平相关的差异。回想起来,这类工作可能看起来像是可以模糊生成自动监视和执法的技术基石,但 Gebru 承认“我脑子里那些钟声都没有响过。直到后来才意识到技术与多种族性和压迫问题之间的联系”。
不过,很快她就开始深入思考那些大型科技公司的创新如何体现出其办公室、实验室和社交活动中所存在的不平等。2015 年,谷歌不得不就其摄像 APP (人工智能系统)错误地将一对黑人夫妇识别为大猩猩的事件道歉。次年,智库 ProPublica 发现全美用来评估监狱犯人重新犯罪可能性的软件严重歧视黑人。与此同时,Gebru 越来越意识到隐藏在这些故事背后的是科技行业文化中的一些问题。
大约在这段时间,她参加了在蒙特利尔举行的一个大型人工智能会议,在一场谷歌的派对上,一群白人男子公然骚扰她。“有个人强吻了我,另外一个人拍了照片。我有点呆住了:我什么都没做。他们在学术会议上开派对,吧台酒水无限畅饮,他们甚至没有明确表示这是一个专业活动。很明显,你永远不应该以这种方式骚扰女性或任何人。但这在这些会议上,类似行为很普遍。” 会议的组织者表示,他们后来“制定”了行为准则,他们现在设有“一个受到密切监控的新的一站式联络点,用于处理关注和投诉”。
接下来的一年, Gebru 特意统计了同一活动中其他黑人参与者的人数。她发现,在 8500 名代表中,只有 6 个人是有色人种。作为回应,她在 Facebook 上发了一篇现在看来很有预见性的帖子:“ 我不担心机器接管世界。我担心的是人工智能社区的群体思维、孤立和傲慢。”
在这种情况下,Gebru 在微软人工智能实验室(具有相对公平、问责制、透明度和道德规范)工作了一年后,又在谷歌找到了新的工作,这似乎很令人惊讶。2018 年,由于聘请的算法偏见领域的专家 Margaret Mitchell 的原因,她受聘去共同领导一个致力于人工智能伦理的团队。 “我满心惶恐,” 她说,“但我想:‘好吧,Margaret Mitchell 在这里。我们可以一起工作。我还能和谁一起工作呢?但这就是我进入它的方式。我想:'我想知道我能在这里坚持多久。'”
“这是一个艰难的决定,”她说。“因为当我去谷歌的时候,我从几位女性那里听说了性骚扰和其他类型的骚扰事件,尽管她们在遭到骚扰时说:'不要这样做。'” 但仍然无济于事。
当 Gebru 加入公司时,谷歌员工正大声反对公司参与 Maven 项目。该项目使用了人工智能分析军用无人机拍摄的监控录像(谷歌于 2018 年结束了参与)。两个月后,谷歌员工参加了针对系统性种族主义、性骚扰和性别不平等的大规模罢工。Gebru 说她意识到“这里对骚扰和各种不端行为的容忍度很高”。
▲ 2018 年 11 月,纽约的谷歌员工举行罢工
摄影:布赖恩 R 史密斯/法新社/盖蒂图片社
为了突出围绕人工智能的一些道德和政治问题,她的团队聘请了谷歌的第一位社会科学家。她和她的同事们为自己的小业务的多样性以及他们引起公司注意的事情感到自豪,其中包括与谷歌对 YouTube 的所有权有关的问题。来自摩洛哥的一位同事对该国一个名为 Chouf TV 的热门 YouTube 频道提出了警告,“该频道基本上由政府情报部门运营,他们用它来骚扰记者和持不同政见者。但 YouTube 却对此什么也没做。”(谷歌表示我们“需要审查内容以了解它是否违反了我们的政策。但是,总的来说,我们的骚扰政策严格禁止威胁个人、基于内在属性对某人进行长期或恶意侮辱或泄露个人身份信息的内容。”)
然后,在 2020 年,Gebru 、Mitchell 和另外两位同事撰写了导致 Gebru 离职的论文。这篇论文的标题是《论随机鹦鹉的危险:语言模型会不会太大?》,主要的争论点是关于以所谓的大语言模型为中心的人工智能,比如 OpenAI 的 ChatGPT 和谷歌新推出的 PaLM 2 。粗略地说,它们利用大量数据来执行复杂的任务和生成内容。
这些来源通常来自万维网,不可避免地包含通常受版权保护的内容(例如,如果人工智能系统可以按照特定作家的风格创作散文,那是因为它吸收了其大部分作品)。但 Gebru 和她的合著者们有一个更严重的担忧:从网络世界获取资源有可能重现其最糟糕的方面,从仇恨言论到那些排斥边缘化人群和地方的观点。他们写道“在接受大量网络文本作为‘全’人类的‘代表’时,我们冒着使主流观点永久化、加剧权力失衡和进一步加剧不平等的风险。”
当论文提交内部审查时,谷歌的一位副总裁很快联系上了 Gebru 。她说,谷歌提出了一些模棱两可的反对意见,比如她和她的同事对人工智能过于“消极”。然后,谷歌要求 Gebru 要么撤回这篇论文,要么从中删除谷歌员工的名字。
她告诉公司不会撤回论文,只有在谷歌明确表示反对的情况下才会删除作者的名字。如果不是这样的话,她说,她会辞职。她还向在谷歌人工智能部门工作的女性发了多封电子邮件,称该公司正在“压制边缘化的声音”。
然后,在 2020 年 12 月,在她休假期间,她最亲密的一位同事给她发了条短信,询问他们看到的一封说她已离开公司的电子邮件是否属实。随后谷歌的报道称因为产生了“与公司对谷歌经理的期望不一致的行为”。
我好奇她当时的感受如何?“我没有思考。我只是行动,比如:‘我需要一个律师,我需要把我的故事说出来。我想知道他们在计划什么,我想知道他们会怎么说我。'”她停顿了一下。“但我被解雇了。在我休假期间,在疫情期间去探望我妈妈的路途中。”
▲ 图为位于加利福尼亚州山景城的谷歌总部
照片:阿纳多卢通讯社/盖蒂图片社
为了回应 Gebru 关于谷歌工作场所骚扰和不端行为的说法,她在蒙特利尔聚会上的经历以及她离职的性质,该公司的新闻办公室通过电子邮件向我发送了一组“背景资料”。
“我们致力于建立一个安全、包容和相互尊重的工作场所,我们非常重视不端行为,”谷歌表示,“我们有严格的反骚扰和歧视政策,彻底调查所有报告的问题,并对经证实的指控采取坚决行动。我们还为员工提供了多种方式来报告问题。”
五年前,该公司彻底改革了“我们处理和调查员工问题的方式,为报告问题的员工引入了新的关怀计划,并使仲裁成为谷歌员工的可选项”。
关于人工智能系统使用受版权保护的材料的问题,一位发言人表示,谷歌将“负责任地、合乎道德地、合法地在这一领域进行创新”,并计划“继续与出版商和生态系统合作和讨论,以找到让这项新技术成为帮助加强他们的工作并使整个网络生态系统受益的方法”。
离开谷歌后,Gebru 创立了分布式人工智能研究所(Distributed AI Research, 简称 Dair),并全身心地投入其中。“我们在美国、欧盟和非洲都有人参与,”她说。“我们有社会科学家、计算机科学家、工程师、难民倡导者、劳工组织者、活动家……这是一个多元化的团队。”
她告诉我,研究所的研究员包括一名前亚马逊的送货司机,还有一些曾经从事过单调且有时令人痛苦的工作的人,这些工作是人工标记在线内容(包括非法和不端内容)以训练人工智能系统。这些工作大多在发展中国家进行。“人工智能领域存在大量剥削,我们希望将其公开,让人们知道哪里出了问题,”她说。“而且,人工智能不是魔法。有很多人参与其中 ——《 humans 》。”
同时,她还寻求超越科技行业和媒体的趋势,将注意力集中在对人工智能接管地球和消灭人类的担忧上,而关于这项技术的作用以及它对谁有利和有害的问题却被忽视。
“这种对话将主动权归因于工具,而不是构建工具的人类,”她说。“这意味着你可以集中责任:‘这不是我的问题。这是工具的问题,它强大到我们不知道它会做什么。嗯,不,问题出在你自己身上。你正在构建具有某些特征以获取利润的东西。这非常让人分心,会把注意力从真正的伤害和我们需要做的事情上转移。”
与她在硅谷的老雇主对峙时,她感觉如何呢?
“我不知道我们是否会改变他们,”她说。“我们永远不会得到一千万亿美元来做我们正在做的事情。我只是觉得我们必须竭尽全力。也许有足够多的人去做这些小事并组织起来,事情就会发生改变。这是我所希望的。”
原文链接:https://www.theguardian.com/lifeandstyle/2023/may/22/there-was-all-sorts-of-toxic-behaviour-timnit-gebru-on-her-sacking-by-google-ais-dangers-and-big-techs-biases
作者丨John Harris ( twitter: @johnharris1969 )
译者丨文涛
审校丨LsssY
编辑丨李楠
相关阅读 | Related Reading
HuggingFace 的魔转折
倒计时2天|快来开源之夏 2023 递上你的项目申请!
开源社简介
开源社成立于 2014 年,是由志愿贡献于开源事业的个人成员,依 “贡献、共识、共治” 原则所组成,始终维持厂商中立、公益、非营利的特点,是最早以 “开源治理、国际接轨、社区发展、项目孵化” 为使命的开源社区联合体。开源社积极与支持开源的社区、企业以及政府相关单位紧密合作,以 “立足中国、贡献全球” 为愿景,旨在共创健康可持续发展的开源生态,推动中国开源社区成为全球开源体系的积极参与及贡献者。
2017 年,开源社转型为完全由个人成员组成,参照 ASF 等国际顶级开源基金会的治理模式运作。近九年来,链接了数万名开源人,集聚了上千名社区成员及志愿者、海内外数百位讲师,合作了数百家赞助、媒体、社区伙伴。