OpenAI 创始人再签联名信,一句话声明简短有力AI或引发灭绝风险

79b284e67ee4b201aae610533ea7d966.jpeg


作者 |  刘燕,核子可乐 全球 AI 大牛又签署一封公开信: AI 或将引发“灭绝风险”

本周二,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。

CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。

正所谓字越少、事情越大,声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”

在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授,据悉,目前约超过 350 名从事人工智能工作的高管、研究人员和工程师签署了这份公开信。

作为风口浪尖上的人物,声明发表之际 OpenAI 掌门人 Altman 正访问全球,与各国元首就 AI 及其潜在风险展开讨论。5 月初,Altman 还参与了美国参议院关于 AI 行业的监管听证。

这份关于 AI 风险的模糊声明,很快激起了反对者的批评。

从内容上看,这份声明没有对 AI 做出确切定义、也没有提及要如何缓解灭绝风险,只是将这项工作放在了与其他全球性社会问题相同的高度。

但在另一份新闻稿中,CAIS 进一步强调希望“设置护栏并建立相关机构,确保 AI 风险不会让人类措手不及。”

2 个月前,马斯克等人 呼吁叫停 AI 研发

2 个月前,AI 领域数十人共同署名、科技富豪马斯克高调参与的一封公开信震惊世界。

今年 3 月 22 日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比 GPT-4 更强大的人工智能系统的训练,暂停时间至少为 6 个月。

马斯克、图灵奖得主 Yoshua Bengio、苹果联合创始人 Steve Wozniak、Stability AI 创始人兼 CEO Emad Mostaque、DeepMind 高级研究科学家 Zachary Kenton、AI 重量级人物 Yoshua Bengio(通常被称为“AI 教父”之一)和该领域研究的先驱 Stuart Russell 等上千名科技大佬和 AI 专家已经签署公开信。

公开信中提到,通过广泛研究和顶级 AI 实验室的调查认可,具备类人智能的 AI 系统很可能对社会和人类构成深远风险。正如广受推崇的阿西洛马 AI 原则中所述,高级 AI 可能代表着地球生命史上一场影响深远的变化,应给予相应的关注和资源进行规划和管理。但遗憾的是,我们并没有看到这种级别的规划和管理。最近几个月来,AI 实验室陷入了一场失控般的技术竞赛,全力开发和部署一颗颗愈发强大的“数字大脑”,但就连创造者自己都无法理解、预测或可靠地加以控制。

公开信认为,这种暂停应当对外公开且可加验证,涵盖所有关键参与者。如果未能迅速实施暂停,政府应介入并强制要求其暂停。各 AI 实验室和独立专家则应把握这次暂停,共同开发和实施一套用于高级 AI 设计和开发的共享安全协议,并由外部独立专家进行严格审计与监督。这些协议应确保依其构建的系统具备无可置疑的安全性。AI 研究和开发工作应当集中注意力,努力让目前最强大、最先进的系统变得更准确、更安全、更可解释、更透明、更稳健、更一致,也更加忠诚且值得信赖。与此同时,AI 开发商必须与立法机构合作,加快开发出强大的 AI 治理体制。

通过这封公开信可以看出,人们想要叫停更先进的 AI 系统的研发,无非是担心在缺乏有效监管的情况下,AI 发展太快会为人类社会带来一系列潜在隐患和危险。更重要的是,AI 太过强大了,发展到一定成程度时甚至人类都无法掌控它。

AI 伦理专家:并不 Care 这类警告 AI 风险的公开信

但,长期关注 AI 伦理问题的专家,对这类公开信根本不感兴趣。

Hugging Face 公司机器学习研究科学家 Sasha Luccioni 博士觉得 CAIS 的这封信如同儿戏:“首先,声明把 AI 的假想风险跟流行病和气候变化等现实威胁混为一谈,这只会扰乱公众的基本判断。这同时也是一种误导,只要把公众的注意力吸引到未来风险上,他们就会忽略当前的更多有形风险,比如 AI 偏见、法律纠纷和同意权等。”

作家兼未来学家 Daniel Jeffries 也发推称,“AI 的风险和危害如今成了一种表明立场的游戏,每个人都想在这波风潮下扮演好人……问题是这么吵来吵去有用吗?看着挺好,但没人真正付出,完全是在浪费时间。”

CAIS 是总部位于旧金山的非营利组织,目标是通过技术研究和宣传“减少 AI 引发的规模化社会风险”。其联合创始人之一 Dan Hendrycks 拥有加州大学伯克利分校的计算机科学博士学位,之前还曾在 DeepMind 实习。另一位联合创始人 Oliver Zhang 也时常在 LessWrong 论坛上发表关于 AI 安全的帖子。

在机器学习领域,一部分 AI 安全研究者总是担心比人类更聪明的超级 AI 将很快出现、脱离约束,要么控制人类文明、要么彻底消灭人类文明。作为目前这波 AI 浪潮的发起者,OpenAI 的基础安全工作也是围绕着这种“AGI”(通用人工智能)焦虑而展开。换言之,AI 末日论在科技行业中已经颇有市场。

但也有不少人觉得,签署这样一封内容含糊的公开信没有任何意义,无非就是让从业者们减轻一点内心深处的道德压力。Luccioni 强调,“这群创造出 AI 技术的人参与声明,无非是给自己博取了个好名声。”

这里澄清一点,Luccioni 和她的同事们并非认定 AI 毫无危害,而是觉得重点考虑未来的假想风险会让人们忽略目前客观存在的 AI 负面影响。这些影响正在带来棘手的道德难题,而科技巨头们却无视威胁、大肆出售相关产品。

Hugging Face 首席伦理科学家 Margaret Mitchell 认为,“某些弱势群体已经因此受到伤害:基于 AI 的监控系统正强迫伊朗女性保持传统穿着,甚至对某些群体施以监视和软禁。”

尽管有朝一日,某种形式的先进 AI 也许确实会威胁到全人类,但批评者们认为 2023 年讨论这个问题还为时过早、不可能带来建设性的帮助。对于尚不存在的问题,如何开展研究?

Jeffries 也发推重申了这一观点,“AI 远期风险是种不切实际的幻想,我们无法解决并不存在的问题。这完全是在浪费时间,我们应当集中精力解决当下的问题,未来的事就交给未来去办。”

AI“教父”Yoshua Bengio : 面对毕生工作成果,我也很“迷茫”

近日,在这封最新的公开信上签名的 AI 大牛科学家,Yoshua Bengio 在接受采访中坦言,他开始对自己这一辈子的工作成果感到“迷茫”。

         

10716de64feb4a915275ce0353984d66.jpeg

   

作为 AI 三大“教父”之一,他在该领域做出了不少开创性的贡献。而 AI 的发展方向和惊人速度正引发他的忧虑。Bengio 教授表示自己曾经出于认同感而投身其中,但如今的状况却让他困惑不已。

“从情感上讲,身处 AI 领域内部的人们肯定都受到了冲击。“迷茫是真的,但我们还是得继续前进,必须参与其中、加入讨论、鼓励他人和自己一同思考。”

这位加拿大学者最近签署了两份声明,敦促对 AI 的未来风险保持谨慎态度。部分学者和行业专家已经发出警告,称 AI 发展过快可能导致这项技术被恶意人士滥用。即使抛开这一层,AI 自身也有可能引发恶劣影响。

Bengio 教授也加入了 AI 监管的行列,并表示他个人认为不该把 AI 的能力给予军方。Bengio 教授认为,一切构建强 AI 产品的企业都应当注册报备。

“政府需要跟踪这些企业的活动,对工作内容展开审计,对 AI 产业起码也要像飞机、汽车或制药等领域一样施加监管。”

“我们还需要推动 AI 相关人员的资质认证……包括道德培训。大家可能不知道,计算机科学家很少能接触到这方面知识。”

Geoffrey Hinton: 曾表示痛悔毕生工作

另一位 AI“教父”Geoffrey Hinton 博士也签署了 Bengio 教授参与的声明。

本月月初,有外媒报道称, Geoffrey Hinton 辞去了在谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。

Geoffrey Hinton 作为“三位 AI 教父”之一,与另外两位合作伙伴共同获得了 2018 年图灵奖,旨在表彰他们为当前 AI 繁荣做出的基础性贡献。但现在的他却对自己投入一生的研究感到遗憾。

根据《纽约时报》对他的采访,Hinton 在辞去在谷歌的工作后,也终于可以畅谈 AI 技术背后的风险了。已经在谷歌工作十多年的 Hinton 表示,“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶。”

虚假信息的传播只是 Hinton 眼下想要强调的风险之一。从长远来看,他担心 AI 会彻底消除一切需要大量记忆的工作,而随着其逐步编写并运行构成自身的代码,AI 也许会最终取代人类。

Hinton 在采访中指出,“其实不少人都相信,AI 实际上能够变得比人类更聪明,但大多数人认为这还很遥远。没错,我也曾经觉得还很遥远,没准要再过 30 年、50 年甚至更久。但现在,我显然没法再这么想了。”

在接受 BBC 采访时,他甚至提到 AI 聊天机器人已经构成“相当可怕”的威胁。“据我所知,目前的 IT 还不比我们聪明,但我相信它们很快就会超越人类。”

不一样的声音: Yann LeCun 对 AI 发展比较乐观

不过 AI 领域也有不一样的声音存在。

第三位“教父”Yann LeCun 与 Bengio 和 Hinton 共同凭借开创性贡献获得了图灵奖,但他的态度比较乐观,认为 AI 毁灭人类的警告有点言过其实。

还有人觉得在务虚讨论之前,应当先解决迫在眉睫的真问题。

AI 公司 Huggingface 研究科学家 Sasha Luccioni 博士认为,社会应该关注 AI 偏见、预测性执法和聊天机器人传播错误信息等问题,她觉得这些都是“非常具体的现实危害”。

“我们应当关注这些问题,而不是深陷 AI 可能毁灭人类的假想泥潭。”

除了风险,AI 也确实给人类社会带来不少福祉。上周,AI 工具就发现了一种新型抗生素。而借助 AI 技术开发的微芯片,也让一名瘫痪男子能在意念控制下正常行走。

但好消息再多,也无法抵消人们对 AI 冲击各国经济的深远担忧。众多企业已经开始用 AI 工具取代人类员工,好莱坞编剧正就这个问题组织集体罢工。

Bengio 教授在谈到 AI 现状时认为,“亡羊补牢,为时未晚。这就像应对气候变化问题一样。我们向大气排放了大量的碳,虽然不可能一夜之间就停止排放,但我们至少该认真想想当下能够做点什么。”

参考链接:

https://www.bbc.com/news/technology-65760449?at_medium=RSS&at_campaign=KARANGA

https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/

https://www.infoq.cn/article/Y9rIogQk8Sjt33bLDMHk

今日荐文


不该走的人正被逼走,RustConf粗暴撤换主讲人事态升级引发多人出走,根源出在Rust领导小组不愿交权?

碾压ChatGPT?Meta开源多语言大模型,可识别4000多种语言、错误率仅为OpenAI产品的一半



本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/33531.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

大模型激战正酣,王坚能否带领阿里云王者归来?

‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 5月11日,有消息称,十年前卸任阿里云总裁的王坚,将于近日以全新职位,全职加入阿里云。公开资料显示,作为阿里云创始人,王坚在2009年创办阿里云&#xff…

吴恩达杨立昆亲自下场开直播:GPT-5不能停!

编|梦晨 源|量子位 大模型研究不能停!吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过135…

GPT-5不能停!吴恩达直播回怼马斯克:汽车都还没发明,要什么安全带?

省时查报告-专业、及时、全面的行研报告库 省时查方案-专业、及时、全面的营销策划方案库 【免费下载】2023年3月份热门报告合集 【限时免费】ChatGPT4体验,无需翻墙直接用 ChatGPT:AI模型研究框架 ChatGPT团队背景研究报告 ChatGPT的发展历程、原理、技…

GPT-5 不能停!吴恩达 LeCun 直播回怼马斯克:汽车都还没发明,要什么安全带

转自:量子位 | 公众号 QbitAI 大模型研究不能停! 吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了: 马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过135…

GPT-5 不能停!吴恩达回怼马斯克:汽车都还没发明,要什么安全带?

转自:量子位 | 公众号 QbitAI 大模型研究不能停! 吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了: 马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过135…

【LLMs】第 1 章:大型语言模型概述

🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎 📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃 🎁欢迎各位→点赞…

通过准确性、可解释性、校准度和忠实度,对ChatGPT的能力进行全面评估

作者:李博,方格翔,杨洋,王泉森,叶蔚,赵文,张世琨单位:北京大学知识计算实验室(KCL)论文:https://arxiv.org/abs/2304.11633代码和数据开源&#x…

无论BlockCity是否并购的天涯社区,请保留住我们的青春回忆

这几天,网上疯传着天涯社区将被BlockCity收购的消息,我也看了很多人发表的文章和观点,可我真正关心的,不是传闻是否可信,也不是这两个平台合作后会有怎样的表现,以及BlockCity区块城市能不能成为元宇宙时代…

6种互联网创业副业策略

今天给大家分享几个实操项目,不需要太多成本,尤其是最后一个项目,让你轻松上手,直接赚钱。1、AI工具近期非常火的ChatGPT,有些人可能不知道这是什么,但另一些人已经利用它每天赚钱。他们通过买卖账号赚取差…

【C#基础】简单的双色球彩票模拟介绍

欢迎大家一起交流学习 目录 前言 一、双色球原理介绍 二、具体实现 1.买票函数 2.创建机选球 3.比较函数 三.主函数 四、测试 总结 前言 本文介绍了简单的双色球彩票模拟介绍的基础内容。 提示:以下是本篇文章正文内容,下面案例可供参考 一、双…

java模拟双色球统计红球篮球出号

本人由于连续多个月买双色球未中,气愤之下突发奇想,自己写了个双色球统计算法(菜鸟写得不好忘包涵) 该功能只是程序自动生成的选号,原本打算用网络爬虫来从360彩票网站爬取数据。即从360网站彩票随机工具随机生成100-…

chatgpt赋能python:Python词性分析:一步步了解自然语言处理技术

Python词性分析:一步步了解自然语言处理技术 Python是一种高级编程语言,拥有广泛的应用领域。自然语言处理技术是其中一个重要的领域,它包含了词性分析、命名实体识别、句法分析等多项任务。词性分析是自然语言处理中的基本任务之一&#xf…

SCI论文降重技巧盘点 - 易智编译EaseEditing

要想顺利发布SCI论文,首先就是要保证论文的原创性和创新性。要知道论文写作当中对于文献和资料的引用是必不可少的,所以论文的重复率很有可能会超标,对于这点要留意。 免费的查重网站有PaperYY、百度学术查重、Freecheck、Paperpass等等&…

chatgpt赋能python:Python降重:让数据更干净,让SEO更有效

Python降重:让数据更干净,让SEO更有效 在数据处理过程中,数据重复性是一个很常见的问题。而在SEO优化中,数据质量则直接关系到搜索结果的准确性和排名效果。因此,降重是一个非常重要的步骤,让数据更加干净…

工程数学参考用书应用概率统计(陈魁)部分答案1~6章

今天把研究生课程工程数学的作业全部写完了,作业答案就此丢掉未免有点可惜,不如留在此处,留待有缘人! 第一章 随机事件及其概率 习题1.3、1.4、1.5、1.8、1.9、1.12,答案见下图 第二章 离散型随机变量 习题2.1、2.…

二十种题型带你复习《概率论与数理统计》得高分(高数叔)

题型一 事件及概率的运算 知识点 注意: 1 互斥与对立事件 2 事件的差 注意: 1 德摩根律注意: 1 加法公式 2 减法公式(事件的差)题目 注意: 1 填空题注意: 1 德摩根律 2 三个事件的和的公式 3 两个事件的积事件为…

Edexcel ALevel数学P2考题解析

数学是很多学科的基础,同时也是A Level中一门非常重要的课程。是基本所有中国学生会选择的科目,A Level的数学,就学科内容来说,内容的跨度很大,从简单的国内初中知识一直延伸到大学的微积分内容。而且有些下属科目如统…

留学生可以用ChatGPT来钻空子吗?

OpenAI在11月30日发布了ChatGPT,仅在一周内,用户数量就超出了100万人,可以说是爆火出圈了! 然而,很多人也正在试图利用ChatGPT来钻空子。大学生开始用ChatGPT写Essay,科研人用ChatGPT写论文,这让…

深度学习实战7-电商产品评论的情感分析

文章目录 一、前期工作 导入库包导入数据数据处理 二、神经网络模型构建 三、训练模型与测试 大家好,我是微学AI,今天给大家带来一个京东商品评论的情感分析与预测实战案例。 进几年网上购物越来越流行,在加上疫情的缘故,很多…

PHP对接阿里云虚拟号-号码隐私保护

博主使用的fastadmin 封装框架 实现功能:AXN隐私号绑定、解绑; 场景:为店铺手机号开通虚拟号,用户联系店铺展示虚拟号码; 官方开放文档地址:https://help.aliyun.com/document_detail/59655.html?spma2…