点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
点击进入—>【计算机视觉】微信技术交流群
梦晨 发自 凹非寺
转载自:量子位(QbitAI)
大模型研究不能停!
吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:
马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过13500人签署。
两人还直言,暂停AI研究就是反理性:
AI研究暂停6个月,才是真正巨大的伤害。
应该受监管的是AI产品,而不是背后的研究。
此前暂停比GPT-4强大的AI试验的呼吁,已得到深度学习三巨头中的Yoshua Bengio签名支持,Hinton未签名但表示“要比6个月更长才行”。
此次吴恩达与LeCun两人, 除了直播阐述各自的观点外,还回应了网友关心的更多问题。
观看了直播和视频回放的网友们则表示,视频出境比推特发言提供了更多的上下文背景和微妙的语气差异。
AGI逃出实验室,需要担心吗?
LeCun认为,现在人们对AI的担忧和恐惧应分为两类:
一、与未来有关的,AI不受控制、逃离实验室、甚至统治人类的猜测。
二、与现实有关的,AI在公平、偏见上的缺陷和对社会经济的冲击。
对第一类,他认为未来AI不太可能还是ChatGPT式的语言模型,无法对不存在的事物做安全规范。
汽车还没发明出来,该怎么去设计安全带呢?
对第二类担忧,吴恩达和LeCun都表示监管有必要,但不能以牺牲研究和创新为代价。
吴恩达表示,AI在教育、医疗等方面创造巨大价值,帮助了很多人。
暂停AI研究才会对这些人造成伤害,并减缓价值的创造。
LeCun认为,“AI逃跑”或者“AI统治人类”这种末日论还让人们对AI产生了不切实际的期待。
ChatGPT给人带来这种想法是因为它语言流利,但语言并不是智能的全部。
语言模型对现实世界的理解非常表面,尽管GPT-4是多模态的,但仍然没有任何对现实的“经验”,这就是为什么它还是会一本正经地胡说八道。
而且这个问题,4年前LeCun已经在《科学美国人》上与冷泉港实验室神经科学家Anthony Zador一起撰文回应过了,标题就叫《不必害怕终结者》。
在直播节目中LeCun再次重申了文章的主要观点。
统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。
而我们完全可以把AI设计成非社会化物种,设计成非支配性的(non-dominant)、顺从的(submissive)、或者遵守特定规则以符合人类整体的利益。
吴恩达则用生物科学史上的里程碑事件“阿希洛马会议”来比较。
1975年,DNA重组技术刚刚兴起,其安全性和有效性受到质疑。世界各国生物学家、律师和政府代表等召开会议,经过公开辩论,最终对暂缓或禁止一些试验、提出科研行动指南等达成共识。
吴恩达认为,当年的情况与今天AI领域发生的事并不一样,DNA病毒逃出实验室是一个现实的担忧,而他没有看到今天的AI有任何逃出实验室的风险,至少要几十年甚至几百年才有可能。
在回答观众提问“什么情况下你会同意暂停AI研究?”时,LeCun也表示应该区分“潜在危害、真实危害”与“想像中的危害”,当真实危害出现时应该采取手段规范产品。
第一辆汽车并不安全,当时没有安全带、没有好的刹车、也没有红绿灯,过去的科技都是逐渐变安全的,AI也没什么特殊性。
而对于“如何看待Yoshua Bengio签署了联名?”这个问题,LeCun表示他和Bengio一直是朋友,他认为Bengio担心的点在于“公司为了盈利掌握科技本质上就是坏的”,但他自己不这么看待,两人观点一致之处在于AI研究应该公开进行。
Bengio最近也在个人网站详细解释了他为什么会签署。
随着ChatGPT到来,商业竞争激烈了十多倍,风险在于各公司会急于开发巨大的AI系统,把过去十几年间开放的透明的习惯抛在脑后。
直播结束后,吴恩达与LeCun两人还在与网友做进一步交流。
对于“你为什么不相信AI会逃出实验室”,LeCun表示让AI在一个特定硬件平台上保持运行都很难了。
对于“AI达到奇点发生突变、不受控制”的回应则是,在现实世界中每个进程都会有摩擦力,指数增长会迅速变成Sigmoid函数。
还有网友开玩笑说,语言模型经常被形容为“随机吐出词汇的鹦鹉”,但真实的鹦鹉危险多了,有喙、爪子和伤害人的意图。
LeCun补充道,澳大利亚凤头鹦鹉更凶狠,我呼吁对凤头鹦鹉实施6个月的管制。
One More Thing
对于影响力越来越大的AI暂停6个月提案,也有越来越多的人表达自己的观点。
比尔盖茨对路透社表示“我不认为让一个特定的组织暂停就会解决这些问题。在一个全球性的行业中,暂停很难执行”。
据福布斯报道,谷歌前CEO埃里克施密特认为“监管部门大多数人对科技的理解还不足以正确规范其发展。另外如果在美国暂停6个月,只会让别的国家受益。”
与此同时,AI研究界另一股声音的影响力也逐渐加大。
由非赢利组织LAION-AI(Stable Diffusion训练数据提供者)发起的请愿书也有超过1400人签署。
这个项目呼吁建设公众资助的国际化超级AI基础设施,配备10万最先进的AI加速芯片,确保创新和安全。
就相当于粒子物理学界的CERN(欧洲核子研究组织)。
支持者包括LSTM之父Jürgen Schmidhuber,HuggingFace联合创始人Thomas Wolf等知名研究者。
完整视频回放:
https://www.youtube.com/watch?v=BY9KV8uCtj4&t=33s
AI转写文本:
https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a
参考链接:
[1]https://twitter.com/AndrewYNg/status/1644418518056861696
[2]https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/
点击进入—>【计算机视觉】微信技术交流群
最新CVPP 2023论文和代码下载
后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF
目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!▲扫码进星球
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看