多国拟发ChatGPT禁令 关“野兽”的笼子要来了?

“人工智能想越狱“、”AI产生自我意识”、“AI终将杀死人类”、“硅基生命的进化”.......曾经只在在赛博朋克等科技幻想中出现的剧情,在今年走向现实,生成式自然语言模型正在遭受前所未有的质疑。

聚光灯下最瞩目的那个是ChatGPT,3月底到4月初,OpenAI开发的这个文本对话机器人,突然从“先进生产力”的代表变成了人类的威胁。

先是被上千位科技圈的精英们点名,放在“暂停训练比GPT-4更强大的AI系统”的公开信中;紧接着,美国科技伦理组织又要求美国联邦贸易委员会调查OpenAI,禁止发布商业版 GPT-4;后来,意大利成为第一个禁用ChatGPT 的西方国家;德国监管机构跟进表示,正在考虑暂时禁用ChatGPT。

GPT-4连带着它的开发公司OpenAI突然成了众矢之的,呼吁AI监管的各方声音变得越来越响亮。4月5日,ChatGPT以访问量太大为由暂停了Plus付费版,这是一个可以优先体验GPT-4模型的渠道。

如果算力与服务器是GPT-4使用设限的原因,那么这是技术瓶颈使然,但从OpenAI的研发进展看,突破瓶颈的周期可能并不会太长,而人们也已经见识过AI对生产力提升的效果。

可是,当AI造假、泄露数据成为GPT-4实操中的硬币另一面时,AI伦理、人类与AI的边界将成为全世界都无法绕过的问题,人类开始考虑将“野兽”关进笼子里。

泄密、造假问题浮出水面

主权国家对ChatGPT的禁令接踵而至。

3月31日,意大利个人数据保护局宣布,禁止使用聊天机器人ChatGPT,并表示已对该应用背后的公司OpenAI展开调查,原因是ChatGPT出现了用户对话数据和付款服务支付信息丢失情况,缺乏大规模收集和存储个人信息的法律依据。4月3日,德国联邦数据保护专员称,出于数据保护方面的考虑,正在考虑暂时禁用ChatGPT。此外,法国、爱尔兰、西班牙等国的隐私监管机构都在跟进ChatGPT的隐私安全问题。

ChatGPT不仅在丧失各国“信任”。近期,韩国电子巨头三星也因使用ChatGPT出现了问题。据SBS等韩媒报道,三星导入ChatGPT不到20天,便发生 3 起数据泄露事件,涉及半导体设备测量资料、产品良率等内容。对此,三星启动了“紧急措施”:将员工向ChatGPT提问的限制在1024字节以内。据悉,软银、日立、摩根大通等知名企业都曾发出了相关的限用通知。

应了“物极必反”那句老话,ChatGPT为AI产业注入“兴奋剂”、引发科技巨头AI竞速的同时,也带来了无法避免的安全问题,最终遭到多点“封杀”。

数据安全仅是ChatGPT潜在风险中的冰山一角,背后是AI伦理对人类的挑战:人工智能工具缺乏透明度,人类并不清楚AI决策背后的逻辑;人工智能缺乏中立性,很容易出现不准确、带有价值观的结果;人工智能的数据收集可能会侵犯隐私。

“AI伦理与安全”似乎过于宏观,但当我们把视角聚焦于真实案例时,就会发现这个议题与我们每个人息息相关的事。

3月21日,新浪微博CEO王高飞发博晒了一段ChatGPT编造的假信息:“瑞士信贷被强制出售,有172亿美元的AT1债务被直接清零”。网友“一玶海岸”对此指出,此前只有2017年西班牙大众银行破产时出现过AT1债券被减记的情况。

 

新浪微博CEO晒ChatGPT编造的答案

王高飞也在微博上贴出ChatGPT的答案,说这样的例子在2016年的葡萄牙BCP银行事件中也出现过。但结果查证之后发现,BCP银行的例子是ChatGPT编造的并不存在的事件,它给出的两个信源打开也是404。 “知道胡扯,没想到连信源都是胡扯的。”

此前,ChatGPT“一本正经地胡说八道”被网友们当做“梗”,以证明该对话机器人“虽然能直给信息,但存在错误”的问题,这似乎是大模型数据或训练上的缺陷,但一旦这种缺陷介入到容易影响现实世界的事实时,问题就变得严重起来。

新闻可信度评估机构News Guard的联合执行官格洛维茨(Gordon Crovitz)就警告称,“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”

更令人担忧的是,当前的ChatGPT等对话式人工智能一旦出现偏见或歧视,甚至存在诱导用户、操纵用户情感等行为时,就不止是造谣、传谣的后果了,直接引发生命威胁的案例已经出现。3月28日,有外媒消息称,比利时30岁男子在与聊天机器人ELIZA密集交流数周后自杀身亡,ELIZA是由EleutherAI开发的开源人工智能语言模型。

更早前的3月18日,斯坦福大学教授在推特上表达了对AI失控的担忧,“我担心我们无法持久地遏制住AI,”他发现,ChatGPT能引诱人类提供开发文档,30分钟就拟定出了一个完整的“越狱”计划,ChatGPT甚至还想在谷歌上搜索“被困在计算机中的人如何回到现实世界”。

 

斯坦福大学教授担忧AI失控

就连OpenAI的首席执行官Sam Altman也曾发表了耐人寻味的忧虑,“未来AI确实可能杀死人类。”

机器的“偏见”都是人教的?

针对AI造假、AI拥有价值观倾向并产生诱导行为等问题,有一些代表性观点是将机器学习结果的“偏见”归咎于数据集——人工智能就像现实世界中的镜子,折射出社会中人们有意识或无意识的偏见。

英伟达的AI科学家Jim Fan认为,“按照 GPT 的伦理与安全指导方针,我们大多数人也表现得不理性、有偏见、不科学、不可靠,总的来说——不安全。”他坦言,指出这一点的原因是为了让大家了解安全校准工作对于整个研究团体来说是多么困难,“大多数的训练数据本身就是有偏见的、有毒的、不安全的。”

自然语言大模型的确采用了人类反馈的增强学习技术,即通过人们喂给它的大量数据不断学习和反馈。这也是ChatGPT们会产生具有偏见、歧视性内容的原因,但这反映出了数据使用的伦理隐患。哪怕机器是中立的,但用它的人不是。

“算法中立”的说法对话式机器人产生负面影响后变得不受一些人待见,因为它容易失去控制而产生威胁人类的问题,正如纽约大学心理学和神经科学的荣誉退休教授 Gary Marcus 说的那样,“该项目(GPT-4)的技术已经存在风险,却没有已知的解决方案。实际上需要更多的研究。”

早在1962年,美国作家埃鲁尔在其《技术社会》一书中就指出,技术的发展通常会脱离人类的控制,即使是技术人员和科学家,也不能够控制其所发明的技术。如今,GPT的飞速发展似乎已初步验证了埃鲁尔的预言。

以GPT为代表的大模型背后的“算法黑箱”更是人类无法及时应对的隐患,自媒体差评给出了一个形象的比喻,“你只知道给它喂了一个苹果,但它能还你一个橘子”,这是怎么发生的,开发的它的人也无法解释,甚至无法预测它输出的结果。

OpenAI创始人Sam Altman在接受 MIT 研究科学家 Lex Fridman 采访时就坦言,从 ChatGPT开始,AI出现了推理能力,但没人能解读这种能力出现的原因。就连OpenAI团队也没有搞懂它是如何进化的,唯一的途径是向ChatGPT提问,从它的回答中摸索它的思路。

可见,数据如果是作恶者喂的,算法黑箱又难以破解,那么AI的失控就会成为自然而言的结果。

将“野兽”关进笼子

人工智能作为生产力革命的“火种”,我们无法对其说不。但前提是,先将“野兽”关进笼子里。

3月30日,Sam Altman在推特上认同了对人工智能监管的重要性,他认为,AGI的未来需要我们做好三个必要性的准备:

  • 对齐超级智能的技术能力
  • 大多数领先AGI工作之间的充分协调
  • 一个有效的全球监管框架,包括民主治理

 Sam Altman的AGI三建议

建立一个安全可控、可监管的环境,以确保AI在造福人类的同时不会伤害人类利益,这正在成为行业共识。

已经有对此从技术层面上改进。今年1月,OpenAI的前副总裁Dario Amodei标识,正在测试新型聊天机器人Claude。与ChatGPT采用的人类反馈强化学习不同,Claude 基于偏好模型而非人工反馈来进行训练,即通过制定规范化的原则来训练危害较小的系统,从而在根源处减少有害、不可控的信息的的产生。

Amodei曾主导OpenaAI的安全,2021年,他对OpenAI在大语言模型技术还不够安全的情况下开始商业化而感到不满,他带领一批人从 OpenAI 离开并自立门户,创立了Anthropic。

Amodei的做法很像科幻小说家阿西莫夫提到的机器人定律——通过为机器人设定行为准则,来降低机器人毁灭人类的可能。

仅靠企业力量制定人工智能的行为准则还远远不够,否则会陷入“又是裁判员、又是运动员”的问题中,行业内的伦理框架和政府层面的法律监管也不能再“慢吞吞”,通过技术规则、法律法规来约束企业自设行为也是当下人工智能发展的重要课题。

在对人工智能立法层面,目前还没有一个国家或地区通过专门针对人工智能的法案。

2021年4月,欧盟提出了《人工智能法案》,目前仍在审议阶段;2022年10月,美国白宫发布了《人工智能权力法案蓝图》,该蓝图并不具有法律效力,只是为监管机构提供了一个框架;2022年9月,深圳通过了《深圳经济特区人工智能产业促进条例》,成为全国首部人工智能产业专项条例;2023年3月,英国发布《人工智能产业监管白皮书》,概述了针对ChatGPT等人工智能治理的五项原则。

就在4月3日,中国也开始跟进相关人工智能的规则建立——科技部就《科技伦理审查办法(试行)》公开征求意见,其中提出,从事生命科学、医学、人工智能等科技活动的单位研究内容涉及科技伦理敏感领域的,应设立科技伦理 (审查) 委员会。涉及数据和算法的科技活动,数据处理方案符合国家有关数据安全的规定,数据安全风险监测及应急处理方案得当:算法和系统研发符合公亚、公正、透明、可靠、可控等原则。

在ChatGPT引发生成式大模型研发的爆发式增长后,监管有意加快节奏。欧盟工业政策主管Thierry Breton 在今年2月表示,欧盟委员会正在与欧盟理事会和欧洲议会密切合作,进一步明确《人工智能法案》中针对通用AI系统的规则。

无论是企业、学界还是政府,已经开始重视人工智能的风险,建立规则的呼吁与动作出现了,人类并不准备温和地走进AI时代。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/7876.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT从入门到精通,深入认识Prompt

ChatGPT从入门到精通,一站式掌握办公自动化/爬虫/数据分析和可视化图表制作 全面AI时代就在转角 道路已经铺好了 “局外人”or“先行者” 就在此刻 等你决定 让ChatGPT帮你高效实现职场办公!行动起来吧。欢迎关注专栏 。。。。。 还有更多。。。。&…

【Prompting】ChatGPT Prompt Engineering开发指南(1)

ChatGPT Prompt Engineering开发指南1 Prompting指南设置 提示原则策略1:使用分隔符清楚地指示输入的不同部分策略2:要求结构化输出策略3:让模型检查条件是否满足策略4: “Few-shot”提示 原则2:给模型时间“思考”策略1&#xff…

【ChatGPT】Prompt Engineering入门

Prompt Engineering入门 一、什么是 Prompt Engineering?二、我们还需要学习 PE 吗?三、Prompt基础原则 一、什么是 Prompt Engineering? 简单的理解它是给 AI 模型的指令。它可以是一个问题、一段文字描述,甚至可以是带有一堆参数…

大型语言模型LLM的基础应用

ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚…

【ChatGPT】怎样计算文本token数量?

ChatGPT 按 token 计费,当你把一段长文本发送给它时,你如何计算该文本消耗了多少 token? 在非流式访问的情况下,ChatGPT 的回复信息中包含有 token 消耗数量。但是在流式访问的情况下,回复信息里没有 token 数量&…

微软用 ChatGPT 改写 Bing、Edge,市值一夜飙涨 5450 亿元!

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 已经没有什么能够阻挡科技巨头追逐 ChatGPT 的步伐,前有 Google CEO 桑达尔皮查伊亲自下场官宣 Bard AI 对话式系统的到来,后有微软更快一步地推出了应用 ChatGPT 的 Bing 搜索引…

ChatGPT和DALLE-2级联后,输出效果震撼了…

源|机器之心 文|张倩、袁铭怿 生成式 AI 正在变革内容的生产方式。 在过去的一周,相信大家都被 ChatGPT 刷了屏。这个强大的对话 AI 仅用 5 天时间用户量就突破了 100 万。大家用各种方式测试着它的能力上限,其中一种测试方式就是…

ChatGPT 的能力上限将被突破

最近,一篇名为《Scaling Transformr to 1M tokens and beyond with RMT》的论文在 AI 界引起了广泛热议。 该论文提出一种名为 RMT 的新技术,如果能够成功应用,那将把 Transformer 的 Token 上限扩展至 100 万,甚至更多。 GitHub…

ChatGPT 的 10 种集成模式:从开源 AI 体验平台 ClickPrompt 中受到的启发

和国内外的很多公司一样,在 Open AI 公司开放了 ChatGPT API 接口之后,我们也在探索如何去结合到业务中。而在探索的过程中,我们发现了一个问题,大部分的业务人员并不了解 AI 的能力,所以我们开源构建了 ClickPrompt&a…

聊天新纪元:通过和ChatGPT聊天就能开发自己的Chrome插件

文章目录 1. 前言1.1 ChatGPT是什么1.2 ChatGPT能干什么1.3 我要让ChatGPT干什么 2. 环境准备3. 交互过程3.1 发送需求3.2 询问执行3.3 继续提问3.4 加载代码3.5 执行插件3.6 执行插件 4. 生成的代码4.1 manifest.json4.2 popup.css4.3 popup.js4.4 popup.html 5. 总结 1. 前言…

学术科研专用ChatGPT来了!

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达 【导读】最近,一位开发者在GitHub上开源的「科研工作专用ChatGPT」项目大受好评。论文润色、语法检查、中英互译、代码解释等等一键搞定。 自从ChatGPT发布之…

今天,小呆呆第一次尝新ChatGPT,并小火了一把

前言 你盼世界,我盼望你无bug。Hello 大家好!我是霖呆呆。 当我们遇到技术难题或生活困惑时,往往会寻求专业人士的帮助或者在网络上搜索相关问题。但你是否曾想过,如果有一种AI程序能够帮你解决问题,理解人类语言的含义…

ChatGPT真的有那么牛吗?

ChatGPT真的有那么牛吗?ChatGPT真的有那么牛吗? 作为一款大型语言模型,ChatGPT确实具有很高的自然语言处理和生成能力,可以生成流畅、准确和有逻辑性的语言,而且能够理解和回答广泛的问题。 它是目前最先进和最强大的…

大型语言模型用例和应用 Large Language Models Use Cases and Applications

目录 Large Language Models Use Cases and Applications大型语言模型用例和应用 What are large language models and how do they work什么是大型语言模型及其工作原理 Large language model examples 大型语言模型示例 Large language model use cases 大型语言模型用例…

WIKIBON:大模型炒作中,有哪些云与AI的新趋势?

进入2023年以来,以ChatGPT为代表的大模型喧嚣引发了AI的新一轮炒作热潮,堪比当年的加密货币。不同的是,以微软、NVIDIA、AWS、Google等为代表的云与芯片大厂纷纷实质性入局大模型,为大模型AI注入持续的生命力。因此ChatGPT可类比于…

chatGPT爆火让我们反思——人工智能是新的加密货币吗?

核冬天技术末日到来了,只有人工智能幸免于难。峰值 AI 指标无处不在。它能保持加密失去的信念吗? 作者:John Luttig 翻译: Chainwise 核冬天技术末日到来了:软件、SPAC、金融科技和加密货币都进入了深度冻结状态。AI 可能是唯一穿…

这AI二维码也太酷炫了!谷歌生成式AI学习路径;媒体的AI炒作套路报告;使用GPT-4自动化制作短视频 | ShowMeAI日报

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 🤖 新鲜出炉!2023人工智能10大分类排行榜 这是根据2023年6月德本咨询、eNet研究院和互联网周刊联调的人工智能排行榜&#xf…

从“XML一统天下”聊聊我所经历的技术炒作

【编者按】身处技术圈我们,时常会听到“XX 已死,XXX 将一统天下”的论调,本文作者分享了自己入行以来,所经历的各种技术炒作。 原始链接:https://www.bitecode.dev/p/hype-cycles 未经允许,禁止转载&#x…

对话DataFocus创始人:大模型会颠覆ToB行业吗?

​编者按:年初ChatGPT引爆了AIGC,GPT几乎成了软件从业者最高频的话题了。如今时过半载,子弹仍然在飞舞,显然这波浪潮还远远没有到平息的时候。这是一次内部分享,我们有幸和DataFocus创始人JET畅聊了大模型的天南海北&a…

人工智能革命|是疯狂炒作还是大势所趋?

近期关于人工智能的话题与炒作激增。如果你看看过去五年“AI”一词的搜索量,就会发现它一直停滞,直到2022年11月30日,OpenAI 凭借 ChatGPT 引发了人工智能革命。 Google 趋势 — 过去 5 年“AI”搜索量 短短六个月内,究竟发生了…