近日,随着ChatGPT和GPT-4的迅猛发展,人工智能对于人类社会以及文明的影响将是我们需要重视的问题。有人认为ChatGPT的表现引人入胜,但同时也让人感到毛骨悚然。因此,AI是否可靠、是否会导致灾难、机器智能超过人类的“奇点”是否真正存在,这些问题不断涌现。面对这些具备思维和情感的AI,人们是否应该把它们当作工具还是伙伴?是否真的有可能出现AI取代人类控制世界的情况?未来生命研究所29日公布一封公开信,有马斯克等一千多名科技领袖和研究人员签名,呼吁所有AI实验室立刻暂停训练比GPT-4更强大的AI系统至少6个月,再次将这些争论推上了风口浪尖。
-
未来生命研究所公开信
公开信呼吁所有人工智能实验室暂停至少6个月对比GPT-4更强大的人工智能系统的培训,认为具有人类竞争情报的人工智能系统可能对社会和人类构成深刻风险,需要进行合理规划和管理。公开信认为我们应该重新聚焦于使现有的人工智能系统更加准确、安全、可解释、透明、强大、一致、值得信赖和忠诚,并与政策制定者合作,大幅加快开发强大的人工智能治理系统。公开信认为只有当我们确信强大的人工智能系统的影响将是积极的时候,才应该开发它们,并呼吁人工智能实验室和独立专家利用这段时间,共同开发和实施一套高级人工智能设计和开发的共享安全协议,并由独立外部专家进行严格审计和监督。最后,公开信提出了一些建议,包括专门针对人工智能的新的和有能力的监管机构等,以更好地保证人工智能技术的安全与可控。(公开信详细内容附后)
2、各方观点
针对这封公开信,资深媒体人胡锡进评论称:公开信的倡议实现难度较大,需要重要和艰难的谈判过程,并可能对个人,公司和国家带来巨大影响,因此可能只会停留在倡议的层面,没有机会成为人类共同实施的行动。中国需追踪AI领域的变化和竞争格局,并加快通用人工智能的开发和应用,以获得话语权和参与规则制定的权力。更有人认为这是资本市场的一次炒作,将本来就是很热的AI赛道再加上一把火。
关于公开信停止AI技术的研究,我个人也认为这可能是一场秀,他不可能像当初禁止核扩散一样,达成一致的共识。一是因为AI技术发展上没有当初的美苏平衡,二是AI技术发展不像核试验那样的方便核查。因此,我更觉得是一种炒作外加某种道德标准的预热,为今后制定AI技术发展道德标准的在话语权上的预热。
3、需要关注的两个问题
相比是否要停止AI技术的进一步发展,我其实更加关注GPT技术对我们生活的实际影响。
(1)AI技术产生的版权和肖像权等法律问题
GPT自动生成文章、自动生成图片导致的法律问题,包括但不限于版权问题,肖像和名誉权的问题,需要值得重视。
对于这个问题,GPT自己好像也不能回答,我不是法律专业人士,但是,国内法院有判例,一个案例中,著名的深圳南山法院(原告是谁,大家猜猜?),认定AI生成内容为作品,享有著作权。但是也有很多的法律专家认为,AI作品没有独创性,他只是在现有数据的融合。面对飞速发展的技术,还能认为AI产品没有独创性吗?AI产出的作品的版权问题需要在实践中探索。
另外一个更加尖锐的问题,有些人可能会发现自己图像上传至网络后,然后出现在与他们无关的视频中;有人会将自己和喜欢的明星制作出现在同一个视频中,甚至出现违法的图片;包括前段时间很火的特朗普被捕的AI生成图组,这可能会影响到他们的个人权利和隐私保护。AI技术的出现也要求我们对媒体文化和数字时代的真实性和可信度进行反思。我们需要在技术创新的同时,建立更加完善的法规和机制,保护公众和个人的合法权益,切实维护社会安全和稳定。
(2)AI技术加速数字茧房和拉大数字鸿沟
数字茧房是指个人在使用互联网和数字技术时,倾向于只接触符合自己偏好和利益的信息和内容,而忽略其他观点和信息的现象。这种现象在一定程度上可能导致信息狭隘化,思想僵化和社交隔离化等问题。数字茧房现象的出现与互联网算法推荐、社交圈子和群体化等因素有关。而GPT这种问答式的获取知识的渠道,会导致将很多的人限制在AI制造的知识世界里,将过度的依赖AI知识,导致获取知识的手段和能力的蜕化。
数字鸿沟是指在全球数字化进程中,由于不同国家、地区、行业、企业和个人对信息、网络技术的拥有程度、应用程度以及创新能力的差异而造成的信息落差及贫富进一步两极分化的趋势。数字鸿沟的存在使得一些人无法获得或利用数字技术来获取信息、教育、就业、医疗等方面的机会,从而影响其自我发展和社会参与能力。AI技术极大的加快了人们获取知识,利用知识的能力,但是对于没有掌握AI技术的国家,由此产生的差距将会越来越大,就像以前是人力与畜力的差别,现在是人力和火箭的差别,导致欠发达地区发展受限。