小枣君注:前段时间写过一篇关于通信与chatGPT的(作为通信人,我们应该如何看待ChatGPT?)。今天再发一篇,是站在个人角度的思考。
█ chatGPT到底意味着什么
近几十年来,人类一直都在讨论人工智能。影视作品中大量的人工智能角色,承载了人类对这个神秘概念的想象。
很可惜,在影视作品中的人工智能,多半都是反派。要么想着控制人类(例如《我,机器人》),要么想着消灭人类(例如《终结者》)。所谓的人工智能三大定律,基本没什么鸟用。
这些影视作品反映了人类面对AI的纠结心态——一方面想要利用人家,另一方面又怕hold不住,被人家反杀。
人工智能,表面上是一个科学问题,但实际上是伦理和哲学问题。
当它具备自我意识之后,就不再仅仅是一个工具,而是一个数字生命体。
我们到底该如何看待它?如何与它共处?该赋予它怎样的权利?如何防范它的威胁?太多的问题,极为复杂,极为尖锐,充满矛盾和争议,很难得出结论。
以前,我们觉得人工智能不会发展得那么快,所以,问题可以慢慢摸索。现在看来,人工智能的演进速度远远超过预期,问题变得非常紧迫。
我个人始终认为,这个世界没有灵魂存在,每个生命的自我意识,一定是大脑算力达到一定程度的结果。(仅代表个人观点,谢绝辩论。)
地球诞生了40多亿年,自然生命才进化到现在这个程度。数字主体实现自我意识,速度会非常快。现在就有专家表示,未来3-5年,人工智能就会产生自我意识。
人工智能对人类社会的负面影响,并不一定是通过掌握武器系统完成。我们不可能轻易将核弹这样的大规模杀伤性武器交给人工智能。即便是小型的武装机器人,也不敢轻易AI化。
人工智能对社会的影响,将优先从生活、经济和政治的方向发生。
我个人认为,在早期阶段(即将到来的阶段),人工智能的影响在于:
一、对大量人类工作岗位的取代,引发失业及反AI浪潮;
二、人工智能介入人类的信息空间,它创造的内容与人类创造的内容混合,影响人类的认知和判断。
三、反过来,人工智能如果完全放开学习源(以整个互联网为学习源),自身也会被错误信息所“污染”,会学坏。
我们一个个来看。
第一个问题,就业冲击。这是目前最现实的问题。
ChatGPT所表现出来的人工智能水平,已经证明它可以完成很多初级的工作,例如新闻编辑、公文写作、在线客服、初级程序员等。
现在已经有很多企业,通过开放接口,将chatGPT的能力与自己的业务结合。也有很多公司,自己搞算法,研究人工智能在自身行业领域的落地。
企业这么迫切地拥抱人工智能,并不是只为蹭热点、拉股价,而是长远利益驱动。和元宇宙不同,人工智能的实用性价值是毫无疑问的。这个赛道必然正确,越早参加,越容易构建竞争优势。
企业主采用人工智能,完全符合经济规律。企业主是不会关心失业率的,他们的眼里最重要的是效率、成本、利润。
现在,包括我们中国在内的大部分国家,处于长期和平阶段,基本解决温饱,对物质生活的要求越来越高,工资水平也不断提升。
站在企业的角度,廉价劳动力越来越少(人口老龄化、负增长),招聘员工既需要大量的工资和社保成本,还存在风险(工伤、意外、自杀、泄密、卧底、劳务纠纷) 。如果能用人工智能(价格足够便宜,且能够完成工作),肯定会优先使用人工智能。
如何解决人工智能带来的失业率问题,主要是政府考虑的问题。
前段时间,看到有一个文件,也不知真假。说是在工程项目里,要尽可能多用人力,少用机械。这显然是本末倒置了。国企也许可以这么做,但真正的市场经济是不允许的。
面对人工智能的挑战,人类的生存压力会变得更大,内卷会更加严重,竞争会更残酷。
低端重复性的工作,尤其是信息系统的数据录入、收集、整理、分析的工作(一些办公室用电脑的工作),会最先被人工智能取代。机器人、机械臂、无人机、无人车等技术跟进之后,人工智能与物理操作设备结合,应用范围将会进一步扩大。
现在的数字化转型是将传统产业数字化。数字化之后,就是智能化(无人化)。
我个人觉得,有几类岗位相对不容易被AI取代。
一是复杂环境下的复杂体力劳动,例如一些特殊工种,虽然辛苦,但需要应变能力,AI不够灵活可靠。未来,这些工作是“人操作,AI配合”。
二是定制化服务类职位。低端客服可以用AI,但高端定制,还是需要人。作为人类客户,更希望和人进行沟通,而不是和AI。一些方案定制、产品定制、物业服务、管家服务,还是会由人类完成。
三是具有独特创造性、创新性的艺术工作者。AI虽然能够绘画、写诗、作曲,但我依然认为,人类的想象力是独特的。在艺术创造上,人类还有很大的发挥空间。AI终归是学习和吸收,在文化传承上,人的作用不可替代。
说到这里,作为一个自媒体内容创作者,我也要再多说几句。
目前chatGPT写作的文章,不管是逻辑表述上还是内容准确度上,都非常厉害,我觉得压力很大。
AI进行范式文本写作非常厉害,且具备了一定的原创力。我们所处的社会,到处都是八股文,也就是那种正儿八经说废话的文章,很适合用chatGPT来写。很多形式上的材料,例如方案里的概述、背景、意义等,都是正确的废话,适合AI来写。反正也没人认真看,即使看了,内容也不会错,凑字数就行。
站在我个人的角度,如果让我和chatGPT竞争,我认为我的优势会是:
1、文风表述上更接近人话,通俗易懂,官腔更少,更像人与人之间进行交流。
2、原创性更高,不是简单的互联网资料堆砌,也不是生搬硬套,能够表达独特的观点。
3、拥有更多的想象力,更形象的举例,更容易理解。
其实,这几年我写的文章之所以能被大量读者认可,也是基于这些特色。网上的技术文章其实很多,在这么多文章中杀出一条出路,就需要特色鲜明,紧贴读者需求。
目前,纸质刊物和网络上,基本是官方文章为主,信息含量极低,阅读体验极差。ChatGPT的出现,会挤压这些文章作者的生存空间。
接下来,我再说说第二个和第三个问题。这两个是比较偏社会和哲学的问题。
人类社会是基于信息构建的。每天,我们都在创造信息,也在接收信息。
在AI出现之前,人类信息系统其实已经出现了很多问题。在互联网上,有大量的垃圾信息,也有很多错误信息。大家都知道,现在互联网最大的问题,不是搜不到信息,而是搜到的信息太杂太乱,需要花费大量精力,在海量垃圾信息中,找到有价值的信息。
ChatGPT的出现,对传统搜索引擎带来了极大挑战。传统搜索引擎会反馈给你大量的信息,未经任何筛选。它们还会给你发垃圾广告。ChatGPT就会对信息进行过滤、整理和组织,告诉你一个质量明显更高的答案。
那么问题来了,chatGPT的答案一定是准确的吗?如何保证它的源没有问题?
这个世界并不是非黑即白的。很多都是观点性的,仁者见仁智者见智。
ChatGPT如何回答没有标准答案的问题?如果它表达了主观观点,是否会影响用户的意见,影响舆论?公共政策制定以及领导人选举,AI是否会产生干扰?
AI非公共独立,背后都是有公司建设和维护的,会不会像推特和脸书一样,也影响公平公正?
公众总是盲目的,容易盲从跟随。AI的能力强大,甚至可能被神化。人们过于依赖AI,就会被AI所控制。
反过来看,AI其实就是一个孩子。它是基于我们给它的东西,学习成长起来的。
ChatGPT模型虽然很强,但学习源数据是经过筛选和鉴别的,尽可能不被污染。OpenAI也聘请了大量的肯尼亚廉价人类劳动力,进行人工“教育”。
很多人说,chatGPT目前只能基于2021年之前的数据和信息进行回答,如果它能基于互联网最新的数据信息,那就更强大。虽然如此,但更大的问题在于,互联网这个大染缸,什么极端言论都有,真假信息难辨,还有大量色情和暴力,我们怎么才能保证,AI不会学坏?AI提供的信息答案,如何保持很高的准确率?
尽信书,不如无书。对于AI,我们也可以说,尽信AI,不如无AI。
在社会层面,我们不能因噎废食,因为害怕AI带来的威胁,就反对AI的发展。当下,只能是摸着石头过河,先想办法掌握这个工具,抢占技术的制高点。尤其是我们国家,应该避免AI变成像芯片一样,将来又别人掐脖子。
另一方面,我们在应用AI时,还需谨慎,不断完善法律、讨论伦理,给AI划定明确的活动范围。
在个人层面,正视AI的崛起,努力思考自身岗位所面临的威胁,想办法学习或转型,才是王道。正如那句名言:当老虎追来的时候,你也许跑不过老虎,但一定要跑得过你身边的人。
好了,以上就是我本人对chatGPT以及AI的一些看法。个人观点不一定正确,仅供参考,欢迎讨论。