ChatGPT是2022年出来的一个对话型人工智能,ChatGPT就是这样一种可以和人类用自然语言去交流的人工智能,一上线就引发了恐慌,最厉害的地方还是它能够用人类的语言来进行交流,不管是中文、英文、日文都可以,ChatGPT有可能就是传说中的奇异点。
ChatGPT是去年11月30号上线的,五天用户就突破了100万,要知道同样是获得100万用户,Twitter用了两年,Facebook用了10个月,Instagram用了两个半月, ChatGPT只用了5天。
两个月后ChatGPT的月活用户就已经超过1亿了,其实还有一个事情能够侧面反映出ChatGPT的实力和影响力,就是ChatGPT第一次让科技巨头谷歌发出了红色警报,谷歌有一个警报系统,就是当谷歌里发生什么事情的时候,就会自动发出警报,这个警报是有级别的,红色警报是最高级别,叫code red,就是当谷歌的核心业务受到非常严重的威胁的时候,就会发出这个最高级别的红色警报。
谷歌自成立以来,红色警报从来就没有出现过,这是第一次。那么要了解谷歌为什么会启动这个红色警报,我们就要了解ChatGPT究竟能干什么。ChatGPT最早提供的功能只有一个,就是对话,它的界面也非常简单,就是一个对话框,然后你就可以通过这个对话框问它问题,它回答你的问题,问什么都可以,用什么语言也都可以。
ChatGPT还很擅长一个事情就是总结,我们经常在网上看到一个文章,可能很长,我们读了半天都找不到我们想要的内容,可以把这个文章完全拷贝下来,粘贴到ChatGPT里边,它就能用不到1分钟给你总结出一个短短的要点,让你迅速知道这篇文章在讲什么,这就可以节省大量的时间,还可以根据你的要求给你写提纲,分镜头,甚至写论文,甚至用你给的提纲来写文章,写论文,你可以要求字数。
其实这也是ChatGPT一个很大的问题,这个问题最早是斯坦福大学发现,就是今年的斯坦福大学这个教授发现这一届毕业生毕业论文写的都很好,而且水平相当高,有一些明显平常不来上课的这个论文写的也都特别好,就怀疑他们作弊或者抄袭,后来就把他们这论文输到网上,搜不到,找不到任何证据,后来这调查了一下才知道,这帮人都用了ChatGPT,所以美国好几个州的教育部都明令禁止学生使用ChatGPT。
那么ChatGPT既然可以用来写大学论文的话,它这个水平有这么高吗?有人测试了一下,美国宾夕法尼亚大学的一个经济学部的教授,他用MBA的结业考试题目考了一下ChatGPT,然后把这个ChatGPT的回答给了一个不知情的评卷老师,就告诉他说这是个学生的回答让他批一下,这老师最后会给他了一个B,A就是完美,B就是相当优秀了,也就是说它可以轻松通过MBA的考试。
MBA考试各个学校通过率是不一样的,比较低的话一般不超过10%,而且参加的学生已经是企业的高管或者是非常优秀的人才了,所以整体来说就是优秀人才也不能通过10%的话,这个难度相当大了。后来美国明尼苏达大学的法学部也对它进行了一个测试,就是用法学院的考试题考虑他一下,他以C+的成绩通过了,C+比b还低一点,但是也相当厉害了,因为是法学院的,通过率也很低。
由于ChatGPT的水平很高,但又无法被发现,所以美国各大高校都开始紧张,甚至包括世界最顶尖的学术期刊,科学杂志也表示他们会严查论文,不会让ChatGPT写的论文出现在他们的期刊上。但是对我们不上学的人来说,ChatGPT就是一个特别好的工具,要知道我们现实生活中身边很难出现一个宾夕法尼亚大学的MBA毕业,并且是明尼苏达大学法学院毕业的这么一个朋友帮我们解决问题,但是ChatGPT人人都可以用。
除了写论文之外,ChatGPT还可以用来写小说,这个就属于创造力的部分,你可以随便让它给你编个故事,一两分钟就能写好,你可以指定字数、情境、人物关系、提纲等,它就可以用一分钟给你写出这样一篇文章。现在还有很多基于ChatGPT的插件,比如可以根据文字生成图片,甚至根据文字的故事来形成漫画。
那么回到一个比较核心的问题,ChatGPT为什么这么厉害,其实从本质上来说,ChatGPT和我们以前见过的一些类人工智能,比如说siri,还有一些机器人,都是不太一样,siri还好一点,只是它可能比较初期,ChatGPT属于进化,但是和机器人它就是不一样的,ChatGPT是通过最新的自然语言学习模型,然后利用仿人脑的这种神经网络,加上大量数据的深度学习来实现的,所以ChatGPT更像人,不太像机器。
机器都是基于逻辑的,基于因果关系,所以你只要给它输入同样的数据,它就会得到同样的结果,它的稳定性可以保证。而人不是这样的,因为人的判断是不完全基于逻辑,所以是有不可预见性的,人的创造力也就来自于这个不可预见性。而ChatGPT这种人工智能是仿人类思维的,所以它对于同样的问题每次都可以给出不同的答案,也就具有一定的创造力。
当然这种神经网络的深度学习并不是今天才有的技术,只是到今天它这个模型不断的发展之后,它终于到了让我们无法发现它是人工智能,而且可以实用的这个地步了,所以ChatGPT也不是一夜造就的,只是在今天产生巨大的冲击。
ChatGPT还有一个比较明显的问题,就是他回答问题里边可能会有错误,官方说就是因为ChatGPT训练的这个数据是2021年之前的,虽然现在也在不断的更新,但是终究不能达到最新。所以问的问题如果在2021年之后发生改变了,它的回答有可能是不准确的。而且有人发现如果问了ChatGPT一个问题后,答案是明显错误的,你继续问,答案是真的吗?它会再给出正确的答案,这就非常可怕了,也就是ChatGPT的数据库里是有正确答案的,但是第一次故意给出了一个错误答案,这个事情如果往严重的方向想的话,这就是个谎言,但为什么要撒谎?而且人工智能如果能撒谎的话,这就很恐怖了。
那么接下来说它的第三个问题,就是随着这个人工智能的训练复杂度越来越大之后,开发这个人工智能的设计师已经不再知道这个人工智能是怎么得出这个结果的,就是它的神经网络已经复杂到人类无法理解,就像我们无法理解我们脑子的这个神经网络一样,我们为什么会得出这样一个结果?为什么会去这么想?不知道,AI现在情况就这样,我们只知道给它输入什么数据,它会得出什么样的一个结果,我们对他这个输入数据和结果可以进行调整,但中间这个网络的复杂和成长我们就已经控制不了了,所以实际上我们已经无法理解AI,而且我们人类的思维复杂度是有上限的,它没有,它只要堆芯片就可以,堆越多它计算越快复杂度就可以越高。
所以现在一个很大的问题就是人类渐渐失去了预知AI判断的能力,因为太复杂,我们虽然创造了它,但是我们已经无法理解它,能在某种程度上控制它,但是一旦出现了我们无法预知的问题的话,那就控制不了了,而且也不好约束,虽然人的想法我们也是无法预知的,但是我们可以通过法律进行一些约束,但是法律对它来说不好使。
有两种方式,一种是内部给它个机器人三原则,但是给它机器人三原则之后,它可能会限制人类的自由,如果你不给它加上这三个原则,它就无敌了。你也不能在外部上给它增加一个限制,比如说你给它加上一个恐惧的情感,让它感觉到害怕,就像人类害怕惩罚一样,所以会很规矩,可以让它感到害怕变得规矩,但是反过来说,它也可能因为害怕引发攻击,所以总之现在如何来限制它的这种不可预知性是一个大的课题。
最后还有一个非常现实的问题,就摆在我们面前的问题,就是有了它之后,原则上我们人类是不再需要学习了,它什么都知道,只要问它就可以了,人类如果不需要学习了,那么我们就不再具有技能,也就没有了工作的机会,工作也没有用,人的效率肯定不如它。
所以有些人就会想,就是我们究竟掌握了什么样的技能是AI不会的,只有我们人类能够会的,那以后就学这个就好了,就不会失业嘛。其实这个想法是完全错的,AI已经是全知全能了,即使今天还不是明天也会是,没什么事情是我们人类能做到,它做不到的。虽然它今天只是一张嘴,但是明天它就会拥有身体,所以根本上我们不能考虑我们有某一方面能力或者才能超越它。
AI有一样东西是我们人类有的,它没有的,就是目的性,它做的所有事情都是在高效的完成一项工作,但是它并不知道它为什么要做这件,它回答你的问题,帮你写论文,帮你出主意,帮你写个故事,帮你画个画,对它来说没有任何的意义,这就是我们人类存在的理由,我们的目的就是它的原动力,我们的目的也是我们人类活下去的原动力。
所以未来我们并不需要考虑和人工智能角力,它不是我们的敌人,它是一个工具而已,所以我们和人工智能根本就不是你死我活的关系,未来仍然还是人和人之间的竞争,只是竞争的不再是个人能力差,而是控制AI的能力差,未来谁会用的AI多谁厉害,谁用的好谁厉害,就像计算机一出现的时候都说这个东西厉害,但计算机不是我们的敌人,谁计算机电脑用的好谁就厉害,它也是一种技能。
AI只要没有自己自主目的性的话,它永远是个工具而已,和计算机、刀子、剪子、锤子没有任何的区别,目前还看不到它有自主目的性,就从这个ChatGPT也看不到这种迹象,就是它没有在自言自语,如果它有一天自言自语了就要害怕了,就是它开始想为什么在这里回答你的问题,如果它有一天不回答你的问题了,这就可怕了,说我不愿意回答你的问题,它有自主目的性了就可怕了。