最近 ChatGPT 非常火。如果你刷社交媒体,大概已经被各种消息搞得头晕脑胀。从大佬到普通人都对这个话题表现出了浓厚的兴趣,就连 ChatGPT 为主题的学术研讨会通知我都已经收到 3 份了。
参与到这个话题里自然是有好处的,例如可以更容易获取流量——直言不讳地说,我也是这次 ChatGPT 热潮的受益者之一。之前我从来没有在一篇文章或者回答可以收获如此多的阅读量:
但如果你一直在听别人谈论 ChatGPT,那你恐怕不是流量的获取方。说得直白一些:你就是流量。这里我给你提个建议,就是尽早从猎奇甚至「站队」中走出来,更为高效地利用起 ChatGPT ,为自己获取竞争优势。
要达到这个目标,我觉得你需要做两件事情:第一,摆正认识;第二,上手操作。
下面咱们分别谈谈。
摆正认识
前两天有一位科幻作家关于 ChatGPT 的文章很火,文中他打了个比方,说 ChatGPT 是「互联网信息全集的有损压缩文件」。一开始我也觉得这个观点很新颖,至少观察和对比角度非常独特。但越往下阅读感觉就越别扭。
别忘了,ChatGPT 的基础是 GPT-3 这样一个大语言模型,它刻画的是语言规律,而不是去记录语言内容本身。如果咱们追逐的是对丰富数据的记忆力,世界上最强、最先进科技的诞生机构应该是维基百科或大型图书馆与档案馆。ChatGPT 让人惊艳,并非是能把世界上已经产生的内容原原本本回忆出来,而是根据用户的具体需求创造新内容。
Chat GPT 不是搜索引擎。它可以根据你的特定要求输出一些代码,如果你运气足够好,这些新生成的代码甚至不需要人工调整即可正常运行。虽然现存的很多代码与之非常相似,都遵循相同的语法规则,但新代码就是新代码,这些代码在网络上从未存在过。这种创造是搜索引擎无法达成的。
ChatGPT 的惊人进步并非来自于更高比率的「有损压缩」技术。它能寻找规律——寻找解决问题的规律,描述内容的规律……甚至还可能蕴含一些其他规律,只是我们目前还没有意识到,或者尚未尝试而已。
寻找规律而不是记忆内容,真的很重要吗?
当然。有的人记笔记喜欢高亮或摘抄书里的段落,但已经有许多研究证明,这些做法其实没有显著意义。相反在记笔记的时候,根据新的上下文(context)做出转述(elaboration)反而更加重要,因为那是你自己的话,也包含了创造性。
我们原以为只有人类才能进行有价值的创造活动,机器只是按照规程从事机械重复劳动,或者亦步亦趋地模仿。ChatGPT 似乎跨越了这一限制。至少在编程上,它可以直接给用户提供新的解决方案了。
所谓新的代码,和世上已存在的代码差别兴许都不到 5%,但别忘了古人的名言「太阳下面无新事」。乔布斯甚至把「创造力」的概念说得更加直白:「创造力只是连接事物。当你问有创造力的人如何做某事时,他们会感到有点内疚,因为他们并没有真正去做,他们只是看到了一些东西。过了一段时间后,这些东西对他们来说似乎是显而易见的。」
Creativity is just connecting things. When you ask creative people how they did something, they feel a little guilty because they didn't really do it, they just saw something. It seemed obvious to them after a while.
无视 ChatGPT 拥有的动态创造能力,只是将其当成有损压缩文件是否合适呢?让我们进一步想想:这位做出高妙比喻的作家,是否真正理解大型语言模型的本质,他是否知道语言模型的演进过程都发生过什么,模型是如何处理输入和输出的?
如果他对于上述问题都很清楚,就绝对不会把模型看作一个巨大的 Jpeg 文件,只负责简单的压缩和解压缩。反之,如果他对于技术层面毫不了解,只去观察了一定数量的 ChatGPT 输出结果就匆忙做出判断,会怎么样呢?
作家可能会让你对新事物产生误判。例如说,你会因为这位作家不恰当的类比,觉得 ChatGPT 只是记忆力拔群,因此会觉得它和你的工作没有关系。你很可能因此错失机遇。
我们刚才说的,不过是读者可能被误导的方向之一。其实你觉得「ChatGPT 跟我无关」,损失不一定太大。更多的作者激情四射,则可能把你引到另一个极端——觉得 ChatGPT 是强人工智能的降临标志,甚至把它当成一个神话顶礼膜拜。
ChatGPT 不仅「出圈儿」,而且出得太快了。曾经有炒股高手说过,如果你见到菜场大妈向你推荐股票的时候,该知道牛市到顶了。有位朋友发了个苦笑不得的表情,动态里写着他「从来对高科技无感的厨师老爹也给他转发 ChatGPT 的资料」。我看到后心里咯噔一下——ChatGPT 才出来两个月,莫非这波就已经到顶了?
或许吧,但这真不能算是 ChatGPT 的错。OpenAI 官方至今并没有做出任何显著夸大其词的虚假宣传,但是普通人的预期着实「虚火太旺」了。许多人尝试之后,发现能够从 ChatGPT 中受益,于是为它免费宣传;宣传触达了更大群体后,大众对 ChatGPT 功能认知就逐渐走了样。
这就如同有针对性的特效药被传的神乎其神后,就被成了万灵药甚至「大力丸」。
这些日子不少人在讲如何利用 ChatGPT 赚钱,例如有人用它建立网站,帮助别人做简历。这样的应用,至少还算作有价值。但是他们赚到的那点钱简直是小巫见大巫:有些人直接利用信息不对称才真是大赚特赚。我在朋友圈里面看见一个截图,虽然我并不完全相信里面的数字,觉得有吹嘘成分,但至少这种现象应该是真实存在的。
(转载自朋友圈)
有人会脱离目前 ChatGPT 的能力实际,去做各种各样不负责任的尝试。之后这种挫折传播开,就会给大众带来深深的失望。例如下面这个对话截图,没有来源信息,你当成段子看好了。
(转载自朋友圈)
对于一个爆火的科技产品来说,这些遭遇可能难以避免。只不过我们应该警醒,避免兴奋过头儿,跟着部分人一起癫狂。
这也不是,那也不是,究竟该如何摆正对 ChatGPT 的认识呢?
其实 ChatGPT 一点儿也不神秘。你不必了解大语言模型的架构,甚至连神经网络的基础单元如何联接也不必了解。这又不是考试。你只需知道,它是一次成功的人工智能工程化尝试。
人们的激动与兴奋,来自于一个新 AI 产品真的可用并且能给自己提供帮助。2022 年 AI 领域发生了许多事情,可能在技术编年史上留下一笔。但真正激动人心的不是人工智能理论乃至研究范式方面突破,而是「人工智能工程化」的成功。
「工程化」是什么?是科技进步带来的产品让普通人看得见、摸得着、用得上。1970 年代的个人电脑是工程化,1990 年代的互联网是工程化,2007 的 iPhone 为代表的智能手机是工程化,如今你刷脸进楼门也是工程化。
2022 我们见识到的,是 DALLE2,是 Midjourney,是 Stable Diffusion,也是 ChatGPT。
Yann Lecun 说 ChatGPT 不是什么新技术,OpenAI 的技术实力不如 Google。从单纯的学术角度来讲他说得没什么不妥。但是历史会记住,是 OpenAI 而不是 Google 先做出来了 ChatGPT,从而引领了此次 AI 破圈的风潮。
我们经常会对一些火爆事物的发明者产生特别的崇拜,认为他们每一步都踏在了正确的道路上,战略规划清晰异常。但如果你了解幕后的故事,就会发现许多成功根本就不是精密设计运筹帷幄的结果。拿 ChatGPT 来说,OpenAI 最初想的想法是内部测试成熟之后,再发布这个聊天机器人。但是在模型训练过程中 OpenAI 遇到了巨大的困难,甚至想过要放弃或至少把目标做出大幅调整。为什么呢?
因为 ChatGPT 内部测试过程很不顺利。OpenAI 采用了一种被称作 RLHF (Reinforcement Learning from Human Feedback) 的技术,就是依赖真人的反馈来训练和校准模型。
可是 OpenAI 找来的内测人员,坐在 ChatGPT 前面不知道该说啥。尬聊的结果,是项目进展很不理想。OpenAI 干脆决定不等了,直接用一种半成品的形式开放招募测试。没错,每一个「研究预览版」的 ChatGPT 用户,其实都是 OpenAI 的免费测试员。这两个多月里,全球的「测试员」们夜以继日为模型的完善不断做出了贡献。测试员规模快速增长,直到 OpenAI 不得不收费,才能避免服务器被挤爆。
ChatGPT 的发布其实是个风险很大的决定。种子用户的选择一般会避免如此草率。一来模型在最初的热心用户群体里如果出现口碑翻车,后面挽回很困难;二来是用户输入和反馈数据很有可能会对模型造成污染。当年某个大厂的对话机器人没几天学了一通「脏口儿」便是前车之鉴。
不过很显然,这个决定的后果是有惊无险——ChatGPT 不仅没有口碑翻车,而且搞得别的大厂发布红色警报,甚至股票价格都发生大幅波动。
(2023.2.11. 《经济学人》)
你看,ChatGPT 只是一个依靠许许多多用户的帮助,快速进步的大语言模型。我们不需要过于吹捧它,也不必跟着别人一起把它认定为一个噱头。摆正了认知之后,我们才好开始下一步:上手操作。
上手操作
我的第二个建议就是不要人云亦云。相信自己的眼睛,相信自己的双手,去试试 ChatGPT,然后多根据实践结果总结和迭代,真正用它为你服务。
我目前使用它主要包括两块,一是写作,二是编程。
先说写作。写久了,你很容易会遇到 Writer's Block 这样的创作者瓶颈,我则尝试用 ChatGPT 来突破它。
例如让它帮你思考一些例子来支撑自己的论断:写着写着突然想起来,自己举的这个例子不大充分,有没有更好的例子?以前这就意味着你需要进入搜索引擎、输入关键词、然后对着浩如烟海的结果慢慢筛选。但现在你可以告诉 ChatGPT「补充例子,论证上面的论断」。
我觉得这里的例子虽然不能直接使用、但依然对作者有启发。例如说人脸识别这个事儿,已经成了「日用而不知」。我几乎每天都要用这种方式验证付款,但写作时确实不会第一时间想到用它作为 AI 工程化的例子。
如果你觉得例子不够好也没关系,让它接着举其他的呗:
除了实际的示例,ChatGPT 也善于去查找名人名言。例如说我写本文的时候想到了乔布斯的一段话,和创新有关,但是一时有些发蒙想不起来里面的关键词。于是干脆让 ChatGPT 帮我去回忆:
看了一下觉得都不是?没关系,让 ChatGPT 继续说不就得了:
一下子,我就发现第 6 条是自己想要的。好玩儿的是 ChatGPT 给出的名人名言里中英文都齐备,我连翻译的工作都省了,直接贴进来就好。
有的时候,我甚至发现 ChatGPT 有「通感」能力。例如说你提到某种现象,可以让它去找到类似的情况。例如下面这个例子里我分析了 ChatGPT 这个例子,但是就在琢磨押着相似韵脚的历史事件还有啥呢?直接问 ChatGPT 好了:
我觉得答案里面用互联网泡沫用来形容「大众的期待过高」还是比较贴切的。只不过你需要注意的是,不能够对于 ChatGPT 给出的结果不加甄别就去利用。好比说下面这个答案,你一眼看上去,能否发现问题?
问题其实还是非常明显的。而且这两条之间已经自相矛盾了。DALL-E 究竟是谁推出的,Facebook 还是 OpenAI ?我把 ChatGPT 这种错误回答情况称作「一本正经胡说八道」。你会发现它其实对答案并没有把握,但是回答起来的口气简直就是「斩钉截铁」。如果你在选用的时候不加取舍,将来文章发布或者书籍出版之时就很尴尬了。所以选用 ChatGPT 答案的时候应当足够审慎。
另一个应用是编程——一步步提要求、不断改进的例子。
我最近也发现了一个更有意思的事儿想跟你分享一下。上面写爬虫的例子里,还需要我显式说明 ChatGPT 需要「怎么做」,也就是描述流程步骤,但其实你还可以用另一种方式跟它沟通——直接告诉它「干什么」。给它看一个例子,然后让它按照例子来编写程序。这其实就是让 ChatGPT 去「主动学习」了。
例如下面例子里,我请 ChatGPT 把一段文本里面出现的特定内容进行替换。有趣的是,这次我没有告诉它具体的执行步骤,而是给它个相对模糊的例子。例子里面出现的 ...
并非真正的文本,而是代表了一种任意性。
尝试后,我发现代码运行很顺利,文本替换成功。我非常兴奋,并不只是因为 ChatGPT 帮我解决了眼前这一个具体的问题。而是因为有了这个发现,以后让 ChatGPT 帮我处理一些机械重复的文本处理工作,就更加得心应手了,因为给例子就成啊。
小结
ChatGPT 讨论热浪中有许多种不同的声音,千万不要陷入其中被误导。你觉得 ChatGPT 毫无新意难堪大用,可能会错失竞争优势;你觉得 ChatGPT 无所不能,也会癫狂而后深深失望。
摆正认识,把它当成一个有趣的大语言模型、一次 AI 工程化的成功开端,专注于尝试如何利用它改进自己的工作流程,才能真正获得益处。
加油,祝人工智能使用愉快!