ChatGPT 真能上天入地?无所不能?
作者简介
微信公众号『嵌入式Linux开发』作者,专注于嵌入式Linux下的内核、驱动和系统软件开发,专注于基础知识和项目实战分享。
ChatGPT的前世今生
ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构,也就是GPT-3.5架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,更为重要的是他能通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文内容进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。ChatGPT不单单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。
过去十年间,谷歌、 Facebook、亚马逊、苹果和微软等硅谷科技巨头纷纷开启AI军备竞赛,直到后来中国也加入了这场竞赛之中,只是和美国等西方国家相比还有一定的技术差距。美国的科技寡头先后成立专门的AI实验室,然而最终被业界公认的做纯AI研究的顶级实验室只有三家:背靠谷歌的DeepMind、背靠微软的OpenAI和背靠Facebook的FAIR。这其中最为大家所熟悉的就是当年大败世界围棋冠军,职业九段棋手李世石的阿尔法狗,阿尔法狗就是被谷歌收购的DeepMind。
OpenAI在2015年底创立于美国旧金山,其联合创始人是马斯克以及硅谷知名孵化器Y Combinator的前掌门人奥特曼。不到五年的时间,OpenAI就依靠GPT3跃升为全球AI领域的顶级公司,与DeepMind并称AI圈的“双子星”。事实上,Meta的Fair实验室也一直在进行自然语言处理和对话模型AI领域的深耕,但其成果以发表论文为主,显得比较低调。2022年6月,大举向元宇宙转型的Meta做出决定,其AI部门再“集中化研究”,而是分布式下放,以便与实际业务相结合,导致Fair的前途并不明朗。
ChatGPT的强大
OpenAI足以与AlphaGo一战的“武器”正是GPT3,这个2020年才推出的巨型语言处理模型怪兽,可以完成诸如答题、写论文、文本摘要、语言翻译和生成代码等壮举,GPT3的诞生被视作人工智能竞赛的里程碑事件。
OpenAI最初提出的模型GPT1,该模型于2018年6月发布,采用的是生成式预训练Transform模型,此后整个GPT系列都采用这一伟大的创新范式。简要来说,GPT1的方法包含预训练和微调两个阶段,预训练遵循的是语言模型的目标,微调过程遵循的是文本生成任务的目的。也就是先进行无监督预训练,再进行监督微调。
2019年,OpenAI继续提出GPT-2,所适用的任务开始锁定在语言模型。GPT2拥有和GPT1一样的模型结构,但得益于更高的数据质量和更大的数据规模,GPT-2有了更加惊人的生成能力。不过,其在接受音乐和讲故事等专业领域的任务时表现的仍不是很好。
2020年的GPT3将GPT模型提升到全新的高度,其训练参数是GPT-2的10倍以上,技术路线上则去掉了初代GPT的微调步骤,直接输入自然语言当作指示,给GPT训练读过文字和句子后可接续问题的能力,同时也包含了更为广泛的主题。下图展示了不同GPT系列模型数据集训练规模
现在风靡全世界的ChatGPT则是由效果比GPT3更强大的GPT-3.5系列模型提供支持,这些模型使用微软Azure AI超级计算基础设施上的文本和代码数据进行训练。具体来说,ChatGPT是一个在开源数据集上进行训练,训练参数也是前代GPT3的10倍以上,还多引入了两项功能:人工标注数据和强化学习,相当于去掉了被GPT3去掉的微调步骤,实现了在与人类互动时从反馈中进行强化学习。正因为如此,我们今天才看到了更加强大的ChatGPT:能理解人类不同指令的含义,会甄别高水准答案,能处理多元化的主题任务,既可以回答用户后续问题,也可以质疑错误问题和拒绝不适当的请求。
当初,GPT-3只能预测给定单词串后面的文字,而ChatGPT可以用更接近人类的思考方式参与用户的查询过程,可以根据上下文和语境,提供恰当的回答,并模拟多种人类情绪和语气,还改掉了GPT-3的回答中看似通顺,但脱离实际的毛病。不仅如此,ChatGPT能参与到更海量的话题中来,更好的进行连续对话,有上佳的模仿能力,具备一定程度的逻辑和常识,在学术圈和科技圈人士看来时常显得博学而专业,而这些都是GPT-3所无法达到的。
ChatGPT的不足之处
尽管目前ChatGPT已经非常强大,但还是存在很多语言模型中常见的局限性和不准确问题
- ChatGPT不具备空间、物理、时间、心里等专业的推理能力。
- ChatGPT对复杂数学表达式的计算能力还有不足。
- ChatGPT不具备人类所特有的幽默能力。
- ChatGPT还没有形成完全的自我意识。
- ChatGPT不具备“记忆功能”,也就是说你先前问的一些问题,GPT无法记住,当你重复询问同一个问题时,你会获得截然不同的,甚至是随机的答案,因为他不‘理解’你的问题。
- ChatGPT的训练成本越来越大,随着训练数据集和训练参数的指数级增长,ChatGPT的训练变得越来越困难。
以上就是目前已知的ChatGPT的不足之处,当然以上这些并不是全部,随着ChatGPT的普及及大量应用,会有越来越多的问题和不足暴漏出来。
ChatGPT的未来
下图是OpenAI的CEO对未来的展望
ChatGPT的进一步发展离不开技术的应用和商业化。无论以哪一种方式实现商业化发展,必然首先聚焦于资源、资金高度集中和技术应用性强的特定领域。例如,金融领域技术应用广泛、资金充沛;文化娱乐领域商业化变现较为迅速,同样可能会成为技术应用首要涉及的领域;办公软件领域,如果能基于该项技术实现部分自动化办公,由于其应用广泛、用户需求量大,也可能成为技术应用首先发展的领域。
国内怎么使用
说了这么多废话,上干货,看看在国内怎么体验ChatGPT
首先应该提到的就是国内第一个类ChatGPT模型,来自百度的“文心一言”
百度文心一言
AI文本工具站
WoChat
阿里通义千问
有兴趣的朋友可以申请体验一下
以上就是目前可以正常使用ChatGPT模型,有兴趣的朋友可以体验一下,总体来说还是很不错的,对应写文案、写代码、写创作都有一定的参考价值。
总结
任何新技术的发展都会带来社会的变革和发展,同时也会带来机遇和挑战,ChatGPT作为人工智能领域厚积薄发的代表,一经推出立刻在全世界引起了广泛关注,随着商业技术应用和场景的不同落地体验,一定会有更多的ChatGPT公司涌现,也会有大批的公司因为发展和商业落地的问题而倒下,这些都是新技术发展的必经之路。
关注“嵌入式Linux开发”,获取更多的基础知识和项目实战经验。