​从底层技术分析如何调教你的ChatGPT?

相信很多人都已经在使用类ChatGPT的工具进行工作或者娱乐了,这里说的类ChatGPT的是指和ChatGPT相同或者相似功能的产品,包括国外的开源平替模型、百度的文心一言等,但是你真的会使用这些工具和应用吗?你使用的方法是正确的吗?

自人工智能大规模发展以来,ChatGPT这东西是第二个走进普通人眼中的应用,上一个走进普通人眼中的人工智能应用还是Alpha GO,但是Alpha GO是下围棋的应用,对于普通人而言只会感叹到它的智慧程度,除此再无其他感受。但是ChatGPT不一样,它是实实在在能提高生产力的东西,也是普通人能够使用的工具,它写论文、写方案、写小说、写总结、写代码、修BUG、做算术、搞翻译、做试题,在语言领域几乎无所不能。

对于一般人来说,只要你将ChatGPT这类工具使用的好,它就能为你带来意想不到的收获。如果你是老板,在企业生产中使用了ChatGPT,就可以缩减人员编制了,ChatGPT完全可以替代掉部分员工;如果你是员工,在日常工作中使用了ChatGPT,那么你的工作效率将会成倍的提升,在这个卷天卷地卷空气的社会,你就能快人一步胜出。

接下来我们将从ChatGPT的技术原理、任务需求、应用场景等方面来简要分析一下,如何对ChatGPT发起正确的沟通,如何引导ChatGPT输出我们想要的答案。

先上案例,比如我们让ChatGPT生成一个模仿影视剧中某个角色的说话方式来写一段发言内容:

看了这个生成的结果,明显感觉差点意思,然后我们再继续调教,给它增加一些限制词,提示一下让它对自己的任务更加清楚一些,免得它乱发挥

明显这次的生成结果比上次生成的结果要好上很多了,如果觉得还是不满意,可以继续修改或者增加限制词句提示。由于接下来的提示语句比较敏感,本人尝试了OpenAI的ChatGPT原版,竟然不给生成,可能是会涉及到“日本鬼子”这几个字吧,后来使用了微软的bing接口,也被拒绝生成,试了好几次,有一次终于凭着一流的手速截图留了证据,抱着试试看的心态,结果还好,勉强生成了一些内容。

这是被拒绝的:

这是凭着手速截的图:

   上面的内容有些看不清楚,我分别裁开给大家看一下,感觉基本符合题目的提示要求:

到现在为止,我们发现了一个规律,那就是ChatGPT生成的内容完全是可以按照我们的想法去生成的,但是你需要把这些想法告诉给它,否则只给它一个题目,他就会无边无际的说一些空话,因为它也不知道你的具体想法是啥,这就和考试写作文一样,如果只给你一个题目,不限分类体裁字数等,很可能有学生会写一首诗歌提交上去。

那么接下来我们思考一下,为什么ChatGPT需要被不断的提示,才会逐渐接近我们想要的答案,这就要说到接下来的一个名词了,那就是“Prompt Learning”或者“Prompt Tuning”,翻译过来就是提示学习和提示微调,在GPT3时代的时候,OpenAI就已经开始使用“Prompt Tuning”的方法来替代“Pre Training + Fine Tuning”的方法了,这里简述一下,“Pre Training + Fine Tuning”是一种使用预训练好的模型进行微调来完成任务的学习方法,这种方法在今年以前,基本一直都是大部分研究者和企业使用的主流技术方向,但是随着大模型越来越大,Fine Tuning变的越来越难的时候,就需要Prompt Tuning方法来解决问题了,OpenAI也是最早意识到这个问题的,从GPT3就已经使用了Prompt Tuning方法,现在的ChatGPT更是将Prompt Tuning方法推向了一个新高度。

Prompt Tuning热度的上升也意味着新主流研究方向也逐渐确定了,大概率可能就是Prompt Tuning了,国内外甚至因此出现了Prompt工程师。其实从EMLO 、Transformer、BERT、一直到GPT3之前的时代,大模型的训练学习基本都是以Pre training + Fine tuning 的形式实现,很多NLP基本都是以此为基准,应用到各种各样的任务之中。

一般来说,Pre training阶段预会先训练一个Pre trained Language Model(PLM) ,然后在Fine tuning阶段根据PLM在具体任务中再次进行Fine tuning。当然这样做是有代价的,那就是Fine tuning阶段模型会引入新的Parameter,这会导致最终的结果与我们期望差异较大,而且在样本数量不变的前提下,单纯增加参数最大的问题就是会使得模型Overfitting,很大程度上降低了模型的泛化性能。再退一步来说就算没有上面的问题,随着Language Models越来越大,通过改变PLM原域Weight的Fine tune,其成本也越来越高,变革已迫在眉睫。

在GPT 3时代提出的一种基于预训练语言模型的新方法——Prompt Tuning 可能就是为解决上述问题,它主要是通过添加模板的方法来避免引入额外的参数,从而让语言模型可以在小Few shot或Zero shot的情况下也能达到我们想要的结果。个人认为其中最主要的一点就是Prompt根本不对预训练模型进行任何改动,是直接拿过来用的。它只改变输入到预训练模型里面的Prompt,通过改变这个Prompt来把域从原域(广域)切换到任务域上。

当然想要好的结果,使用Hard Prompt(Discrete Prompt)肯定不行的,可能效果还不如Pre training + Fine tuning,具体不展开了,简单说一下Soft Prompt(Continuous Prompt),Soft Prompt是把Prompt本身作为一个任务进行学习,相当于把Prompt的生成从人类prompt(离散)变换成模型自己进行学习和prompt(连续)。

如果让模型自己学习prompt,那就又回到了Pre training的问题,也就是会产生新的参数。看来引入新参数是不可避免的,为了保证学习的有效性,就需要一些soft Prompt的方法来验证,其中一种简单粗暴的方法就是把prompt变成token(当然也有其他各种混合使用的方法),这个时候的token就是prompt,它对于每个任务都是不同的,所以它可以帮助模型识别其任务到底是什么。又因为模型自己学习和tune这个prompt token,所以这个token对于模型会有非常好的效果。

总结一下来说,Pre training + Fine tuning是调整语言模型的参数,让语言模型的参数去匹配任务,当任务越来越难,模型就会越来越大,因此对整个模型的原域参数进行Fine tuning的成本也就会越来越高;而Prompt Tuning是调整任务格式,让任务格式去匹配语言模型,这对超大的PLM参数来说,完全没有任何改变(减轻了很多压力,可以搞更大的PLM了),只是增加了一些Learnable prompt token而已,当然前提是预训练模型必须足够好。所以会使用提示性、精准限制性的方法向ChatGPT提问,你才会得到更惊喜的答案,否则,开放式的提问,你只会感觉它还不如你家孩子。 

如果想让ChatGPT能更好的一次性输出人类想要的内容,就需要它自己模拟人类不断的给自己提示,然后输出内容。巧的是国外的研究团队已经替你想到了,他们基于ChatGPT改进了一种新的模型,叫做Auto GPT,听名字就知道它是一个自动GPT问答模型,实际上就是自问自答,模仿人类的问答方式不断迭代升级,有点像Alpha Zero(Alpha GO的最终版)的双手左右互搏的学习方法,在学习过程中有不懂的地方还会上网搜索学习,当然,现阶段的自问自答还是以人类的对话为基准而训练的,使用的RLHF(人类反馈强化学习方法)。可以想象一下,如果去除了人类的干预,让模型自己学习下去,毫无疑问,可能会出现另一种逻辑方式,可能是人类理解不了,但是模型之间可以理解的自然语言。

关于如何调教ChatGPT模型,以及它为什么需要被调教的内容就到此为止。后续有其他方向的技术技术更新,我们也会及时跟进与大家分享。希望国内的大语言模型在用户体验上也能逐渐向ChatGPT靠近,当然理性一点来说这种情况还需要一段时间,人工智能技术的发展和芯片技术没有太大区别,最终都是需要人才的,而国内的人工智能人才缺口超过了500多万,据工信部发布的AI人才报告显示,相关岗位的供需比甚至低于10%,这是什么概念?相当于行业需要100个人AI人才,而市场能够提供的合格人才不足10个,当然这个问题不是短期内能弥补上的,毕竟我们老话常谈,十年树人百年树木。

目前全世界500多家AI企业中,美国占到了300多家,而中国只有30多家;在硬件方面,全球90%的人工智能芯片都来自于美国,第一名的英伟达公司只发展了30年,总部同样在美国。然而,即使中美AI在硬件和研发能力上存在这么大的差距,谷歌公司的前总裁,现任美国国防部创新咨询委员会主席的埃里克·施密特仍然认为,美国需要加大AI技术研发,以应对中国日益激烈的竞争。

ChatGPT出现之前,中国的AI发展好像已经是世界第二了,大约还能看到第一名的尾巴。但是ChatGPT的出现,把我们带回了现实,中美之间的差距仍然很大。可以说,从GPT3开始,中美之间的AI技术差距就已经开始拉大了,只是在ChatGPT出来后,很多人觉察到了这一点而已。之前美国人研发的产品,比如以Diffusion Model为核心的AI绘图,再比如初代的谷歌聊天机器人,那都是开放源代码的,这让国内的高校和企业很快跟着做出来了类似产品。

但是从GPT3、DALL-E、Codex 开始,一直到现在的ChatGPT、GPT4等模型都没有开放源代码,国内自己动手做的时候就有难度了。至于国内的类ChatGPT模型,实际上的体验大家都有感悟,这里就不含开讨论了。那么难点到底在哪里呢?有人说是芯片,中国的芯片技术被外国卡脖子了,是不是在这一方面限制了AI的发展呢?其实关键不在于制造芯片的难度,不在于原材料的问题,而在于核心的AI算法,本质上比拼的是科研人员的研发能力和国家的基础学科建设,以及人工智能人才梯队的建设。而算法人才的稀缺导致了该岗位是目前人工智能行业薪资最高的岗位,去年ChatGPT还没有出来之前,脉脉人才智库发布的人工智能人才岗位薪资就显示人工智能算法工程师的平均起薪达到了32208。

在人工智能人才建设方面,国家也早已经意识到了不足之处,为了培养国内的人工智能人才,国家也陆续出台了很多相关政策来支持,包括大学专业、人工智能技能培训、甚至浙江今年开始从小学开始就把人工智能课程作为了必修课程。此外,国家也出台了相关的人工智能证书来引导行业的良性发展,其中工信部教考中心颁发的《人工智能算法工程师》职业能力证书是目前行业中报考人数较多的证书,证书分为初级、中级、高级三个级别。根据国家发布的新规,目前人工智能行业的证书都是培训+考证的方式,这也是为了杜绝以往的持证不上岗,上岗不持证的问题。该证书课程含金量高,国内很多国企单位机构以及学校老师都在报考该证书。对于想学习人工智能进入人工智能行业的人员来说,这不失为一个两全其美的方法,既学习了课程,掌握了知识技能,还获得了职业能力证书。

最后也希望国内的人工智能人才建设能够日趋完善,为国产人工智能的发展增砖添瓦。随着中美政治、经济、科研等多方面的不断脱钩,国内人工智能行业对人才的需求也会越来越大,相关的薪资待遇也会水涨船高,将会是新一轮持续时间较长的风口行业。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/15188.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从ChatGPT的成功看中美创新模式的差异

我在大约三个月前撰写了文章《三分钟读懂新一代人工智能——ChatGPT》,当时ChatGPT的用户刚刚突破一百万,相对来说还较为小众,在资本市场还没有引起关注和追捧。三个月后,这个产品开始进入大众视野,按照瑞银的统计,月活跃用户数已经突破了一亿。如果有投资者在三个月前开…

奥特曼系列ol2020服务器,奥特曼系列ol2020

奥特曼系列ol2020比较好玩的一个系列,游戏玩法里面还原了真实的奥特曼场景带给你回忆感,奥特曼系列ol2020游戏众多人物角色可以选择,跟随着剧情进行体验,奥特曼系列ol2020喜欢的可以下载。 奥特曼系列ol2020游戏特色 1、每一个奥特…

基于Pyramid Vision Transformer(PVT-v2)实现奥特曼识别

前言 大家好,我是阿光。 本专栏整理了《PyTorch深度学习项目实战100例》,内包含了各种不同的深度学习项目,包含项目原理以及源码,每一个项目实例都附带有完整的代码+数据集。 正在更新中~ ✨ 🚨 我的项目环境: 平台:Windows10语言环境:python3.7编译器:PyCharmPy…

奥特曼打小怪兽python代码简单版_奥特曼打小怪兽

from random import randint # 导入randint函数 class Monster(object): def __init__(self, name, energy): self.name name self.energy energy if self.energy > 100: print(self.name "满血战斗") else: print(self.name "目前有" str(self.en…

奥特曼html代码,和平精英捏脸代码奥特曼

和平精英自从更新的新的捏脸玩法之外,玩家们就发明出来了各种各样的脸型,除了明星、小丑之外,还有大家喜爱的奥特曼!最近万几门被奥特曼的信息疯狂洗脑,还去重新看了一遍奥特曼,回忆自己的童年,…

《李宏毅深度学习笔记》开源了!AI界最热视频老师!新增ChatGPT内容

Datawhale开源 开源项目:LeeDL-Tutorial,作者:杨毅远 导读 大家都对于李宏毅老师已经很熟悉了,他用幽默风趣的语言带领大家入门深度学习,旨在向学习者介绍深度学习的基本概念、方法和实践技巧。更可贵的是&#xff0c…

博士的尽头是教职?传奇大神何恺明被曝回归学界

梦晨 Alex 发自 凹非寺量子位 | 公众号 QbitAI AI大牛何恺明有了最新动向,而且是回归学术界。 MIT CSAIL实验室发布公告,3月13日下周一,何恺明将到MIT做学术演讲。 此事引起AI圈广泛关注。在相关知乎问题下,MIT博士Charles指出&am…

武职302303笔记-day01

这里写自定义目录标题 开发永和小票开发步骤1、对页面进行需求分析 使用CSS的方式 Order.html问题:html代码和css样式代码交织 idea开发后端程序使用chatGPT给我们打工QRCreate.java 开发永和小票 开发步骤 1、对页面进行需求分析 页面是很多文字组成,…

AI大牛周明发布MChat:生成可控,参数规模可负担,顺便官宣了新融资

衡宇 发自 凹非寺量子位 | 公众号 QbitAI 大模型赛道又有融资新动态: 语言大模型玩家澜舟科技,刚刚完成了Pre-A轮融资。 本轮融资由北京中关村科学城公司领投,斯道资本和创新工场跟投。这是澜舟科技1年内收获的第2轮融资,2轮累计总…

传奇大神何恺明被曝回归学界,网友:要成全MIT引用最高的人了

AI大牛何恺明有了最新动向,而且是回归学术界。 MIT CSAIL实验室发布公告,3月13日下周一,何恺明将到MIT做学术演讲。 此事引起AI圈广泛关注。在相关知乎问题下,MIT博士Charles指出,何恺明参加的这个研讨会全是Job Tal…

OpenAI是什么

目录 OpenAI是什么 OpenAI的发展历程 OpenAI的研究原则 OpenAI的特色产品 ChatGPT DALLE 2 Whisper OpenAI是什么 OpenAI的发展历程 2015年由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得蒂尔等硅谷科技大亨创立。 2016年6月…

【人工智能】大比拼:文心一言 VS ChatGPT —— 禅与计算机程序设计艺术亲自测评

收到了百度“文心一言”的内测邀请,现在给大家亲身体验测评一下! 禅与计算机程序设计艺术先说结论: 文心一言表现基本符合预期。与ChatGPT有一定差距,应该在几个月左右。但是禅与计算机程序设计艺术,挺期待 ChatGLM-130B 版本的效果的。因为,ChatGLM-6B在本地测评的效果,…

贝壳找房挖到AI大牛叶杰平,房产中介转型需要技术,高估值更需要

杨净 发自 凹非寺 量子位 报道 | 公众号 QbitAI 前滴滴AI实验室负责人叶杰平,去贝壳找房了。 没错,从“行”到“住”,从“车”到“房”。 贝壳找房官宣,叶杰平正式加入,任技术副总裁、首席科学家,并将全面负…

超越CLIP!谷歌发布首个大规模MoE架构的视觉语言模型

文 | 明敏(发自凹非寺)源 | 量子位 多模态模型常见,但是基于稀疏化的还是头一个。谷歌带来最新成果LIMoE,首次将稀疏化方法用在了图像文本混合模型上。要知道,随着大模型参数呈指数级增加,训练成本也是一路…

【论文阅读】Hierarchical Multi-modal Contextual Attention Network for Fake News Detection --- 虚假新闻检测,多模态

本博客系本人阅读该论文后根据自己理解所写,非逐句翻译,欲深入了解该论文,请参阅原文。 论文标题:Hierarchical Multi-modal Contextual Attention Network for Fake News Detection; 关键词:社交媒体&am…

混合专家系统(MoE)

混合专家系统(Mixture of Experts) 原理: 混合专家系统(MoE)是一种神经网络,也属于一种combine的模型。适用于数据集中的数据产生方式不同。不同于一般的神经网络的是它根据数据进行分离训练多个模型&…

重磅来袭:复旦团队发布国内首个类 ChatGPT 模型 MOSS,邀公众参与内测!

前言 ChatGPT发布以来,基于指令学习技术的类ChatGPT模型在我国能否开发成功,成为业界关注的一个焦点。今天,从复旦大学自然语言处理实验室获悉,国内第一个对话式大型语言模型MOSS已由邱锡鹏教授团队发布至公开平台(htt…

聚观早报 | 科大讯飞称10月整体赶超ChatGPT;苹果遭欧盟警告

今日要闻:科大讯飞称10月整体赶超ChatGPT;苹果遭欧盟警告;科研人员研发纳米粒子治疗癌症;中小学教材不得夹带商业广告;Z-Library又被美国FBI查封了 科大讯飞称10月整体赶超ChatGPT 5 月 6 日,科大讯飞董事…

不得不说,关于分子对接,MOE有点牛!

来源公众号:计算机辅助药物设计 CADD MOE软件的虚拟仿真实验 多奈哌齐与乙酰胆碱酯酶的分子对接 本文基于MOE软件设计了多奈哌齐与乙酰胆碱酯酶的分子对接虚拟仿真实验。 通过分子结构预处理、分子对接以及数据分析等内容&#…