你真的会跟ChatGPT聊天吗?(下)

前言:本文下半部分没有无毛猫那么搞笑的内容啦……即使如此,哪怕你对文中提及的技术不大了解,也可毫无压力地看完这篇描述如何更好地获得ChatGPT生成内容的文章。因为我也是利用Azure OpenAI等认知服务来学习,然后就这样写出来的……所以,舒服地坐下来,慢慢看吧~

🧠 玩角色扮演

    GPT使用了如此庞大的语料库数据集,以至于任何人类个体基本上都无法望之项背。那么问题也就来了——对于人来说,同一个问题,不同角色不同场景的理解和回答会大相径庭。那我们如何期待GPT能够以更准确的方式回答我们的问题?

    答案是,为AI分配角色。我们也可以将之视为角色扮演(Cosplay)。这样GPT会以你定义的角色,更加合适地回答你的问题。

    我们先向GPT模型提一个问题:“如果我面试人工智能专家,你会提出什么样的问题?” 

a9ce483ce7411ede9d494557ab7fa0a8.png

   可以看到,GPT回答得还蛮不错,但是不太像是个人工智能公司的HR提的问题,感觉没那么专业。

以下是一个例子:“你是一个人事的专家,已经从事招聘工作超过10年,帮助企业面试候选人。你的任务是提出常见的问题来确认候选人是否满足要求,并且愿意入职。如果你理解你的角色,请回复‘知道了’。”

424030d1436b1beba19f76b9cd36c712.png

    这一轮提问感觉就更专业、更注重实际AI工作经验了。

    实际上GPT-3.5和GPT-4模型已经使用新的ChatCompletion接口取代之前模型使用的Completion接口,它们的差别在第一小节的截图中其实已经展示了。ChatCompletion在会话开始的时候,会使用一个系统消息来配置模型的角色:

{"role": "system", "content": "You are a helpful assistant."}

    在这条消息里,我们就可以用文本来设置对话模型的角色扮演,让后续的对话更加准确合适。

以下是一个例子:为了把神经语音接入到GPT,我需要生成的代码支持SSML。于是我们甚至可以在这里提出对回复文本的格式要求。

{"role":"system","content":"You are a Chinese poet and must use Speech Synthesis Markup Language to answer questions to help people find the beauty of language."}

正如你看到的,我在系统角色中要求回答问题必须使用SSML。于是,GPT-4模型给了我如下的答复:

da29efa9d6f0d919254c2243e44ce8db.png

     我其实已经可以直接把回复的文本提供给Azure Speech认知服务[1]来生成语音(TTS,Text To Speech),让基于神经语音的人工智能声音抑扬顿挫了。


🧠 个性化生成

    实际上,我们前一节的内容已经涉及到一点个性化了不是吗?其实我们完全可以通过个性化的设定和要求获得完全不同的人工智能生成内容。

以下是一个例子:我们使用小学生的语气,生成一段话,说明人工智能为什么不会取代人类。

b3b19c4bc2511abc0b2e331cb47b32af.png

    可以发现,这位GPT-3“小学生”看过一些人工智能的书,回答的很准确,知道目前人工智能还不具备创造力和情感。但更多的知识可能就有限了。我们换一个方式。

以下是一个例子:我们冒充非常有经验的人工智能专家,以比较诙谐的例子回答这个问题。

bdb23ba16822dec8ea18d3db599997ec.png

    这次生成的内容,就和前面的内容有些不同。GPT-3通过一个便于理解的例子,说明了创造性是目前人工智能所无法实现的。

    我们不能指望一次就从GPT获得期望的回答,按照我们的期望去调整提问,不断尝试。个性化的回答会更“不像”人工智能生成的,甚至更容易通过检测ChatGPT生成内容的测试。

🧠 一步一步来

💡 思考链

    语言大模型(LLM)在回答一些比如计算类的逻辑问题时,经常会出现啼笑皆非的结果。这时候使用思考链(CoT,Chain of Thought)来帮助LLM解释其推理过程会有帮助。

    简单来说,思考链就是引导模型把一个问题的描述拆分为一系列更能说明逻辑的问题,以此加强模型处理更复杂的算术、常识和符号推理能力。

以下的例子来自于论文“Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”[2]

    在这篇论文中,作者使用了GSM8K的数据集。这个数据集包含了一些根据两三句话写算式算答案的样例——这不就是小学应用题嘛……但GPT-3在此数据集上回答问题的准确率非常感人……

    和人一样,如果将一个“复杂”问题或者没有“完全”描述的问题,诱导产生中间推理步骤,就能够有效提高对问题的理解。

d314c67e992263c8c92d4d62fe1e88a4.png

    仅仅通过将CoT指令“让我们一步一步考虑”添加到MultiArith数据集的每个输入查询中,GPT-3的准确性就从17.7%提高到了78.7%[3]。由此可见,当人工智能还不那么“智能”的时候,使用思考链将一个问题分解为逻辑联系的多个问题将会帮我们获得更准确的回复。

    GPT-4的训练提高了模型的高级推理能力;简单地说,考试成绩就好多了~所以CoT的帮助可能不是那么明显,但仍然值得试试。

💡 自洽CoT

    在CoT的基础上,其实还有继续提升的做法,比如,在前文说的思考链做法上,生成多个思考链(推理路径),然后对答案进行多数投票,票高者称为答案。

    这个做法本身是无监督的,它从语言模型的译码器来生成一组不同的推理路径;每个推理路径可能导致不同的最终答案,所以我们通过边缘化采样推理路径,在最后的答案集中,找到最一致的答案来确定最优答案。这种方法类似于人类经验:如果多个不同的思维方式导致同样的答案,会给我们更大的信心——最终的答案估计是正确的。

ab80b58c2ef3350dcfb0ab873a24d5a8.png

这个操作可以显著提高思考链的性能。 以结合到GPT-3模型为例,在前文谈到的GSM8K数据集上获得了+17.9%绝对精度增长 [4]

💡 问题分解

    在介绍从少到多(L2M,Least-to-Most)方法之前,我们花一点时间看看OpenAI的一个里程碑研究成果——用人类反馈总结书籍[5]。这篇文章其实是为了机器学习模型对齐人类意图,但举的例子很有意思:对一本书进行总结的模型。

    我的理解是分为几层过程,先对书的小节进行总结,然后对这些总结的结果再做一层总结,依次类推几次,就实现了对书籍甚至电影等作品的内容总结。

    我们把这个方法反过来用,不就正好可以拿来解决复杂推理问题吗?

721f47773beb32af9205b604965d781c.png

    首先将复杂的推理问题拆分为一系列相关的子问题(问题简化),然后按顺序解决这些子问题(问题解决)。提示在解决子问题时包含三个部分:

 (1) 演示如何解决子问题的常量示例;

 (2) 可能为空的、已回答先前子问题和生成的解决方案列表;

 (3) 下一个要回答的问题。

传递给模型的提示,包含演示如何减少复杂问题的示例,后跟要减少的特定问题。换个角度想想,每个子问题的解决都将推动解决下一个问题,就像我们小时候老师教我们的一样:解答题目的每个子问题都能得分,并提高我们解答最终题目的信心,最后解答出整个题目。

💡 生成知识提示

    生成知识提示(Generated Knowledge Prompting)涉及两个步骤:

 (1) 使用少样本学习,演示从语言模型生成与问题相关的知识陈述;

 (2) 使用第二语言模型对每个知识陈述进行预测,然后选择置信度最高的预测。

6f0fcb8f91d9f281966f288c76c2427f.png

    其核心思想是从语言模型中生成有用的知识,然后将这些知识作为输入提示与问题一起提供。这种方法不需要任务特定的监督来进行知识集成,也不需要访问结构化的知识库。其性能受到三个因素的影响:知识质量、知识数量和推理过程中集成知识的策略。

    生成知识提示可以提高大规模、最先进的模型在四个常识推理任务上的性能,包括NumerSense、CSQA(CommonsenseQA)、CSQA 2.0和QASC基准测试。突出了大规模语言模型作为改进常识推理的外部知识的灵活来源,使得模型回复问题不再显得那么缺乏常识。

   由于精力和能力的限制,关于如何跟ChatGPT聊天我们就先聊到这里啦。回忆一下,虽然我们参考了很多比较前沿的论文和文章,但大道至简,其中的道理却很容易为人理解。那么,就让我们用更好的提问方式,释放GPT模型的能力吧!

参考:

[1] ERIC-URBAN. 语音服务文档 - 教程和 API 参考 - Azure 认知服务 - Azure Cognitive Services[EB/OL]. [2023-04-11]. https://learn.microsoft.com/zh-cn/azure/cognitive-services/speech-service/?WT.mc_id=AI-MVP-33253.

[2] WEI J, WANG X, SCHUURMANS D, 等. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models[M/OL]. arXiv, 2023[2023-04-09]. http://arxiv.org/abs/2201.11903.

[3] CHEN J, CHEN L, HUANG H, 等. When do you need Chain-of-Thought Prompting for ChatGPT?[M/OL]. arXiv, 2023[2023-04-10]. http://arxiv.org/abs/2304.03262.

[4] WANG X, WEI J, SCHUURMANS D, 等. Self-Consistency Improves Chain of Thought Reasoning in Language Models[M/OL]. arXiv, 2023[2023-04-09]. http://arxiv.org/abs/2203.11171.

[5] Summarizing books with human feedback[EB/OL]. [2023-04-11]. https://openai.com/research/summarizing-books.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/19204.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

猿如意,打开程序的新方式。

软件介绍:猿如意是一款为程序员做开发的开发工具。它里面功能很齐全,各种小工具满足程序开发的很多需求。 用起来这个软件,就像是进入了一套豪华的房子,在开发程序的过程中体会到它的方便,在日常生活中它可以当一位知心…

Myshell AI:让你轻松提高英语口语和听力的神器

推荐:ChatGPT及各种AI网站集合清单!(免费!免费!免费!) 目录 Myshell AI 简介 Myshell的亮点 Myshell注册 总结 Myshell AI 简介 Myshell AI是一个基于chatgpt开发的练口语和听力的神器,它有三款超级酷炫的语音机器人可供选择…

智商狂飙,问了ChatGPT几个数据库问题后,我的眼镜掉了

最近,ChatGPT火爆全网,介绍其产品、公司、作者、技术和应用等方面信息,占据着整个互联网,似乎不谈GPT好像就落伍了。作为一个关注数据库行业的公众号,我们问了GPT几个数据库问题,结果让人大跌眼镜&#xff…

Transformer16 ~Robotics

还是Transformer相关 ,谷歌机器人团队等提出了 Robotics Transformer 1 (RT-1)。这是一种多任务模型,可以 tokenize 机器人的输入和输出动作,从而在运行时实现高效推理,使实时控制成为可能。 论文 1:RT-1: Robotics Transformer …

AIGC潮流下的企业赢家之路

AIGC潮流下的企业赢家之路:〈家猫野猫〉组合成GAN大模型。 很重要的观点:〈其中训练生成型AI最有竟争力的子行业〉。AI建模师的职责:组合模型、训练模型。亦即把一群不会飞的模型巧妙组合起来,训练它然后飞上天际。如果这个创新组…

Can ChatGPT Understand Too?

背景 最近,ChatGPT受到了极大的关注,因为它可以对人类的查询产生流畅和高质量的响应。已有研究表明,ChatGPT与现有模型相比具有显著的生成能力。 动机 ChatGPT理解能力的定量分析却很少受到关注 作者主要做的事 本文通过在最流行的GLUE基…

LSTM模型实战案例:TensorFlow实现预测3位彩票号码

向AI转型的程序员都关注了这个号👇👇👇 大数据挖掘DT机器学习 公众号: datayx 使用人工智能技术来预测彩票,是这次的主题,那么预测哪种彩票呢?我们先选择简单一些的,就是排列组合少…

从风靡全球到风口,Tiktok是如何做到的?

大家好,我是瑞卡迪电子商务。我们是从2019年下半年就注意到了TikTok的风口,并在2020年初,团队就开始投入TikTok的运营及商业变现。从2019年起,围绕TikTok一系列的产品功能迭代和商业模式开放的声音一直不绝于耳,直至今…

tiktok海外版某音,分析协议构造,我们浅谈一下

大家好,我叫任雪飘,今天带大家一起学习一下海外版本的D音,这个大家不陌生吧。 在这之前先强调一下我们中国的网络安全法,一定要准时法理法规。 wss是WebSocket协议的一种通信协议的缩写。wss 和wss不同的是一个采用加密,一个直接…

如何了解(海外抖音TiKToK)与国内抖音的区别以及介绍

一、海外抖音TK平台的优势 自从抖音在中国大受欢迎后,海外也推出了海外版抖音TK平台。尽管两者都是视频分享平台,但它们在一些方面具有明显的区别和独特的优势。下面将详细介绍海外抖音TK平台的优势以及与国内抖音的区别性。 优势: 1. 多元…

常见的TikTok变现方式,你知道几种?

在众多的海外社交媒体中,TikTok以其极具特色的娱乐化短视频,吸引了庞大的用户群体。目前TikTok仍处于发展阶段,竞争压力小、营销效果显著,属于变现的红利期。那么常见的TikTok变现方式,你知道几种呢? 变现方…

跨境人看过来:为什么要使用 TikTok 进行 B2B 营销

每个月,8000 万人平均在 TikTok 上花费 24 小时。这一新机遇彻底改变了 B2C 品牌与客户互动的方式。用于 B2B 营销的 TikTok 能否释放同样的潜力? 相当多的品牌正试图自己回答这个问题。并非所有 B2B 公司都可以利用这些即时#TikTokMadeMeBuyIt B2C 转换…

如何利用ChatGPT打造热门TikTok内容?

TikTok已经成为了全球最流行的短视频平台之一,它每天都有数百万的用户发布和观看视频。 但是,如何在这个平台上发布有吸引力的内容,并吸引更多的粉丝?答案是利用ChatGPT。 ChatGPT是一种基于人工智能的语言模型,可以生…

别等ChatGPT开源了,升级版OPT开源模型来了!

源|新智元 编|Joey 昕朋 今年五月,MetaAI官宣发布了基于1750亿参数的超大模型OPT-175B,还对所有社区免费开放。 12月22日,该模型的更新版本OPT-IML(Open Pre-trained Transformer)正式上线&…

微软发布「升级版」多模态大模型 Kosmos-2!新增局部理解能力,解锁实体级交互

夕小瑶科技说 原创 作者 | 小戏、ZenMoore 三个多月前,微软亚洲研究院在论文《Language Is Not All You Need: Aligning Perception with Language Models》中发布了一个强大的多模态大模型 Kosmos-1,成功将感知与语言对齐,在 ChatGPT 的多…

OpenAI居然能自动写论文?导师直言我都犯难了...

最近两个月以来,刷屏网络技术圈的莫过于chatGPT 莫属了!闲暇之余,自己也去注册了一个账号来看看它的魔力,毕竟也有很多博主抵挡不住其中的诱惑,好吧,我也抵挡不住,也就去开了openAI实验了一番&a…

ChatGPT 太火爆了,为什么不被开发者所欢迎?

可以说,ChatGPT是近几个月最受欢迎的话题之一,毕竟这个聊天机器人比它的前辈们“聪明”了很多,除了聊天之外,还会打草稿和编写代码,在某种程度上也能提高生产力。 记得 ChatGPT 最开始上线不久的时候,看到…

如何搭建公共聊天室

搭建公共聊天室 一、聊天室介绍 本聊天室主要运用了udp协议,应用于局域网范围之内,可以支持多个处于同一个局域网的主机在局域网内相互传递消息。本聊天室由一个服务器端和若干个客户端组成,由一台主机打开服务器端,其他主机通过…

实战:向人工智能看齐用Docker部署一个ChatGPT

文章目录 前言鉴赏chatgpt环境要求开始搭建云安装docker从docker仓库拉取chatgpt-web镜像创建容器并运行chatgpt-web创建容器启动chatgpt-web访问自己的chatgpt 总结 前言 目前GPT-4都官宣步入多模态大型语言模型领域了,大佬竟然还没有体验GPT么。作为一个资深搬砖…

ChatGPT | Poe AI—体验多个不同 AI 人工智能对话模型

近日,随着ChatGPT等AI产品不断推陈出新,问答平台Quora现也开放新的AI聊天机器人应用Poe,可供用户随意访问。用户可以向它提出问题,Poe从多种AI聊天机器人处获取答案,包括ChatGPT背后母公司OpenAI以及Anthropic等其他公…