LLM探索:GPT类模型的几个常用参数 Top-k, Top-p, Temperature

Top-k抽样模型从最可能的"k"个选项中随机选择一个如果k=10,模型将从最可能的10个单词中选择一个
Top-p抽样模型从累计概率大于或等于“p”的最小集合中随机选择一个如果p=0.9,选择的单词集将是概率累计到0.9的那部分
Temperature控制生成文本随机性的参数。较高的温度值会产生更随机的输出,而较低的温度值则会使模型更倾向于选择最可能的单词较高的温度值,如1.0,会产生更随机的输出,而较低的温度值,如0.1,会使模型更倾向于选择最可能的单词

 

前言

上一篇文章介绍了几个开源LLM的环境搭建和本地部署,在使用ChatGPT接口或者自己本地部署的LLM大模型的时候,经常会遇到这几个参数,本文简单介绍一下~

  • temperature
  • top_p
  • top_k

关于LLM

上一篇也有介绍过,这次看到一个不错的图

A recent breakthrough in artificial intelligence (AI) is the introduction of language processing technologies that enable us to build more intelligent systems with a richer understanding of language than ever before. Large pre-trained Transformer language models, or simply large language models, vastly extend the capabilities of what systems are able to do with text.

LLM看似很神奇,但本质还是一个概率问题,神经网络根据输入的文本,从预训练的模型里面生成一堆候选词,选择概率高的作为输出,上面这三个参数,都是跟采样有关(也就是要如何从候选词里选择输出)。

temperature

用于控制模型输出的结果的随机性,这个值越大随机性越大。一般我们多次输入相同的prompt之后,模型的每次输出都不一样

  • 设置为 0,对每个prompt都生成固定的输出
  • 较低的值,输出更集中,更有确定性
  • 较高的值,输出更随机(更有创意😃)

一般来说,prompt 越长,描述得越清楚,模型生成的输出质量就越好,置信度越高,这时可以适当调高 temperature 的值;反过来,如果 prompt 很短,很含糊,这时再设置一个比较高的 temperature 值,模型的输出就很不稳定了。

遇事不决就调参,调一下,万一就生成了不错的回答呢?

PS:ChatGLM提供的例子把范围限定在0-1之间。

top_k & top_p

这俩也是采样参数,跟 temperature 不一样的采样方式。

前面有介绍到,模型在输出之前,会生成一堆 token,这些 token 根据质量高低排名

比如下面这个图片,输入 The name of that country is the 这句话,模型生成了一堆 token,然后根据不同的 decoding strategy 从 tokens 中选择输出。

这里的 decoding strategy 可以选择

  • greedy decoding: 总是选择最高分的 token,有用但是有些弊端,详见下文
  • top-k: 从 tokens 里选择 k 个作为候选,然后根据它们的 likelihood scores 来采样
  • top-p: 候选词列表是动态的,从 tokens 里按百分比选择候选词
  • Top-k抽样模型从最可能的"k"个选项中随机选择一个如果k=10,模型将从最可能的10个单词中选择一个
    Top-p抽样模型从累计概率大于或等于“p”的最小集合中随机选择一个如果p=0.9,选择的单词集将是概率累计到0.9的那部分
    Temperature控制生成文本随机性的参数。较高的温度值会产生更随机的输出,而较低的温度值则会使模型更倾向于选择最可能的单词较高的温度值,如1.0,会产生更随机的输出,而较低的温度值,如0.1,会使模型更倾向于选择最可能的单词

top-k 与 top-p 为选择 token 引入了随机性,让其他高分的 token 有被选择的机会,不像 greedy decoding 一样总是选最高分的。

greedy decoding

好处是简单,坏处是容易生成循环、重复的内容

Greedy decoding is a reasonable strategy but has some drawbacks such as outputs with repetitive loops of text. Think of the suggestions in your smartphone's auto-suggest. When you continually pick the highest suggested word, it may devolve into repeated sentences.

top-k

设置越大,生成的内容可能性越大

设置越小,生成的内容越固定;

设置为1时,和 greedy decoding 效果一样。

Changing the top-k parameter sets the size of the shortlist the model samples from as it outputs each token. Setting top-k to 1 gives us greedy decoding.

top-p

top-p 又名 Nucleus Sampling(核采样)

与 top-k 固定选取前 k 个 tokens 不同,top-p 选取的 tokens 数量不是固定的,这个方法是设定一个概率阈值。

继续上面的例子,将 top-p 设定为 0.15,即选择前 15% 概率的 tokens 作为候选。如下图所示,United 和 Netherlands 的概率加起来为 15% ,所以候选词就是这俩,最后再从这些候选词里,根据概率分数,选择 united 这个词。

Top-p is usually set to a high value (like 0.75) with the purpose of limiting the long tail of low-probability tokens that may be sampled. We can use both top-k and top-p together. If both k and p are enabled, p acts after k.

经常遇到的默认 top-p 值就是 0.7/0.8 这样,还是那个说法,设置太低模型的输出太固定,设置太高,模型彻底放飞自我也不好。

2.从top tokens中挑选:top-k

另一种常用的策略是从前 3 个tokens的候选名单中抽样。这种方法允许其他高分tokens有机会被选中。这种采样引入的随机性有助于在很多情况下生成的质量。

Adding some randomness helps make output text more natural. In top-3 decoding, we first shortlist three tokens then sample one of them considering their likelihood scores.

更广泛地说,选择前三个tokens意味着将 top-k 参数设置为 3。更改 top-k 参数设置模型在输出每个token时从中抽样的候选列表的大小。将 top-k 设置为 1 可以进行贪心解码

Adjusting to the top-k setting.

3.从概率加起来为15%的top tokens中挑选:top-p

选择最佳 top-k 值的困难为流行的解码策略打开了大门,该策略动态设置tokens候选列表的大小。这种称为Nucleus Sampling 的方法将可能性之和不超过特定值的top tokens列入候选名单。top-p 值为 0.15 的示例可能如下所示:

In top-p, the size of the shortlist is dynamically selected based on the sum of likelihood scores reaching some threshold.

Top-p 通常设置为较高的值(如 0.75),目的是限制可能被采样的低概率 token 的长尾。我们可以同时使用 top-k 和 top-p。如果 k 和 p 都启用,则 p 在 k 之后起作用

参考资料

  • docs.cohere.com/docs/contro…
  • docs.cohere.com/docs/temper…
  • mp.weixin.qq.com/s/IswrgDEn9…

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/23371.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

GPT-4震撼发布:如何加入候补名单

ChatGPT 点燃了科技行业的明灯,GPT-4 能燎原吗? 谁能革得了 ChatGPT 的命?现在看来还是 OpenAI 自己。 在 ChatGPT 引爆科技领域之后,人们一直在讨论 AI「下一步」的发展会是什么,很多学者都提到了多模态,我…

chatgpt赋能python:如何用Python打造一个简单的抽奖程序

如何用Python打造一个简单的抽奖程序 随着互联网的不断发展,抽奖活动已经成为了各种营销活动的必备环节,因此如何快速便捷地实现一个抽奖程序也变得尤为重要。本文将介绍如何使用Python打造一个简单的抽奖程序。 一、抽奖程序的工作原理 抽奖程序的核…

一文读懂 ChatGPT 插件功能:语言模型获取新信息的“眼睛和耳朵”

来源:OpenAI 编译:巴比特 图片来源:由无界 AI工具生成 OpenAI:我们已经在 ChatGPT 中实现了对插件的初步支持。插件是专门为语言模型设计的工具,以安全为核心原则,并帮助 ChatGPT 访问最新的信息&#xff0…

OpenAI 再丢“王炸”:ChatGPT “封印”解除,能联网、搜索了!

整理 | 屠敏 郑丽媛 出品 | CSDN(ID:CSDNnews) 「乱花渐欲迷人眼」,新的一天里,OpenAI 再次丢出“王炸”:ChatGPT 推出插件功能,既能联网,也能开启搜索,还能执行代码和运…

三菱加工中心CNC编程G代码讲解

注意:在G之后没有接续数值指令中,在运转时将变成G00的动作。(注1)印有“*”记号表示初期状态应选择的指令码或被选择的指令码。印有“※”记号表示初期状态依参数所选定指令码或被选择的指令码。(注2)同一单…

如何用ChatGPT做咨询师,附Prompt

对基本问题研究得不深不透、得不到可靠的分析框架支持的情况下,仓促采取就事论事的应对措施 ,由于未能触及事情的根本,往往非但不能获得预期的效果,相反可能引发新的矛盾。 ——吴敬琏(著名经济学家,国务院…

chatGPT:5分钟制作PPT

近日,公司推广办公自动化,让我当回培训师,培训后勤部门员工如何使用RPA。做个培训PPT的重任自然得交给chatGPT了,以下是制作步骤: 步骤一:拟写提示词交chatGPT “你现在是一位编写PPT的高手。我会提出PPT的…

ChatGPT技巧大揭秘之PPT制作

接下来,我们将进入全新的ChatGPT篇章,这个篇章的主要目的是教大家如何正确地使用ChatGPT。很多人接触过ChatGPT,但是最终的结果都是不太满意,认为ChatGPT并没有传说中那么神奇。确实,要想让ChatGPT达到电影中那样神奇的…

安全的可靠的数据防泄密系统

大数据时代的来临,给人们的生活带来了很多便利,给企业提供了更多的商业机遇,而另一方面,大数据又增加了重要信息泄漏的风险,普通的信息安全防护手段在现阶段已经不能满足大数据时代的信息安全需求,需要专业…

恐怖的ChatGPT,肉哥也All in了!

这段时间真是太刺激了,AI领域几乎每天都会爆出一个超震撼的产品,有一种科幻马上要成现实的感觉。 不知道大家朋友圈是什么样,在整个创业的圈子里面,几乎全是 AI 相关。 就连 N 多年,传说中退休的传统互联网大佬&#x…

ChatGPT 速通手册——不同相似度算法的分值介绍

不同相似度算法的分值介绍 在信息大暴涨的今天,人类已经不可能出现通才、全才式的人物。利用 ChatGPT 来询问我们未知领域的知识是很好的习惯和用法。但对严肃知识的学习,一定要通过权威来源复核审校,保证自己所学知识的正确。否则&#xff…

亚马逊僵尸获取的三种方法 你正在使用哪一种?

亚马逊做跟卖的话是很简单便捷,不用自己大费周章的编写产品的listing 只需要找到一些合适的产品进行跟卖就可以了,还可以找到僵尸产品进行跟卖,我们常用的获取僵尸产品的三种方法; 第一种就是最原始的在亚马逊的商品页去找僵尸产品…

new bing 初体验:辅助看论文刚刚好

1. new bing使用条件 (1)安装Microsoft edge的dev版本 https://www.microsoft.com/zh-cn/edge/download?formMA13FJ (2)浏览器侧栏打开 Discover (3) 进入new bing 页面 侧栏展示 new bing 如果这一步,没有聊天功能…

在课堂上使用ChatGPT的三种创意方法

泰晤士世界大学排名. 自1910年从泰晤士报的一个高等教育专栏开始,经过100多年的建设和转变,泰晤士现已是一所世界大学大数据分析的国际机构,同时是获奖无数的国际高教传媒,每日及时报道各国各领域的高教发展趋势和走向。 在课堂上…

ChatGPT的横空出世,带给教育的冲击有多大?

最近很火的ChatGPT想必大家都有所耳闻,短短数日就占据了各大热搜榜单,或许我们无法明晰商业的浪潮,也对技术原理知之甚少,但它的功能却强大到让人叹为观止。 它可以写文章,可以做预算,可以编写代码……甚至…

腾讯工程师聊ChatGPT技术「文集」

想知道 ChatGPT 玩法、核心原理、搭建体验流程、最新竞品吗? 近期,美国人工智能研究机构 OpenAI 发布了最新的大语言模型 ChatGPT,其惊艳的性能在海内外掀起了一波又一波热潮。腾讯云开发者「热技解读」专栏特邀专家,从多方面分享…

2023 Chatgpt php源码

首次使用配置: 请访问 http://你的域名/key.php 配置您的API_KEY列表,程序将全局自动循环调用。默认用户名:admin,默认密码:admin2023。默认用户名密码可以在key.php文件中修改。 本项目完全开源,是PHP版…

GPT-3.5 也能直接联网了!

公众号关注 “GitHubDaily” 设为 “星标”,每天带你逛 GitHub! ChatGPT 常令人诟病的一个问题,就是它的模型训练数据,迄今为止用的还是 2021 年的老数据。 对于当下这个信息大爆炸时代,相隔两小时,消息都有…

ChatGPT进一步联网,距离成为超级流量入口还有多远?|数智焦点

备受瞩目的ChatGPT联网功能又更进一步。 继三月首次推出插件功能(Plugin)后,本周ChatGPT再次更新,将向Plus用户开放约70个第三方插件,覆盖购物、餐饮、旅行、天气、运算、翻译、分析数据等多种功能。 一个多月前&…

OpenAI 刚刚宣布了海量更新

OpenAI 刚刚宣布了海量更新,增加函数调用,支持更长上下文,价格更低! ​新模型上架 1、gpt-4-0613 2、gpt-4-32k-0613 3、gpt-3.5-turbo-0613 4、gpt-3.5-turbo-16k 部分模型降价 1、text-embedding-ada-002:$0.00…