【自然语言处理】【ChatGPT系列】Chain of Thought:从大模型中引导出推理能力

Chain-of-Thought Prompting:从大模型中引导出推理能力
《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》

论文地址:https://arxiv.org/pdf/2201.11903.pdf

相关博客
【自然语言处理】【ChatGPT系列】WebGPT:基于人类反馈的浏览器辅助问答
【自然语言处理】【ChatGPT系列】ChatGPT的智能来自哪里?
【自然语言处理】【ChatGPT系列】Chain of Thought:从大模型中引导出推理能力
【自然语言处理】【ChatGPT系列】InstructGPT:遵循人类反馈指令来训练语言模型
【自然语言处理】【ChatGPT系列】大模型的涌现能力
【自然语言处理】【文本生成】CRINEG Loss:学习什么语言不建模
【自然语言处理】【文本生成】使用Transformers中的BART进行文本摘要
【自然语言处理】【文本生成】Transformers中使用约束Beam Search指导文本生成
【自然语言处理】【文本生成】Transformers中用于语言生成的不同解码方法
【自然语言处理】【文本生成】BART:用于自然语言生成、翻译和理解的降噪Sequence-to-Sequence预训练
【自然语言处理】【文本生成】UniLM:用于自然语言理解和生成的统一语言模型预训练
【自然语言处理】【多模态】OFA:通过简单的sequence-to-sequence学习框架统一架构、任务和模态

一、简介

请添加图片描述

​ 语言模型为自然语言处理带来了革命,而扩大语言模型规模可以提高下游任务效果、样本效率等一系列的好处。然而,单纯扩大语言模型的尺寸并不能够使算术、常识和符号推理获得更好的表现。文本尝试使用简单的方法来解锁大规模语言模型的推理能力,该方法主要来自于两个想法:(1) 算术推理能够从自然语言论据中受益,从而得到最终的答案。先前的研究通过从头训练或者微调预训练模型从而赋予模型生成自然语言中间步骤的能力。(2) 大规模语言模型通过 prompting \text{prompting} prompting提供了 few-shot learning \text{few-shot learning} few-shot learning的能力。也就是说,不需要为每个任务微调单独的语言弄下checkpoint,而是通过任务相关的"输入-输出"示例来提示模型。

​ 然而,上面的想法有一些限制。论据增强的训练和微调方法需要大量的高质量论据,这比简单的"输入-输出"样本对复杂的多。传统的 few-shot prompting \text{few-shot prompting} few-shot prompting方法在需要推理能力的任务上表现很差,并且不会随着语言模型规模的增加而改善。在本文中,作者以某种方式合并两个想法中的能力来避免这些限制。具体来说,给定一个由三元组组成的 prompt : ⟨ input, chain of thought, output ⟩ \text{prompt}:\langle\text{input, chain of thought, output}\rangle prompt:input, chain of thought, output,探索大模型在推理任务上的 few-shot prompting \text{few-shot prompting} few-shot prompting效果。 chain of thought \text{chain of thought} chain of thought是由一系列自然语言推理中间步骤组成,并最终给出答案,将该方法称为 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting。图1是一个示例 prompt \text{prompt} prompt

请添加图片描述

​ 本文给出了一个在算法、常识和符号推理基准上的评估,结果显示 Chain-of-thought prompting \text{Chain-of-thought prompting} Chain-of-thought prompting显著优于标准的 prompting \text{prompting} prompting,有时能够达到惊人的程度。上图展示了 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting GSM8K \text{GSM8K} GSM8K数学应用题基准上的结果, PaLM 540B \text{PaLM 540B} PaLM 540B大幅度超越了标准的 prompt \text{prompt} prompt并实现了新的 state-of-the-art \text{state-of-the-art} state-of-the-art prompt \text{prompt} prompt方法很重要,因为其不需要大的训练集并且能够不失一般性地在单个模型checkpoint执行很多任务。本文的目标是赋予语言模型生成类似 chain of thought \text{chain of thought} chain of thought的能力,即一系列中间推理步骤,从而得到问题最终的答案。本文展示了,在 few-shot prompting \text{few-shot prompting} few-shot prompting中提供一些 chain-of-thought \text{chain-of-thought} chain-of-thought推理的示例,足够大的语言模型就能生成 chains of thought \text{chains of thought} chains of thought

二、 Chain-of-Thought Prompting \text{Chain-of-Thought Prompting} Chain-of-Thought Prompting

​ 回想一下人类解决数学应用题这种复杂推理任务的过程。典型的做法是将问题分解为中间步骤并逐步解决并给出最终的答案:“Jane将2朵花送给她妈妈后还剩10朵…然后再送给她爸爸3朵后还有7朵…所以答案是7”。

考虑一下我们自己解决像数学应用题这样复杂推理任务的过程。典型的做法是将问题分解为中间步骤并逐步解决并给出最终的答案:“Jane将2朵花送给她妈妈后还剩10朵…然后再送给她爸爸3朵后还有7朵…所以答案是7”。本文的目标是赋予语言模型生成类似 chain of thought \text{chain of thought} chain of thought的能力,即一系列中间推理步骤,从而得到问题最终的答案。我们将会展示,若在 few-shot prompting \text{few-shot prompting} few-shot prompting提供一些 chain-of-thought \text{chain-of-thought} chain-of-thought推理的示例,足够大的语言模型就能生成 chains of thought \text{chains of thought} chains of thought

​ 图1展示了一个模型产生 chain of thought \text{chain of thought} chain of thought来解决数学应用题的示例。在该例子中, chain of thought \text{chain of thought} chain of thought类似于一种解决方案,其能够一步一步思考并给出最终答案。

Chain-of-thought prompting \text{Chain-of-thought prompting} Chain-of-thought prompting作为利用语言模型推理能力的方法,有几个吸引人的性质:

  • (1) chain of thought \text{chain of thought} chain of thought允许模型将多步推理问题分解为中间步骤,这意味着额外的计算可以分配到需要推理的问题上;
  • (2) chain of thought \text{chain of thought} chain of thought为模型的行为提供了一个可解释的窗口,并提供了调试推理路径错误的机会;
  • (3) chain-of-thought \text{chain-of-thought} chain-of-thought推理能够被用于数学应用题、常识推理和符号操作等任务,并且可能适用任何人类需要通过语言解决的问题;
  • (4) chain-of-thought \text{chain-of-thought} chain-of-thought可以通过将其加入到 few-shot prompting \text{few-shot prompting} few-shot prompting示例中,从而在足够大的语言模型中引导出推理能力。

三、算术推理

​ 首先通过数学应用题来衡量语言模型的数学推理能力。虽然数学推理能力对人类很简单,但是对模型来说十分挣扎。当具有 540B \text{540B} 540B参数语言模型上使用 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting,其能与在几个任务上微调的效果相当,甚至在具有挑战性的 GSM8K \text{GSM8K} GSM8K基准实现了新的 state-of-the-art \text{state-of-the-art} state-of-the-art

1. 实验设置

  • 基准

    考虑5个数学应用题基准:(1) 数学应用题基准 GSM8K \text{GSM8K} GSM8K; (2) 具有不同结构的数学应用题基准 SVAMP \text{SVAMP} SVAMP; (3) 具有多种数学应用题的基准 ASDiv \text{ASDiv} ASDiv; (4) 代数应用题数据集 AQuA \text{AQuA} AQuA;(5) MAWPS \text{MAWPS} MAWPS基准。

  • 标准 prompting \text{prompting} prompting

    baseline是标准的 few-shot prompting \text{few-shot prompting} few-shot prompting,给模型一个"输入-输出"对示例,然后模型就可以在测试时给出答案。

  • Chain-of-thought prompting \text{Chain-of-thought prompting} Chain-of-thought prompting

    本文提出的方法是通过一个关联了答案的 chain of thought \text{chain of thought} chain of thought来增强 few-shot prompting \text{few-shot prompting} few-shot prompting示例。由于大多数的数据集仅有一个评估集,作者手动构建了8个具有 chain of thought \text{chain of thought} chain of thought few-shot \text{few-shot} few-shot示例集合,图1右侧展示了一个 chain of thought \text{chain of thought} chain of thought示例。在除了 AQuA \text{AQuA} AQuA以外的所有基准上是使用了这8个示例集合。对于 AQuA \text{AQuA} AQuA,这使用来自训练集的4个示例。

  • 语言模型

    本文评估了5个大模型。

    (1) GPT-3 \text{GPT-3} GPT-3,使用的版本为 text-ada-001 \text{text-ada-001} text-ada-001 text-babbage-001 \text{text-babbage-001} text-babbage-001 text-curie-001 \text{text-curie-001} text-curie-001 text-davinci-002 \text{text-davinci-002} text-davinci-002,大致对应 InstructGPT \text{InstructGPT} InstructGPT模型的 350M、1.3B、6.7B、175B \text{350M、1.3B、6.7B、175B} 350M1.3B6.7B175B参数量;

    (2) LaMDA \text{LaMDA} LaMDA,其具有 442M、2B、8B、68B、137B \text{442M、2B、8B、68B、137B} 442M2B8B68B137B参数量的版本;

    (3) PaLM \text{PaLM} PaLM,其具有 8B、62B、540B \text{8B、62B、540B} 8B62B540B参数量;

    (4) UL2 20B \text{UL2 20B} UL2 20B

    (5) CodeX \text{CodeX} CodeX

    通过贪心解码的方法来采样。对于 LaMDA \text{LaMDA} LaMDA,本文报告了5个随机种子的平均结果,且每个种子都对应不同的样本顺序。由于 LaMDA \text{LaMDA} LaMDA在不同种子中并没有显示出大的方差,为了节省计算,对所有的其他模型仅报告单个样本的结构。

2. 结果

请添加图片描述

chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting最优的结果如上图所示,这里有三个关键要点。

​ 首先、上图展示了 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting是模型规模的涌现能力,即 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting对于小模型不会有正面的影响,仅当模型参数达到 ∼ 100B \sim\text{100B} 100B参数才会有效果上的收益。作者定性的发现,较小的模型产生流畅但不合逻辑的 chain-of-thought \text{chain-of-thought} chain-of-thought,导致其会比标准的 prompting \text{prompting} prompting更差的表现。

​ 第二、对于更复杂的问题 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting具有更大的效果收益。例如,对于 GSM8K \text{GSM8K} GSM8K,最大的 GPT \text{GPT} GPT PaLM \text{PaLM} PaLM模型效果翻了一倍。对于 MAWPS \text{MAWPS} MAWPS基准中最简单的子集 SingleOP \text{SingleOP} SingleOP,该子集中的问题仅需要一步就能解决,那么 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting对于性能的改善要么是负的、要么非常小。

​ 第三、基于 GPT-3 175B \text{GPT-3 175B} GPT-3 175B PaLM 540B \text{PaLM 540B} PaLM 540B chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting优于先前在标注的训练集上进行任务相关微调的 state of the art \text{state of the art} state of the art模型。上图展示了 PaLM 540B \text{PaLM 540B} PaLM 540B如何使用 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting来在 GSM8K,SVAMP,MAWPS \text{GSM8K,SVAMP,MAWPS} GSM8K,SVAMP,MAWPS实现新的 state of the art \text{state of the art} state of the art。在 AQuA \text{AQuA} AQuA ASDiv \text{ASDiv} ASDiv这两个数据集上, PaLM \text{PaLM} PaLM能够达到 state of the art \text{state of the art} state of the art

​ 为了更好的理解 chain-of-thought \text{chain-of-thought} chain-of-thought为什么有效,作者手动检查了 LaMDA 137B \text{LaMDA 137B} LaMDA 137B GSM8K \text{GSM8K} GSM8K生成的 chain-of-thought \text{chain-of-thought} chain-of-thought。在模型返回的50个正确的例子中,除了有两个是巧合得到答案外,所有生成的 chain of thought \text{chain of thought} chain of thought都在逻辑和数学上是正确的。此外,作者也检查了模型返回的50个错误的例子,46%的 chain of thought \text{chain of thought} chain of thought几乎是正确的,处理一些小的错误,其余54%的 chain of thought \text{chain of thought} chain of thought在语义理解或一致性上有主要错误。为了能够深入理解规模能够改善 chain of thought \text{chain of thought} chain of thought推理能力,作者对 PaLM 62B \text{PaLM 62B} PaLM 62B所犯的错误提供了相似的分析,但模型放大至 PaLM 540B \text{PaLM 540B} PaLM 540B是可以修复这些错误。总的来说,将 PaLM \text{PaLM} PaLM放大至 540B \text{540B} 540B能够修复 62B \text{62B} 62B模型中大部分的单步错误和语义理解错误。

3. 消融实验

请添加图片描述

chain of thought prompting \text{chain of thought prompting} chain of thought prompting能够带来效果上的收益,那么自然会期望知道是否可以通过其他类型的 prompting \text{prompting} prompting来获得相同的性能改善。上图展示了 chain of thought \text{chain of thought} chain of thought三个变体的消融实验。

  • Equation only

    chain of thought prompting \text{chain of thought prompting} chain of thought prompting有效的可能原因是产生了数学方程式。所以,本文测试了一个变体,模型被提示在给出答案之前仅输出一个数学方程式。上图表明 Equation Only prompting \text{Equation Only prompting} Equation Only prompting对于 GSM8K \text{GSM8K} GSM8K并没有多少帮助,这意味着不生成自然语言推理步骤而直接生成一个数学方程式对于模型还是太难。然而,对于单步或者两步问题, equation only prompting \text{equation only prompting} equation only prompting可以改善效果,因为方程能够轻易从问题中推导出来。

  • Variable compute only

    另一个直觉是, chain of thought \text{chain of thought} chain of thought允许模型在更难的问题上花费更多的计算。为了从 chain-of-thought \text{chain-of-thought} chain-of-thought推理中分离出变量计算的影响,本文测试了一种配置:其中模型被提出输出一个点序列,等于方程中字符数量需要解决的问题。这个变体的表现与baseline相同,其表明变量计算本身不是 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting成功的原因,并且通过自然语言表达的中间步骤是有用的。

  • Chain of thought after answer

    chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting另一个潜在的收益可能是, prompts \text{prompts} prompts允许模型更好的访问在预训练中的相关知识。因此测试了另一种配置: chain of thought prompt \text{chain of thought prompt} chain of thought prompt仅在答案之后给出。这一变体的表现与baseline相同,这表明 chain of thought \text{chain of thought} chain of thought中的序列推理能力有用的原因不仅仅是激活知识。

4. chain of thought \text{chain of thought} chain of thought鲁棒性

请添加图片描述

​ 样本敏感性是 prompting \text{prompting} prompting方法的主要考虑因素,例如:在 SST-2 \text{SST-2} SST-2基准上改变 few-shot \text{few-shot} few-shot样本的顺序能够使 GPT-3 \text{GPT-3} GPT-3的准确率从54.3%提升至93.4%。本小节将评估不同标注者撰写的 chain of thought \text{chain of thought} chain of thought鲁棒性。上图展示了 LaMDA 137B \text{LaMDA 137B} LaMDA 137B GSM8K \text{GSM8K} GSM8K MAWPS \text{MAWPS} MAWPS的结果。虽然不同 chain of thought \text{chain of thought} chain of thought标注间存在着差异,但所有的 chain of thought prompt \text{chain of thought prompt} chain of thought prompt集合都大幅度的超越了标准的baseline。这个结果意味着 chain of thought \text{chain of thought} chain of thought的成功运用不依赖特定的语言风格。

​ 为了确认 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting成功在其他例子中也适用,本文还从 GSM8K \text{GSM8K} GSM8K训练集中随机采样三个8样本集合进行实验。上图显示,这些 prompts \text{prompts} prompts的表现与我们人工编写的效果相当,也是显著优于标准的 prompting \text{prompting} prompting

​ 除了标注者、独立编写的 chain of thought \text{chain of thought} chain of thought、不同的示例和各种语言模型的鲁棒性,作者也发现 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting对于数学推理能力在示例顺序和示例数量上具有鲁棒性。

四、常识推理

请添加图片描述

chain of thought \text{chain of thought} chain of thought特别适合于数学应用题。 chain of thought \text{chain of thought} chain of thought基于语言的本质实际上使其适合于广泛的常识推理问题,其包括在一般背景知识的假设下,对物理和人类交互的推理。常识推理是与世界互动的关键,并且仍然超越了当前自然语言理解系统的范围。

1. 基准

​ 本文考虑覆盖了各类常识推理类型的5个数据集。(1) CSQA \textbf{CSQA} CSQA数据集中包含关于世界的常识问题,其涉及到复杂的语义并且需要先验知识。 StrategyQA \textbf{StrategyQA} StrategyQA需要模型推理多跳策略来回答问题。从 BIG-bench \text{BIG-bench} BIG-bench基准中选择了两个专门的评估集: Date \textbf{Date} Date理解,其涉及到从给定的上下文中推断日期; Sports \textbf{Sports} Sports理解,其涉及到判断一个与体育相关的句子是否可信。最后, SayCan \textbf{SayCan} SayCan数据集涉及到映射自然语言指令到机器人动作序列。

2. Prompts \text{Prompts} Prompts

​ 遵循先前章节相同的实验设置。对于 CSQA \textbf{CSQA} CSQA StrategyQA \textbf{StrategyQA} StrategyQA,随机从训练集挑选样本并手工构造 chain of thought \text{chain of thought} chain of thought来作为 few-shot \text{few-shot} few-shot示例。两个 BIG-bench \text{BIG-bench} BIG-bench任务没有训练集,所以从评估集中选择前10个样本作为 few-shot \text{few-shot} few-shot示例。对于 SayCan \textbf{SayCan} SayCan,从训练集中挑选6个样本,然后人工构造 chain of thought \text{chain of thought} chain of thought

3. 结果

​ 上图展示了 PaLM \text{PaLM} PaLM的结果。对于所有的任务,放大模型尺寸能够改善标准 prompting \text{prompting} prompting的效果,而 chain of thought prompting \text{chain of thought prompting} chain of thought prompting能够带来进一步的收益, PaLM 540B \text{PaLM 540B} PaLM 540B的改善似乎是最大的。在使用 chain of thought prompting \text{chain of thought prompting} chain of thought prompting的情况下, PaLM 540B \text{PaLM 540B} PaLM 540B相较于baseline实现了非常好的效果。在

​ 上图重点介绍了 PaLM \text{PaLM} PaLM的结果。对于所有的任务,放大模型尺寸能够改善标准 prompting \text{prompting} prompting的效果; chain of thought prompting \text{chain of thought prompting} chain of thought prompting能够带来进一步的收益, PaLM 540B \text{PaLM 540B} PaLM 540B的改善似乎是最大的。使用 chain of thought prompting \text{chain of thought prompting} chain of thought prompting PaLM 540B \text{PaLM 540B} PaLM 540B相较于baselines实现了很强的表现。在 StrategyQA \textbf{StrategyQA} StrategyQA超越了先前的 state of the art \text{state of the art} state of the art(75.6% vs 69.4%),并且在体育理解上优于一个无辅助的体育爱好者。这些结果表明, chain of thought prompting \text{chain of thought prompting} chain of thought prompting能够改善一系列需要尝试推理能力的任务。

五、符号推理

请添加图片描述

​ 最后的实验会评估符号推理,其对于人类很简单,但是对语言模型非常有挑战。实验展示了 chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting不仅能够使语言模型执行符号推理任务,也能够促进在推理时的长度泛化到更长的未见过的 few-shot \text{few-shot} few-shot示例。

1. 任务

  • 末尾字符拼接

    该任务要求模型将名字中每个单词末尾字符拼接起来(例如: Amy Brown → yn \text{Amy Brown}\rightarrow\text{yn} Amy Brownyn),其比首字符拼接更有挑战,因为首字符拼接在没有 chain of thought \text{chain of thought} chain of thought情况下语言模型也可以完成。作者从从姓名普查数据中排名前1000位的名和姓中随机拼接姓名来生成全名。

  • 硬币反转

    该任务要求模型回答在人类在抛或者不抛硬币后,硬币是否仍然朝上。(例如:一个硬币朝上。Phoebe反转了硬币,而Osvaldo没有反转,那么硬币是否仍然朝上? -> no)。

​ 由于这些符号推理任务构造过程是明确的,考虑一个领域内测试集,样本与训练/ few-shot \text{few-shot} few-shot示例具有相同的步数;一个领域外测试集 (OOD) \text{(OOD)} (OOD),其评估步数要比示例更多。对于末尾字符拼接,模型仅见过带有两个单词的名字示例,随后会在具有3和4个单词的名字上执行末尾字符拼接任务。在硬币反转任务中,潜在反转次数上进行相同操作。为每个任务人工构造了用于 few-shot \text{few-shot} few-shot示例的 chain of thought \text{chain of thought} chain of thought

2. 结果

​ 上图是 PaLM \text{PaLM} PaLM在领域内和领域外评估的结果。对于模型 PaLM 540B \text{PaLM 540B} PaLM 540B chain-of-thought prompting \text{chain-of-thought prompting} chain-of-thought prompting几乎能够带来接近100%的解决率。此外,这些领域内的评估是“toy tasks”,某种意义上完美的解决结构早已经通过 few-shot \text{few-shot} few-shot示例的 chain of thought \text{chain of thought} chain of thought提供了。在测试时,所有模型在新符号上必须重复相同的步骤。然而,小模型仍然会失败,在这三个任务中对于未见过的符号进行抽象操作能力只会出现在超过 100B \text{100B} 100B的模型参数。

​ 对于领域外评估,标准的 prompting \text{prompting} prompting在两个任务上都失败了。使用 chain of thought prompting \text{chain of thought prompting} chain of thought prompting语言模型实现了好的效果。因此,对于足够规模的语言模型, chain of thought prompting \text{chain of thought prompting} chain of thought prompting有助于长度泛化自未见过的 chain of thought \text{chain of thought} chain of thought

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/16242.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

真正拖垮你的,是沉没成本

— 1— 沉没成本谬误 沉没成本指的是那些发生在过去,我们无法去收回或改变的付出。 这些付出,包括且不限于金钱、时间、精力、感情等等。 其实,你还会遇到很多类似情况。 不想浪费白等的时间,不愿意打车,心想再坚持…

【报名】智慧金融,以技术红利创造财富价值丨直播预告

‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 随着科技的快速发展和数字化时代的到来,金融行业也正面临着前所未有的变革和机遇。在这个变革的浪潮中,智慧金融作为引领金融科技创新的关键力量,正成为行业的焦点。在数字经济和人工智能…

如何快速入门 Java?

在一线互联网公司做开发 13 年了,“精通”Java,“吊打”一众面试官,如何快速入门 Java,对我来说简直就是小儿科,相信看完后你一定能收获满满、醍醐灌顶,今年秋招拿下阿里、美团等互联网大厂的 offer。 逼装…

深度:全面解析数据智能的金融“炼金术”!

‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 金融以其财富效应,成为最新科技的试金石。一项新技术出来后,人们首先闪过的念头就是“能不能用它赚钱”。例如,ChatGPT带火了大模型,人们也开始将目标聚焦到大模型在金融领域的…

市场营销人员如何使用ChatGPT提升效能?

在如今竞争激烈的市场环境下,市场人的工作备受挑战。他们需要了解和掌握不同的市场趋势和客户需求,制定和调整各种营销策略以适应日益变化的市场环境。 此外, 市场运营人员还需要通过各种渠道和方式,进行品牌宣传、客户服务、销售…

ChatGPT+Xmind精美导图,炸裂了!

用ChatGPT做的Java学习路线思维导图,先看效果 1、输入问题【Java学习路线】,并且后面要加【请用代码形式呈现】 2、输出结果后,点击拷贝代码copy code 3、新建一个txt文档,然后把代码拷贝进去,效果图如下,拷…

【人工智能大模型】一文彻底讲透——什么是 PPO(Proximal Policy Optimization,近端策略优化)?

文章目录 什么是 PPO(Proximal Policy Optimization,近端策略优化)?PPO 简介PPO 算法流程PPO 的数学公式PPO 算法原理如何在实际应用中使用PPO算法?什么是近端优化?怎样进行近端优化的?什么是 KL 散度?ppo2.py什么是 PPO(Proximal Policy Optimization,近端策略优化)…

Vue知识点整理(待更新)

Vue知识点整理(待更新) 参考Vue.js中文官网,Vue 知识点汇总(上)–附案例代码及项目地址,Vue 知识点汇总(下)–附案例代码及项目地址,Vue知识点汇总【持更】 文章目录 Vu…

开源节流皆不易,水滴再“画AI大饼”能否充饥?

收并购以实现规模扩张,会是水滴的解药吗? 日前,水滴公司公告称将战略投资深圳存真求实科技有限公司(即“深蓝保”),分阶段完成,第一阶段占股56%。 深蓝保是一家以微信公众号、小程序为载体&am…

售价高达2.5万,苹果首款MR头显“炸场”,眼睛、手和语音都能控制,WWDC23开启科技革命...

作者 | 屠敏 出品 | CSDN(ID:CSDNnews) 新技术追逐下,OpenAI 搅动 AI 风云,微软、Google、亚马逊、百度、阿里、科大讯飞等国内外科技大厂群雄逐鹿。与之形成鲜明对比的是,一直处于静默状态下的苹果&#x…

【GPT4】GPT4 创作郭德纲姜昆相声作品的比较研究

欢迎关注【youcans的 AIGC 学习笔记】原创作品 说明:本文附录内容由 youcans 与 GPT-4 共同创作。 【GPT4】GPT4 创作郭德纲姜昆相声作品的比较研究 研究总结0. 背景1. 对 GPT4 创作的第 1 段相声的分析2. 对GPT4 创作的第 2 段相声的分析3. 对GPT4 创作的第 3 段相…

以太坊支付通道

以太坊及相关的区块链技术的长处在于可以通过去中心化和无需信任的方式进行转账,不过在实现高效益的小额支付上仍需努力。本文讨论了小额交易的问题,介绍了支付通道,并概述了支付通道的工作方式。 下图的交易流程可大致反映以太坊的简单支付…

以太坊共识DAG笔记

DAG解析 1.什么是DAG ? DAG,中文名"有向无环图"。"有向"指的是有方向,准确的说应该是同一个方向,"无环"则指够不成闭环。在DAG中,没有区块的概念,他的组成单元是一笔笔的交…

3步! 老司机教你如何在以太坊上构建基于Token去中心化投票系统!

作者 | Doug Crescenzi 译者 | 王柯凝 出品 | CSDN、区块链大本营 如果想在以太坊平台上构建一个去中心化的自治系统,其实有很多种不同的方法可供你选择。其中,最常用的方法之一就是,选民使用代币(Token)代表投票。你拥…

新版以太坊Ethereum库ethersV5.0配合后端Golang1.18实时链接区块链钱包(Metamask/Okc)以及验签操作

区块链去中心化思想无处不在,比如最近使用个体抗原自检替代大规模的中心化核酸检测,就是去中心化思想的落地实践,避免了大规模聚集导致的交叉感染,提高了检测效率,本次我们使用Ethereum最新的ethersV5.0以上版本链接去…

以太坊Geth Trie源码解析

引言 Merkle Patricia Trie 是一种经过改良的、融合了默克尔树(Merkle Trie)和前缀树(Patricia Trie)两种树结构优点的数据结构,是以太坊中用来存储键值数据对(Key, Value)的重要树形数据结构。…

以太坊编程-Geth

前提:开发环境为Windows版本 一、下载安装 geth安装官网地址:https://geth.ethereum.org/downloads/ 安装时,根据提示一步一步安装即可 安装完成之后,需要进行配置环境变量 二、创世区块部署 新建.json文件:新建记事…

国华小状元1号年金险怎么样?好不好?

很多家长开始为孩子做好未来的教育准备,有一些家长过来私信学姐,少儿年金险有没有必要给孩子买一个? 正巧,学姐测评了一款少儿年金险,是国华人寿旗下的——国华小状元1号少儿年金保险。 听说保障内容不错&#xff1f…

风电场运营实践 | 麒麟信安助力国华投资山东公司集控中心实现安全智慧化运营

国华能源投资有限公司旗下山东分公司(简称:国华投资山东公司)的集控中心是山东省覆盖风电场装机规模最大的集控中心。日前,依托于部署的麒麟信安操作系统、麒麟信安服务器虚拟化等产品,国华投资山东公司智慧新能源集控…

约瑟夫环问题——数据结构p76页(耿国华主编)

约瑟夫环问题 题目: 约瑟夫问题的一种描述是:编号为1,2,……,n的n个人按顺序顺时针方向围坐一圈,每人持有一个密码(正整数)。开始时任选一个整数作为报数上限m,从第一个人…