「慢思考」机理分析:从雪球误差到正确推理概率

在大语言模型(LLMs)的发展历程中, Scaling Laws [1] 一直是推动性能提升的核心策略。研究表明,随着模型规模和训练数据的增长,LLMs 的表现会不断优化 [2]。然而,随着训练阶段规模的进一步扩大,性能提升的边际收益逐渐减小,训练更强大的模型需要巨额投入。因此,研究重点逐渐从训练阶段的扩展转向推理阶段的扩展 [3],探索在不增加模型参数量的情况下,如何提升推理质量。

「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。研究发现,增加推理时间能够显著提升 LLM 的推理质量 [7],这一发现推动了对 「慢思考」方法的深入研究。

「慢思考」主要可以分为内部慢思考(Internal Slow-Thinking) 和 外部慢思考(External Slow-Thinking) 两种方式

  • 内部慢思考:通过额外的训练,使模型在专门的推理任务上优化参数,提升自身的推理深度和输出质量。

  • 外部慢思考:不改变模型本身,而是增加计算开销,例如通过多次采样、重新生成答案等方式延长推理过程,从而提高推理的准确性和可靠性。

本文主要关注外部慢思考。在面对复杂问题时,人类往往会花费额外的时间思考和完善推理的中间过程,以提高准确性。外部慢思考受这一认知过程的启发,通过增加推理步骤来提升大语言模型的推理质量 [8]。例如,BoN(Best-of-N)方法会生成多个答案,并通过多数投票或排序等策略选出最优解 [9]。此外,更前沿的框架 如思维链(CoT)[10]、思维树(ToT)[11] 以及借鉴 AlphaGo [12] 蒙特卡洛树搜索(MCTS) 的方法,能够在树状结构中探索解答空间,寻找更优的答案 [13-14]。

然而,尽管外部慢思考方法展现出提升推理质量的潜力,但仍面临两大核心挑战

  1. 缺乏理论支撑:目前,我们对这些方法为何有效的理解仍然有限,这阻碍了更先进策略的设计。

  2. 计算资源需求高:复杂的慢思考技术往往需要大量计算资源,且优化设计参数的难度较大,导致实际应用中的表现不尽如人意。

针对这些挑战,研究者提出了一种基于信息论的系统性框架,建立外部慢思考方法与 LLM 生成正确推理的概率之间的联系。随着「慢思考」方法的深入探索,LLM 发展新的转折点正在到来。未来,大模型的推理能力优化不再局限于扩大模型规模,而是通过优化推理过程,实现更智能、更精准的逻辑推理。本研究将深入剖析外部慢思考策略的理论基础、机制解析以及其对 LLM 推理能力的影响,为人工智能推理能力的进一步突破提供新的方向。

图片

  • 论文标题:Rethinking External Slow-Thinking: From Snowball Errors to Probability of Correct Reasoning

  • 论文链接:http://arxiv.org/abs/2501.15602

此工作主要作出了如下贡献:

  • 分析了 LLM 推理过程中的雪球误差效应,并证明该效应会导致推理错误概率随推理路径的增长而上升,强调了慢思考策略在减少错误中的关键作用。

  • 提出了一种基于信息论的系统性框架,建立外部慢思考方法推理正确概率之间的数学联系,为理解慢思考策略的有效性提供理论支撑。

  • 对比了不同的外部慢思考方法,包括 BoN 和 MCTS 等,揭示它们在推理能力提升方面的差异与内在联系。

1 大模型推理过程中的「雪球误差」

想象一下,在冬天的雪地上滚动一个雪球。随着滚动的距离增加,雪球会以越来越快的速度变大,这就是雪球效应(Snowball Effect)—— 小的变化会随着时间推移不断累积,最终带来显著影响。

在大规模语言模型(LLMs)中,这一效应最初体现在自回归式(Auto-Regressive) 的 Next-Token Prediction(NTP)任务中,微小的 token 级错误会不断累积,最终导致模型生成的答案偏离预期的正确答案 [15]。然而,在更复杂的推理任务中,这种错误不再仅限于 token 级,而是扩展到句子级,使得推理偏差更加难以衡量和控制。

为什么推理偏差会逐步放大?

研究表明,LLM 的推理过程可以看作是逐步执行一系列原始任务(Primitive Tasks)[16],每一步的推理结果都依赖于前面的输出。因此,任何早期的微小误差都会在推理链条中不断放大,最终导致模型偏离正确答案

为了更直观地理解这一现象,研究者借助柏拉图的「洞穴寓言」(Plato’s Allegory of the Cave)。在这个寓言中,人们只能看到投射在墙上的影子,而无法直接感知真实世界,类似于 LLM 只能从训练数据中学习世界的「投影」。如图 1 (a) 所示,训练数据只是现实世界的映射,而 LLM 生成的推理结果正如图 1 (b) 所示,仅是其内部推理过程的「影子」。

图片

图表 1: 大模型推理过程的柏拉图假设

换句话说,模型的推理输出并非直接反映其思维过程,而是受限于它从训练数据中学到的模式和误差,导致滚雪球效应的持续累积

例如:在 LLM 执行数学推理任务时,例如解答「计算 3x + 2y」,模型并不是直接给出答案,而是隐式地执行一系列推理步骤:

t₁: 计算 3x → t₂: 计算 2y → t₃: 将 3x 和 2y 相加。

然而,这些推理步骤是抽象的、不可直接观察的,模型的最终输出是这些推理过程的不同表达方式。例如,输出序列 r₁ → r₂ → r₃ 可能有多种不同的表达形式,但它们并不一定能完全还原对应的推理步骤 t₁ → t₂ → t₃。

由于单个输出 r_l 无法完全表达对应的推理步骤 t_l,即使初始误差微小,也会随着推理链条的延续逐步放大,最终导致严重的推理偏差。这种误差的积累,正是雪球效应在推理任务中的典型体现。

在 LLM 推理过程中,雪球误差会导致模型的推理结果逐步偏离正确答案。为了精准衡量这一误差,本研究引入互信息(Mutual Information, MI)这一数学工具,来量化隐式推理序列 t 与最终生成的回复序列 r 之间的共享信息量,记作 I (t; r)。这一度量帮助评估模型在推理过程中能够保留多少关键信息。

具体而言,在每个推理步骤中,模型的输出可能存在细微偏差,这些误差会逐步累积并导致信息损失。研究者将信息损失定义为互信息 I (t; r) 与隐式推理过程的信息熵 H (t) 之间的差值

图片

而最终的雪球误差则可以定义为在所有推理步骤上信息损失的累积:

图片

2 从「雪球误差」到推理错误的概率

在 LLM 的推理过程中,推理路径越长,雪球误差就会不断累积,最终导致严重的事实偏差,研究者将其定义为推理错误(Reasoning Errors)

如何衡量推理错误?

为了准确评估推理错误,研究者首先需要清晰地定义它。由于每个输出 r_l 代表隐式推理步骤 t_l,研究者通过检查是否存在一个足够强大的映射函数 f  来从 r_l 还原 t_l。如果这种还原能力较弱,说明推理过程中信息损失较大,进而导致了推理错误的发生。具体而言,研究者将「推理错误」这一事件刻画如下:

图片

为了更准确地估计 LLM 发生推理错误的概率,本研究提出使用信息论方法,建立雪球误差与推理错误发生概率之间的数学联系。研究者从一个关键引理出发,通过理论推导揭示滚雪球误差如何逐步积累,并最终影响模型的推理准确性。

图片

基于此引理,研究者可以推导出推理错误发生概率的下界:

图片

此定理表明,在推理的第 l 步,错误概率的下界受累积信息损失 H_(<l) (t|r) 影响,由于其累加的定义,这一损失至少会随推理步数 l 线性增长。

雪球效应出现时,累积信息损失可能超过线性增长,导致推理错误概率随推理路径的增加而快速上升。换句话说,推理链条越长,模型出错的可能性越大,这解释了 LLM 在长链推理任务中为何容易出现偏差。

图片

图表 2: 不同 LLM 在 GSM8k 数据集上生成回复的估计互信息(MI)和奖励分数

为了实证验证 LLM 推理中的雪球误差效应,本研究基于 GSM8k 数据集进行实验,并测试了三款先进的推理 LLMs:Llama3.1-8B-Instruct、Qwen2.5-7B-Instruct以及 Skywork-o1-Open-Llama-3.1-8B。

研究者计算了互信息 I (t; r) 在所有 token 上的平均值,并分析其随推理路径长度 L 的变化,同时评估生成结果的奖励分数(reward),结果如图表 2 所示。实验结果表明:

  • 互信息呈负指数级下降,比线性衰减更快,随着推理步数 L 的增长,信息损失迅速累积;

  • 由于计算的是平均互信息,推理链条靠后的 token 可能损失更多关键信息

  • 奖励分数随推理长度增加而下降,进一步验证了雪球误差对 LLM 生成质量的影响。

这一实验结果不仅验证了雪球误差的存在,也表明信息损失的累积速度远超线性衰减,直接影响 LLM 生成的推理质量。这一发现与研究者的理论分析一致。

3 外部慢思考中的正确推理概率

先前的分析表明,推理错误概率 P (e_l)  随着推理步数 l 的增加而上升。然而,在实际应用中,推理错误通常体现在模型生成结果的奖励分数(reward) 上。因此,本文进一步扩展至现实场景,探讨外部慢思考方法为何有效

3.1 何为正确推理

研究者首先定义 LLM 在现实场景中的推理过程。对于一个问题  r_0,模型会通过自回归方式生成一个包含 L 个推理步骤的响应序列:R = [r_1,r_2,…,r_L]。

为了评估每一步推理 r_l  的质量,研究者引入一个价值函数 φ,用于衡量每个步骤的正确性 φ(r_l) 。在实际应用中,这一评估可以通过人类反馈或奖励模型来实现。此外,研究者假设每个推理步骤都有一个标准答案 r_l^*,代表 LLM 应该生成的最准确答案,与人类理想推理方式保持一致。

基于上述设定,研究者利用价值函数 φ 评估推理步骤的正确性,并据此量化 LLM 生成回复的质量。具体而言,研究者分别将单步推理和整个推理过程的正确性定义如下:

图片

3.2 正确推理的概率

实验结果(图表 2)表明,平均互信息会随推理步数呈近似指数级下降,这意味着雪球误差随着推理长度的增加呈指数级增长。然而,由于概率值不能超过 1,研究者基于定理 3.3 提出一个假设:在实际应用中,推理错误的概率可能遵循指数衰减函数,即:P (e_l) = 1 -λe^(-l),这一假设使得后续分析更加直观,并进一步帮助推导在第 l 层生成正确推理步骤的概率

图片

由此假设,研究者推导出在雪球误差存在时,最终得到一个正确的完整推理过程的概率:

图片

3.3 外部慢思考提升推理质量的机理

基于前面的分析,研究者首先直观上得出这样的结论:由于 LLM 生成的随机性,外部慢思考方法的核心目标是引入额外的推理步骤并结合多次重新采样策略,从而对冲雪球误差,进而提高模型生成结果的正确性

接下来,研究者利用理论分析进一步详细阐述这一观点。首先,外部慢思考方法从根本上来说主要具有两个特点:

  • 宽度扩展(Width-Expansion):

    • 对于长度一定的推理序列,大多数外部慢思考方法都试图扩展推理空间的宽度。

    • 这可以通过简单的重新生成(BoN、CoT-SC)或更复杂的树搜索方法(ToT、MCTS) 来实现。

  • 生成 & 选择(Generation & Selection):

    • 扩展推理空间后,还需要从多个候选推理路径中选出最优解。

    • 设 Pr (τ_generate) 为生成正确推理的概率,Pr (τ_select) 为从候选路径中选出正确推理的概率,则最终获得正确推理结果的概率可表示为:Pr [ψ(R)≤τ ]= Pr (τ_generate )× Pr (τ_select  )。

外部慢思考 通过扩展推理空间来提升 LLM 生成正确答案的概率 Pr (τ_generate),但与此同时,额外的推理步骤也会增加选择最优推理路径的难度,从而降低 Pr (τ_select)。这意味着,在提升推理正确性的同时,也带来了更复杂的决策挑战。

如何量化这种权衡?

为了更直观地分析这一现象,研究者以 Beam Search 作为基准的宽度扩展策略。Beam Search 广泛应用于树搜索算法,其核心机制如下:

  • 在每一层推理,生成 k 个子节点以扩展搜索树的宽度;

  • 仅保留 b 个最优候选解,以减少计算复杂度。

研究者将分析结果形式化为一个数学引理,进一步揭示了推理空间扩展与最优路径选择之间的平衡关系。

图片

基于推理过程的基本假设,这一概率上界可以被进一步简化为:

图片

引理 4.5 和定理 4.6 阐述了外部慢思考技术的本质机理并支撑了如下结论:

获得正确推理的概率主要受以下三个关键因素影响:

  • 每层生成的候选数 k :决定了推理空间的扩展宽度;

  • 每层筛选的最优候选数 b :影响正确推理路径的选择精度;

  • 正确性阈值 τ :衡量推理结果的质量要求。

宽度扩展 vs. 选择可靠性:如何找到平衡?

  • Pr (τ_select) (选择正确推理的概率)依赖于价值函数的可靠性,即 ϵ_b   相关的参数。

  • Pr (τ_generate) (生成正确推理的概率)受 推理路径长度 L 和扩展宽度 k 影响。

  • 通过增加推理步骤,可以提升生成正确推理的概率,但同时会引入额外的选择代价,增加错误概率。

慢思考方法的关键优化条件

对比引理 4.4 和定理 4.6 发现,慢思考方法是否有效,还取决于价值函数的可靠性。为了保证推理准确率的上限得到提升,价值函数的可靠性必须满足:

图片

通过上述分析,研究者总结了外部慢思考方法的核心机制。通过增加推理路径的搜索范围,这些方法提高了生成正确答案的概率,有效减少雪球误差的累积。同时其效果极大依赖于所使用的价值函数的可靠性,这一因素直接影响整个方法的最终表现

4 外部慢思考方法间的对比

接下来,研究者将对比简单和复杂的外部慢思考框架之间的核心区别,并以著名的 BoN 和 MCTS 为例进行分析。

4.1 BoN 与 MCTS 框架下的正确推理概率

对于 BoN 来说,研究者很方便地将其建模为进行 N 次长度为 L 的推理,并最终在 N 个答案中选择一次的过程。因此,BoN 的正确推理概率上界为:

图片

对于 MCTS(RAP 模式),由于其机制较为复杂,研究者考虑其最好和最坏的情况。在最好的情况下,MCTS 的每次节点扩展时都发生在最深的叶子节点上,则它退化成了一个采样宽度和保留宽度都为 b 的 Beam Search。

图片

而在最差情况,MCTS 需要遍历所有可能的节点,从而形成一棵完全 b - 叉树。

图片

4.2 对比 BoN 与 MCTS 的总推理代价

可以看出,MCTS 由于需要调用更多次的选择过程,一般会比 BoN 对于价值函数有更高的敏感性。除此之外,在假设价值函数完美(ϵ_b=1)的情况下,研究者对齐概率上界中的其余部分,可以计算出当 BoN 和 MCTS 具有相当的正确推理概率上界时,所需要具备的总推理代价的规模,如图表 3 所示。

图片

图表 3: 相同推理正确概率下 BoN 与 MCTS 总推理代价规模对比

结果表明,当 BoN 与 MCTS 在推理正确率上相当时,BoN 的总推理成本与 MCTS 接近。

  • 最优情况下:BoN 与 MCTS 的推理成本趋近相等;

  • 最差情况下:当推理步数 L  较小时,BoN 的成本可能略高于 MCTS,但仍保持在合理范围内。当 L 增加,BoN 的推理成本甚至可能低于 MCTS。

这一结论表明,推理成本是决定减少雪球误差效果的关键因素,而具体采用哪种慢思考框架(如 BoN 或 MCTS)对最终结果的影响理论上可能是较小的。

4.3 实验验证

在 GSM8k 和 PrOntoQA 两个推理任务上,实证对比了 BoN 和 MCTS 的推理准确性。研究者采用 [14] 推荐的 MCTS 优化配置,并计算相应的 N 值,使 BoN 的推理成本与 MCTS 尽可能接近。由于两种方法生成推理路径的方式不同,完全对齐并不现实,因此研究者定义合理的 N 值区间:

N 合理范围的下界与上界:

  • N ̃_res :对齐推理步数的 N 值

  • N ̃_call :对齐 LLM 调用次数的 N 值

研究者测试了 BoN 的三种选择策略

  • Self-Consistency(自洽性选择)

  • ORM Vote(基于奖励模型的投票选择)

  • ORM Max(基于奖励模型的最大值选择)

实验结果如图表 4 所示。

图片

图表 4: GSM8k 和 PrOntoQA 上 BoN 与 MCTS 的准确性对比

研究者可以得出如下结论:

不同任务下的 BoN 表现

  • PrOntoQA(二分类任务:True/False):

    • 由于答案固定,增加 N 并不会提升 Self-Consistency 策略下的 BoN 性能,除非引入奖励模型。

  • GSM8k(多步推理任务):

    • 由于答案多样,增加 N 即使在没有奖励模型的情况下,也能提升 BoN 的性能。

BoN 与 MCTS 的关键对比

  • ORM Vote & ORM Max 策略(结合奖励模型):当 N 在 N ̃_res 和 N ̃_call 之间时,BoN 能够达到与 MCTS 相当的推理性能;

  • N 接近 N ̃_res 时,BoN 略低于 MCTS,但差距不大;

  • N 取更大值时,BoN 能够匹敌甚至超越 MCTS,进一步验证了 MCTS 在 LLM 推理中的局限性,并支持研究者的理论分析。

本实验表明,在合理的 N 值范围内,BoN 通过适当调整推理宽度,可以达到甚至超越 MCTS 的推理效果,这与研究者的理论分析一致

5 小结

本研究分析了外部慢思考方法的有效性机制,并通过信息论建立了 LLM 推理中的雪球误差与推理错误之间的联系。研究表明,外部慢思考方法通过扩展推理空间可以减少推理错误,但同时增加了推理成本,需要在正确性和计算开销之间权衡。

对比 BoN 和 MCTS 等方法后,研究者发现影响其有效性的核心因素是奖励函数的能力和推理总成本,而具体的搜索框架影响较小。因此,优化奖励函数和提升策略模型的推理能力是未来改进外部慢思考方法的关键方向。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/25163.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

面试问题——如何解决移动端1px 边框问题?

面试问题——如何解决移动端1px 边框问题&#xff1f; 最近&#xff0c;不少小伙伴向我反映&#xff0c;他们在面试中频繁被问到关于1px边框的问题。这个看似老生常谈的话题&#xff0c;没想到在面试中的出现率依然这么高&#xff0c;着实让我有些意外。对于那些对这个问题感到…

全星研发项目管理APQP软件系统:汽车电子与半导体行业的研发管理利器

全星研发项目管理APQP软件系统&#xff1a;汽车电子与半导体行业的研发管理利器 1. 集成化管理优势 1.1 数据一致性 无缝数据流转&#xff1a;集成平台确保数据在不同模块间无缝流转&#xff0c;避免因工具切换导致的数据错误和重复工作。案例&#xff1a;某汽车电子企业使用…

Cascadeur 技术浅析(二):物理模拟

Cascadeur 的物理模拟算法是其核心功能之一,旨在通过模拟真实世界的物理规律,使角色动画更加自然和逼真。 1. 刚体动力学(Rigid Body Dynamics) a. 基本原理 刚体动力学用于模拟角色的骨骼和关节运动,假设角色的每个部分都是刚体(即不会发生形变的物体)。通过应用牛顿…

点云处理入门--PointNetPointNet++论文与代码详解

基础知识 点云数据&#xff1a; 点云是一种通过三维扫描设备或计算机图形学技术获取的三维空间数据&#xff0c;通常由一系列点组成&#xff0c;每个点包含其在三维空间中的坐标&#xff08;如 x,y,z&#xff09;&#xff0c;有时还可能包含颜色、强度等附加信息。 介绍几种常…

Tomcat介绍

Tomcat是Apache 软件基金会&#xff08;Apache Software Foundation&#xff09;的Jakarta 项目中的一个核心项目&#xff0c;由Apache、Sun 和其他一些公司及个人共同开发而成。最新的Servlet 和JSP 规范总是能在Tomcat 中得到体现&#xff0c;因为Tomcat 技术先进、性能稳定&…

DeepSeek-R1-Zero:基于基础模型的强化学习

注&#xff1a;此文章内容均节选自充电了么创始人&#xff0c;CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》&#xff08;人工智能科学与技术丛书&#xff09;【陈敬雷编著】【清华大学出版社】 文章目录 DeepSeek大模型技术系列四DeepSeek大模型技术系列四》DeepSeek-…

Redis初识

Redis是什么 Redis是一个在内存中存储数据的中间件&#xff0c;它可以用于作为数据库&#xff0c;用于作为数据的缓存&#xff0c;市面上作为数据缓存的不止Redis一家&#xff0c;但为啥我们要学习Redis呢&#xff1f;因为Redis有一些特性和优点&#xff0c;让Reids在市面上脱…

DeepSeek今日连开3源!针对优化的并行策略,梁文锋本人参与开发

DeepSeek开源周第四天&#xff0c;直接痛快「1日3连发」&#xff0c;且全都围绕一个主题&#xff1a; 优化并行策略。 DualPipe&#xff1a;一种创新的双向流水线并行算法&#xff0c;能够完全重叠前向和后向计算-通信阶段&#xff0c;并减少“流水线气泡”。它通过对称的微批…

打印九九乘法表

打印九九乘法表 package struct; ​ public class ForDemo04 {public static void main(String[] args) { ​for (int i 1; i < 9; i) {//System.out.println(1"*"i""(1*i));for (int j 1; j < i; j) {System.out.print(i"*"j"&qu…

机器学习的起点:线性回归Linear Regression

机器学习的起点&#xff1a;线性回归Linear Regression 作为机器学习的起点&#xff0c;线性回归是理解算法逻辑的绝佳入口。我们从定义、评估方法、应用场景到局限性&#xff0c;用生活化的案例和数学直觉为你构建知识框架。 回归算法 一、线性回归的定义与核心原理 定义&a…

DeepSeek 提示词:常见指令类型

&#x1f9d1; 博主简介&#xff1a;CSDN博客专家&#xff0c;历代文学网&#xff08;PC端可以访问&#xff1a;https://literature.sinhy.com/#/?__c1000&#xff0c;移动端可微信小程序搜索“历代文学”&#xff09;总架构师&#xff0c;15年工作经验&#xff0c;精通Java编…

查询NFT图片地址

前言 有人给我发了nft&#xff0c;但是没有图片&#xff0c;我就很纳闷为什么&#xff0c;所以想一探究竟 解决思路 先说下环境吧 Sepolia 测试网 metamask钱包 需要获取nft的合约地址和token id 钱包内 nft可以查得到 思路&#xff1a; 我的理解就是ERC721有标准的…

一个滑块可变色的Seekbar

因项目需要&#xff0c;做一个如下图的滑动条&#xff0c;要求如下&#xff1a; 1、滑块跟着进度条改变颜色 2、滑块有白色边和内部颜色组成 大体思路&#xff0c;就是背景需要UI按照需求提供&#xff0c;然后变色时&#xff0c;根据滑动回调动态设置对应的颜色。 直接上代码…

重大更新!锂电池剩余寿命预测新增 CALCE 数据集

往期精彩内容&#xff1a; 单步预测-风速预测模型代码全家桶-CSDN博客 半天入门&#xff01;锂电池剩余寿命预测&#xff08;Python&#xff09;-CSDN博客 超强预测模型&#xff1a;二次分解-组合预测-CSDN博客 VMD CEEMDAN 二次分解&#xff0c;BiLSTM-Attention预测模型…

实时时钟(RTC)/日历芯片PCF8563的I2C读写驱动(2):功能介绍

0 参考资料 PCF8563数据手册&#xff08;第 11 版——2015 年 10 月 26 日&#xff09;.pdf 1 功能介绍 1.1 实时时钟&#xff08;RTC&#xff09;/日历 &#xff08;1&#xff09;PCF8563支持实时时钟&#xff08;RTC&#xff09;&#xff0c;提供时、分、秒信息。对应寄存器…

Xcode如何高效的一键重命名某个关键字

1.选中某个需要修改的关键字&#xff1b; 2.右击&#xff0c;选择Refactor->Rename… 然后就会出现如下界面&#xff1a; 此时就可以一键重命名了。 还可以设置快捷键。 1.打开Settings 2.找到Key Bindings 3.搜索rename 4.出现三个&#xff0c;点击一个地方设置后其…

Grok 3 的崛起:AI 的新时代

AI 领域再次震动&#xff0c;一款全新的深度思考大型语言模型正式亮相。它不仅碾压了现有的各项基准测试&#xff0c;还成功登顶 LM Marina 排行榜&#xff0c;夺得第一名。这款 AI 不是别人&#xff0c;正是埃隆马斯克那款“基于事实、敢言无忌”的 Grok 3——一个号称既极为聪…

ros安装rqt_joint_trajectory_controller

有时候&#xff0c;我们可以看到别人的代码里面有这个&#xff0c;但是这个是需要安装的。 <node name"gui_controller" pkg"rqt_joint_trajectory_controller" type"rqt_joint_trajectory_controller" />sudo apt-get install ros-noeti…

ARM Linux LCD上实时预览摄像头画面

文章目录 1、前言2、环境介绍3、步骤4、应用程序编写4.1、lcd初始化4.2、摄像头初始化4.3、jpeg解码4.4、开启摄像头4.5、完整的程序如下 5、测试5.1、编译应用程序5.2、运行应用程序 6、总结 1、前言 本次应用程序主要针对支持MJPEG格式输出的UVC摄像头。 2、环境介绍 rk35…

是德科技keysight N5173B信号发生器,是一款经济高效的仪器

是德科技keysight N5173B信号发生器安捷伦N5173B信号源 是德N5173B微波模拟信号发生器&#xff0c;拥有 9 kHz 至 40 GHz 的频率覆盖范围&#xff0c;N5173B为宽带滤波器、放大器、接收机等器件的参数测试提供了必要的信号&#xff0c;是一款经济高效的仪器。 N5173B特点&…