Language Models Meet World Models: Embodied Experiences Enhance Language Models翻译

摘要

尽管大型语言模型(LM)在众多任务中表现出了出色的能力,但它们经常在物理环境中无法进行的简单推理和计划,例如理解目标的持续性或计划家庭活动。这种局限源于以下事实:LM仅在书面文本中训练,而缺乏基本的实体知识和技能。在本文中,我们提出了一种新的增强LM的范式,其通过世界模型对LM进行微调,以获得多种实体知识,同时保留其通用语言能力。我们的方法在世界模型中部署了一个实体智能体,以作为物理世界(VirtualHome)的模拟器,并通过面向目标的计划和随机探索获得各种实体经验。然后,这些经验被用来微调LM去学习在物理世界中推理和行动的各种能力,例如计划和完成目标,目标持续性和追踪等。并且,其倾向于在微调期间保留LM的通用能力,以将实体知识泛化到多种任务,而不仅仅是特定模拟上。因此,我们进一步引入了经典的elastic weight consolidation(EWC)以进行选择性权重更新,并结合low-rank adapters (LoRA),以实现较高的训练效率。广泛的实验表明,我们的方法在18个下游任务上将基础LM平均提高了64.28%。特别是,通过我们的方法增强的小型LM(1.3B和6B)匹配甚至超过大型LM的性能(例如ChatGpt)。我们的代码可在https://github.com/szxiangjn/world-model-for-language-model中找到。

1.介绍

在这里插入图片描述
  语言模型(LM)在各种自然语言处理任务上表现出了令人印象深刻的表现。特别是,最近的研究表明,LM可以协助完成实体任务的决策,这证明了LM对物理世界具有一定程度的理解。但是,对于在物理环境中的许多推理和计划任务,这种理解还不够强大。如图1所示,即使是最新的大型LM,例如ChatGPT,仍然会在看似简单的查询中犯错误,例如计算指定位置上的目标数目。我们认为这是因为仅通过大规模文本语料库训练的LM没有实际的经验,例如在环境中导航,与目标互动,感知以及跟踪世界状态。因此,它们缺乏与物理环境相关的推理和计划所必需的强大而全面的实体知识。相关的研究是对LM微调,以改善特定的具体任务,从而得到特定任务的模型。
  在本文中,我们的目标是将各种基本的实体知识和技能注入与训练的LM,同时保留模型的通用性。我们引入了一种针对LM的新训练范式,即使用来自世界模型的实体经验微调LM(E2WM)。其中,世界模型是在现实世界环境(例如VirtualHome)中模仿物理交互的实体模拟器。他们为LM提供了理解目标和环境交互并执行操作的机会。这些世界模型是我们现实世界中简化且具有成本效益的复制品,可以显着增加传统的预训练框架。我们预计,使用从世界模型中收集的实体经验上微调LM可以增强其实体知识,并保留了模型的通用性,从而增强了他们解决广泛具体任务的能力。
  在这项工作中,我们考虑了各种实体任务所需的基本知识和技能,包括目标追踪,计划以完成给定的目标,识别其他是能体的行为等。为此,我们引入了两种方法收集来自世界的实体经验,即生成的所需的知识和技能:面向目标的计划和随机探索(图1)。具体而言,面向目标的计划旨在收集与计划和面向目标智能体的行为相关的经验,而随机探索的重点是累积涉及目标和世界状态追踪的经验。在面向目标的计划中,对于特定的活动(例如Clean Floor),模型被给定了目标(例如,IN(dust, trash can)),并因此模型应该制定一个计划来完成它。为了发现该计划,我们设计了蒙特卡洛树搜索(MCTS)来探索世界模型。然后,该过程将作为实体经验存储。在随机探索中,将一个或多个智能体部署在世界模型中以执行随机操作,而所有目标的位置和移动则是同时被跟踪的。
  在收集了实体经验后,我们使用它们来构建一组微调任务(例如,计划生成,活动识别和追踪)。至关重要的是,为了在收集到的实体经验上微调,同时保留其原始的常识和能力,我们提出将经典的Elastic Weight Consolidation (EWC)纳入我们的训练范式。通过正则化微调损失,EWC旨在保留重要的LM参数。我们表明,EWC比流行的KL正则化更为有效。我们通过将最近的Low-Rank Adaptation (LoRA)与EWC正则化器联合起来,进一步引入了高效的低秩更新。这导致了新的EWC-LoRA更新规则,该规则大大降低了训练成本,并使我们的E2WM范式可部署在便宜的硬件上(GPU)。
  我们使用一个虚拟家用模拟器VirtualHome来实例化世界模型,并将我们的方法应用于GPT-Neo-1.3B和GPT-J-6B模型。为了测试微调后LM的泛化能力,我们在各种未知任务上进行了评估,这些任务需要类似训练任务的实体知识来解决。此外,我们评估了模型在原始预训练数据上的性能,以确定其核心语言建模能力的保留程度。实验表明,我们的方法显着改善了已知和未知的任务的基准(例如在计划生成任务上Rouge-L从34.31提升到51.23 ,在计数任务上的准确性从30.41%到67.01%),同时不会遭受预训练数据集上的性能损失(Pile测试子集上困惑度从3.4443到3.537)。此外,用我们E2WM范式训练的小型GPT-J-6B模型,在许多任务上优于ChatGPT。实验结果表明,E2WM是使用泛化实体知识和技能微调预训练LM的机制。

2.相关工作

World Models。世界模型的概念可以解释为由机器人智能体学习的模型,以预测潜在动作的结果,或者使用物理引擎模仿现实世界的模拟器。在本文中,我们采用后者的定义。在实体AI领域,许多世界模型都是为了复制现实世界而建立的,并充当虚拟测试环境,用于在现实世界部署之前评估机器人智能体。例如,VirtualHome是由Unity3D游戏引擎实现的模拟3D家庭环境。AI2-THOR是由近3D室内场景组成,并具有更丰富的对象属性和交互类型。其他室内家庭世界模型还包括VRKitchen,CHALET,MINOS,House3D等。此外,MineCraft是一种更具挑战性和开放式的世界模型,该模型具有大量的目标和大规模的任务层次结构。在本文中,我们利用VirtualHome作为世界模型。
  Language Model Grounding。最近的大量工作集中于将基础语言模型放置于世界模型中。其中一些通过冻结LM并利用某些提示策略或专门设计的模块。例如,Zero-Shot Planner提示LM生成活动计划并将其转化为可接受的动作。Mind’s eye提示LM使用物理引擎进行模拟,以回答物理推理问题。SayCan使用一个学习的affordance函数来协助LM选择有效的动作。DEPS提示LM,以描述,解释和生成动作计划,并与一个学习的选择器模块合并,以选择最有效的路径。还有其他工作朝着更好的下游任务性能来微调LM。 例如,, Li et al.使用具有交互决策的监督学习微调LM,而 Carta et al.通过在线强化学习来增强LM。与这些旨在目标环境的特定任务中优化LM的工作不同,我们的工作着重于通过从世界模型中获取知识来改善语言模型本身。
  Language Model Regularization。为了促进在不失去LM语言建模能力的情况下获得新知识和技能,经常在微调过程中引入正则化。一种流行的方法是添加KL惩罚,该惩罚通过在当前训练模型和原始模型之间的输出概率上利用KL散度,以RL方式正则化LM(即通过计算策略梯度)。例如,InstructGPT使用KL惩罚来缓解奖赏模型的过度优化, Liu et al. 添加KL正则化以训练常识知识生成器。在这项工作中,我们使用弹性权重巩固(elastic weight consolidation,EWC)进行正则化。我们的实验结果表明,在保留语言建模能力和LM通用性方面应用EWC比KL惩罚更有效。

3.方法

在这项工作中,我们提出了一种新的训练范式,即使用来自世界模型(E2WM)的实体经验的微调,以将实体知识注入LM而不牺牲其通用性和语言建模能力。我们使用的世界模型是VirtualHome,这是用于家庭活动的多智能体模拟器。在VirtualHome中,一个可执行的动作步骤可以简化为 [ A c t i o n ] < a r g > [Action]~<arg> [Action] <arg>的格式,例如 [ G r a b ] < A p p l e > [Grab]~<Apple> [Grab] <Apple>。VirtualHome的世界状态由目标及其关系组成(例如, apple on table)。有关VirtualHome的详细信息可以在附录A中找到。我们首先在第3.1节中描述了如何收集世界模型中的实体经验。然后,在第3.2节中,我们通过利用收集的经验以及我们提出的方法EWC-LoRA来证明如何通过有效的知识概泛化来微调LM。

3.1 Collecting Embodied Experiences from World Model

在这里插入图片描述
  在大规模人工编写的文本语料中预训练的LM在解决物理环境中的基本推理和计划方面通常会遇到困难。这是因为LM缺乏对物理世界的必要实体知识和经验理解。为了解决这个问题,我们提出利用世界模型来收集各种实体经验以增强LM。具体而言,要将不同类型的实体知识注入LM,我们介绍了两种收集经验的方法:面向目标的计划和随机探索。图2说明了两种方法。
  Goal-oriented Planning。一项重要的实体技巧是计划和完成一个特定目标,例如正确放置餐具以布置桌子。为了赋予LM这种能力,我们提出了面向目标的计划。该方法旨在生成面向目标的经验,因此这对于在世界模型中利用技能和任务计划能力执行一系列活动非常有用。为此,我们收集了各种活动及其相应的目标。正式地,世界模型中活动的目标被定义为描述目标世界状态的一组谓词。例如,一个活动是set up table,,其目标可以是ON(fork, table);ON(plate, table),这意味着应将叉子和板放在桌子上以实现活动。有关谓词和目标定义的更多详细信息可以在附录A中找到。如图2所示,在面向目标的计划中,我们设计了一个蒙特卡洛树搜索(MCTS)计划器,以通过动作空间搜索并找到一个计划,即一个动作序列,以实现目标。成功MCTS的关键是奖赏设计。在每个时刻,如果满足至少一个目标谓词,MCTS计划器将获得+2的奖赏,并且实现的目标谓词将被从目标中删除。这样可以确保计划器不会反复执行相同的动作来获得奖赏,而是专注于实现其余未实现的目标。此外,每次步骤之后,都会受到-0.1的惩罚,以阻止计划器在实现目标过程中采取不相关的动作。最后,我们将计划过程作为实体经验存储。
  Random Exploration。在实际情况下,人类不仅通过完成任务来获取新知识,而且还通过随机探索周围环境,例如随机观察/跟踪对象并了解其属性来学习新知识。为了模仿这一学习过程,我们提出了另一种方法,即随机探索。通过简单地探索世界模型,出现了新的实体经验,这些经验涉及高级认知能力,包括目标持续性和跟踪,即使目标不在视野中,智能体也会观察并跟踪它们。然后,会收集经验来微调LM。具体而言,该方法在世界模型中部署一个或多个智能体,然后漫无目的并随机执行动作。如图2所示,多个智能体在同一环境中,相互交互或在同一目标上执行不同的动作,从而模拟复杂情况。在探索过程中,记录了世界模型中所有目标的移动路径和最终位置。然后将整个过程作为实体经验来捕获。

3.2 Finetuning LMs with Embodied Experiences

有多种方法可以利用收集到的实体经验进行LM微调,例如有监督学习和强化学习。在这项工作中,我们将它们用于有监督学习,以简化并提高训练效率。具体而言,面向目标的计划经验以两种格式编译为数据示例:计划生成和活动识别。如图2所示,在计划生成中,给定一些相关目标状态作为初始条件,LM必须逐步生成动作顺序以实现目标活动。在活动识别中,该模型需要识别其计划名称。从随机探索获得的经验也将转变为两个自监督的任务:计数和目标路径跟踪。这两个任务的示例可以在图2中看到。具体而言,对于计数,LM的任务是在智能体执行相关和无关紧要的动作和随机安排的目标后,在特定位置识别目标的数目和名称。在目标路径跟踪中,模型的任务是输出由不同的智能体获取的目标的移动路径。所有任务均经过交叉熵损失训练。假设 x \textbf x x是输入(例如,计划生成中的初始条件),并且 y = { y 1 , . . . , y M } \textbf y=\{y_1,...,y_M\} y={y1,...,yM}是标签(例如,逐步动作序列),我们通过将不同的权重分配给不同的任务来微调LM:
L v = ∑ v ∈ V α v ∑ m = 1 M l o g P ( y m ∣ y < m , x ) (1) \mathcal L_v=\sum_{v\in V}\alpha_v\sum^M_{m=1}log~P(y_m|\textbf y_{<m}, \textbf x)\tag{1} Lv=vVαvm=1Mlog P(ymy<m,x)(1)
其中 L \mathcal L L是损失函数; V V V是任务集; α v α_v αv是任务 v v v的权重。与Flan-T5类似, x \textbf x x是一个提示,其由一个任务指令和采样的上下文演示格式化。我们在附录A中提供所有提示。
  Efficient Finetuning with Preserved Generality。但是,简单地微调LM有两个关键问题。第一个是LM很容易地拟合到下游任务,从而导致其他任务的性能退化。这偏离了我们的目标,即模型应泛化到各种获得知识的任务。另一个问题是,对整个LM进行微调是资源密集且耗时的,尤其是当LM非常大的时候。为了克服问题并促进与世界模型的持续有效的知识获取,我们提出使用具有弹性权重巩固(EWC)的低秩适配器(LoRA),我们称为EWC-LoRA。
  EWC是一种基于正则化的方法,通常用于持续学习领域。它计算一个Fisher矩阵,以估计每个参数对任务的重要性,然后使用它来对新任务进行正则化训练。正则化项有助于限制新任务的参数更新,以避免忘记先前的知识。令 U U U表示预训练任务集, V V V是微调任务集。在[2]之后,我们有:
F i , i = 1 N ∑ j = 1 N ( ∂ L U ( j ) ∂ θ U , i ∗ ) 2 , (2) F_{i,i}=\frac{1}{N}\sum^N_{j=1}\bigg(\frac{∂\mathcal L^{(j)}_U}{∂\theta^*_{U,i}}\bigg)^2,\tag{2} Fi,i=N1j=1N(θU,iLU(j))2,(2)
L ( θ ) = L V ( θ ) + λ ∑ i F i , i ( θ − θ U , i ∗ ) 2 , (3) \mathcal L(\theta)=\mathcal L_V(\theta)+\lambda\sum_iF_{i,i}(\theta-\theta^*_{U,i})^2,\tag{3} L(θ)=LV(θ)+λiFi,i(θθU,i)2,(3)
其中 L \mathcal L L是损失函数, F F F是Fisher矩阵, λ λ λ是超参数, i i i j j j分别是参数和数据样本的索引, θ θ θ θ U ∗ θ^∗_U θU分别是当前训练的参数和在任务 U U U上训练后固定的参数。请注意,公式3中的第一项 L V ( θ ) \mathcal L_V(θ) LV(θ)在公式1中进行了计算,第二项是EWC正则化器。在等式2中,通过计算在任务 U U U上损失的梯度的平方和来计算Fisher矩阵,这表明了每个参数对任务 U U U的重要性。在 V V V训练时,通过使用EWC,LM学会了适应新任务,而不会遗忘预训练的任务,这迫使其从微调任务中理解和消化新知识,而不是对它们过拟合。
  但是,EWC是时间和内存都不高效的。首先,它需要对整个大型LM参数组合进行微调。此外,该方法涉及创建与LM相同大小的Fisher Matrix,这导致内存开销是原始大小的三倍。 这使得应用大型LM特别具有挑战性。为了减轻问题,我们提出将EWC与低秩适配器(LoRA)相结合,这是一种参数有效的调整方法。LoRA冻结了预训练的模型权重,并将两个可训练的低秩矩阵注入模型的每一层。假设 W , W ∗ ∈ R r × d W,W^∗∈\mathbb R^{r×d} W,WRr×d分别是训练好的权重矩阵和冻结的权重矩阵。 B ∈ R r × k , A ∈ R k × d B∈\mathbb R^{r×k},A∈\mathbb R^{k×d} BRr×kARk×d是两个低秩矩阵,满足 k ≪ m i n ( r , d ) k≪min(r,d) kmin(r,d)。 然后,LoRA的公式可以写为 W = W ∗ + B A W=W^∗+BA W=W+BA。假设 H H H B A BA BA的展开。值得注意的是,我们发现等式3中的 θ i θ_i θi W W W的元素, θ U , i ∗ θ^∗_{U,i} θU,i W ∗ W^∗ W的元素。因此, θ i − θ U , i ∗ θ_i-θ^∗_{U,i} θiθU,i H H H的元素。因此,我们可以将方程3转换为EWC-LoRA方法的最终公式:
L ( θ ) = L V ( θ ) + λ ∑ i F i , i h i 2 (4) \mathcal L(\theta)=L_V(\theta)+\lambda\sum_iF_{i,i}h^2_i\tag{4} L(θ)=LV(θ)+λiFi,ihi2(4)
其中 h i = θ i − θ U , i ∗ h_i =θ_i-θ^∗_{U,i} hi=θiθU,i H H H的第 i i i个元素。重写等式的好处之一是,我们不再需要像原始EWC一样存储训练好的LM权重矩阵,这可以节省大量内存空间。此外,我们只需要更新B和A,这也降低了内存需求并导致训练速度更快。令人惊讶的是,如实验所示,将LoRA添加到EWC中可以进一步减轻灾难性遗忘和过拟合的问题。这与先前的结论相吻合,即限制优化问题的维度可以减轻灾难性的遗忘。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/20949.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

OpenAI CEO 称公司没有上市计划;特斯拉自动驾驶将开放给其他车企;百度智能云推出代码助手 Comate|极客头条...

「极客头条」—— 技术人员的新闻圈&#xff01; CSDN 的读者朋友们早上好哇&#xff0c;「极客头条」来啦&#xff0c;快来看今天都有哪些值得我们技术人关注的重要新闻吧。 整理 | 梦依丹 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 一分钟速览新闻点&#…

Python代码解蓝桥杯第十三届省赛(C/C++大学B组)赛题

Python代码解蓝桥杯第十三届省赛(C/C大学B组)赛题。 【学习的细节是欢悦的历程】 Python 官网&#xff1a;https://www.python.org/ Free&#xff1a;大咖免费“圣经”教程《 python 完全自学教程》&#xff0c;不仅仅是基础那么简单…… 地址&#xff1a;https://lqpybook.re…

GDOUCTF2023 WriteUP by 肥猪拱菜队

前言 本篇WriteUP为B0、ccc、Boogipop、树木共同编写&#xff0c;感谢三位师傅带我打比赛拿了个第五Orz Misc 签到 关注微信公众号发送指令得到flag Matryoshka 解压附件得到一个zip和一个txt&#xff0c;看看txt的内容 不难发现&#xff0c;是将数字和一些运算符号给用英…

chatGPT教你学sql的事务

事务的隔离级别 事务的隔离级别是指多个并发事务之间相互隔离的程度&#xff0c;主要是为了解决并发事务带来的一致性问题&#xff0c;它的主要作用是控制数据库中事务的可见性和可重复读。 在 SQL 标准中&#xff0c;定义了四种事务隔离级别&#xff0c;分别为&#xff1a; …

最全的AI插件Astute Graphics 2020全系列

Astute Graphics 2020全系列AI插件 Mac版包含了Astute Graphics出品的全部AI插件&#xff0c;包含18个常用辅助功能&#xff0c;可以帮助用户提高平面和矢量设计的效率&#xff0c;不断提高你的设计工作流程。让图像处理工作更快速高效。完美兼容Adobe Illustrator2018- -2020&…

精选AI工具合集,效率神器!不止ChatGPT

2023绝对称得上是脑洞大开的一年&#xff01;人工智能的风口由OpenAI旗下的ChatGPT率先引爆&#xff0c;从前认为不会被AI取代的知识型工作&#xff0c;它也足以胜任。AI不会取代你自己&#xff0c;但用好AI你将会淘汰大部分人。下面给大家整理5个实用的AI合集工具供参考。 全…

多地重大项目密集开工 建筑行业人才暴涨

7月31日&#xff0c;武汉举行了第三季度重大项目集中开工活动&#xff0c;本次集中开工的亿元以上重大项目共161个&#xff0c;总投资达2158亿元。同日&#xff0c;安徽举行2021年第七批重大项目集中开工动员会&#xff0c;共有227个重大项目集中开工&#xff0c;总投资1064亿元…

【产业互联网周报】全国超30城市正建或筹建智算中心;比尔•盖茨:不太看好Web3和元宇宙;...

关注ITValue&#xff0c;看企业级最新鲜、最价值报道&#xff01; &#xff08;1月9日-15日&#xff09;最近一周&#xff0c;加拿大宣布启动国家量子战略&#xff1b;微软收购可组合式基础设施供应商Fungible&#xff1b;阿里云海外增设产品、生态等四大国际能力中心&#xff…

隐私计算头条周刊(2.6-2.12)

开放隐私计算 收录于合集 #企业动态42个#周刊合辑43个#政策聚焦36个#隐私计算43个#隐私计算技术36个 开放隐私计算 开放隐私计算OpenMPC是国内第一个且影响力最大的隐私计算开放社区。社区秉承开放共享的精神&#xff0c;专注于隐私计算行业的研究与布道。社区致力于隐私计算技…

2022年中国广义数据智能市场规模为442亿元

数据智能是当前市场上的热点应用。但业界对于数据智能的发展状况&#xff0c;缺乏深入探讨与研究。为了系统梳理中国数据智能行业市场全景&#xff0c;厘清行业发展脉络&#xff0c;为从业者提供有价值的借鉴&#xff0c;海比研究院联合中国软件网、中国软件行业协会应用软件产…

招标 | 近期隐私计算项目招标中标33(中国邮储银行、中国移动、南湖实验室等)

开放隐私计算 1 招标 1、 基于隐私计算的智能化数据开发与运营平台&#xff08;天机平台&#xff09;项目 项目名称&#xff1a;基于隐私计算的智能化数据开发与运营平台&#xff08;天机平台&#xff09;项目 公告日期&#xff1a;2023-03-23 采购单位&#xff1a;上海数据集…

thinkphp6 + phpexcel 导入导出数据,设置特殊表格

第一步&#xff1a;安装excel&#xff0c;使用composer安装&#xff0c;我的是在window下&#xff0c;直接cmd切换到项目下面&#xff0c;输入 composer require phpoffice/phpexcel&#xff0c;然后就等待安装完成。如下图&#xff1a; 第二步&#xff1a;引入相关类 <?…

雅思口语考试的口音问题怎么解决?

很多学生都担心自己的口音不标准&#xff0c;也许在考试中难拿高分。确实口音不标准对于学生的雅思口语会有影响&#xff0c;那么就来看看雅思考试口音问题怎么解决吧。 一、雅思口语考试口音问题 1、分清楚元音和辅音中的易混音 听力中大家一定遇到过这样的情况&#xff0c;…

剑桥口语 — 48 个音标标准口型与细节发音

文章目录 一、不同的音标介绍二、DJ 音标三、常识&#xff08;一&#xff09;空腔器官&#xff08;二&#xff09;元音&#xff08;三&#xff09;元音舌位图 四、参考视频与教材四、元音&#xff08;1&#xff09;前元音&#xff1a;[i:] [ɪ] [e] [][i:][ɪ][e][] &#xff0…

怎么按面积比例创建缓冲多边形——看一下ChatGPT怎么回答

学习更多Python & GIS的相关知识&#xff0c;请移步公众号GeodataAnalysis。 之前写论文的时候看到过一个计算城市边界的方法&#xff0c;其大致流程是这样的&#xff0c;先是识别建成区单元&#xff1b;然后去除农村建成区单元&#xff1b;之后为每个单元创建缓冲区&…

Nature:为什么人工智能需要理解因果?

转自&#xff1a;集智俱乐部 作者&#xff1a;Neil Savage 导语&#xff1a;为什么药物只对某些人有效&#xff0c;而对另一些人无效&#xff1f;为什么 ChatGPT 会产生违背常识的答案&#xff1f;机器学习的发展似乎遇到了障碍&#xff0c;其中症结或许在于“相关性不等于因果…

2023数据技术嘉年华(福利来了)

2023的数据技术嘉年华即将如约而至&#xff0c;可能有朋友知道&#xff0c;这次的DTC&#xff0c;其实是去年12月的延期&#xff0c;只能赞叹大佬们对当时和未来形势的判断如此精妙。无论如何&#xff0c;作为一次技术人员的集会&#xff0c;能面对面交流&#xff0c;都是一次难…

轻量版ChatGPT训练方法开源!仅用3天围绕LLaMA打造,号称训练速度比OpenAI快15倍...

萧箫 发自 凹非寺量子位 | 公众号 QbitAI 基于Meta模型打造的轻量版ChatGPT&#xff0c;这就来啦&#xff1f; Meta宣布推出LLaMA才三天&#xff0c;业界就出现了把它打造成ChatGPT的开源训练方法&#xff0c;号称比ChatGPT训练速度最高快15倍。 LLaMA是Meta推出的超快超小型GP…

为什么 APISIX Ingress 是比 Traefik 更好的选择?

❝ 作者&#xff1a;张晋涛&#xff0c;API7.ai 云原生专家&#xff0c;Apache APISIX Committer、Kubernetes Ingress Nginx Reviewer Apache APISIX Ingress Apache APISIX Ingress[1] 是一个使用 Apache APISIX 作为数据面的 Kubernetes Ingress controller 实现。 目前&…

ChatOps的利器:Hubot

引言 近几年&#xff0c;DevOps 在各个企业用的风生水起&#xff0c;也衍生出了很多的其他的实践和理念&#xff0c;比如AIOps&#xff0c;DevSecOps&#xff0c; TestOps&#xff0c; BizOps 当然还有本文的主角 ChatOps大哥了。 说起ChatOps&#xff0c; 顾名思义就是通过聊…