解读Toolformer

【引子】读论文Toolformer: Language Models Can Teach Themselves to Use Tools,https://arxiv.org/pdf/2302.04761.pdf,再阅读了几篇关于Toolformer的网络热文,于是“无知者无畏”,开始自不量力地试图解读Toolformer。

大语言模型(LLM)在利用有限的文本数据解决新任务方面表现出令人难以置信的优势。然而,尽管如此,它们在其他方面也有局限性,例如:

  • 无法访问最新信息

  • 幻想事实的倾向

  • 低资源语言的困难

  • 缺乏精确计算的数学技能

  • 对时间进程的不了解

如何使用大模型解决更多的问题呢?在《解读TaskMatrix.AI》一文中,TaskMatrix.AI是 Toolformer 和 chatGPT 的结合,将基础模型与数百万个 API 连接起来以完成任务。那么,什么是 Toolformer 呢?

Toolformer 是 Meta 开源的新模型,能够解决需要利用 API 的问题,如计算器、维基百科搜索、字典查找等。Toolformer 能够认识到它必须使用一个工具,能够确定使用哪个工具,以及如何使用该工具。Toolformers 的用例可能是无穷无尽的,从提供任何问题的即时搜索结果,到情景信息,比如城里最好的餐馆。

1. 什么是Toolformer?

什么是 Toolformer 呢?简而言之,Toolformer 是一个可以自学使用工具的语言模型。

Toolformer 基于一个预先训练的 GPT-J 模型,包含 67 亿个参数,使用自监督学习方法进行训练。这种方法包括采样和过滤 API 调用,以增加现有的文本数据集。

Toolformer 希望通过以下两个要求来完成 LLM 自学如何使用工具的任务:

  • 工具的使用应该通过自我监督的方式来学习,而不需要大量的人工注释。

  • LM 不应丧失其一般性,应该能够自行决定何时以及如何使用哪种工具。

下图显示了 Toolformer 的预测(例如,在数据样本中嵌入的 API 调用):

ff0ca8c12e0408e8df38ee1e11fe7477.png

2. Toolformer 的架构和实现方法

ChatGPT 中的一个核心特性是基于上下文的学习(In-Context Learning),指的是一种机器学习方法,其中模型从特定上下文或环境中呈现的示例中学习。上下文学习的目标是提高模型理解和生成适合给定上下文或情况的语言的能力。在自然语言处理(NLP)任务中,可以训练语言模型来生成对特定提示或问题的响应。那么,Toolformer 如何利用 In-Context Learning 呢?

Toolformer 是一个大型语言模型,它能够通过 API 调用使用不同的工具。每个 API 调用的输入和输出需要格式化为文本/对话序列,以便在会话中自然流动。

ecb44420010c5684fc398c925b68635a.png

从上面的图片中可以看到的,Toolformer 首先利用模型的上下文学习能力来对大量潜在的 API 调用进行采样。

执行这些 API 调用,并检查获得的响应是否有助于将来预测 token,并被用作筛选条件。经过过滤之后,对不同工具的 API 调用被嵌入到原始数据样本中,从而产生增强的数据集,而模型就是在这个数据集上进行微调的。

具体地,上图显示了使用问答工具完成此任务的模型:

  1. LM 数据集包含示例文本: 为“Pittsburgh is also known as”输入提示“Pittsburgh is also known as The Steel City”。

  2. 为了找到正确的答案,模型需要进行一个 API 调用并正确地进行调用。

  3. 对一些 API 调用进行了抽样,特别是“ What other name is Pittsburgh known by?”和“ Which country is Pittsburgh in?”。

  4. 相应的答案是“Steel City”和“United States”。因为第一个答案更好,所以它被包含到一个新的 LM 数据集中,并带有 API 调用: “Pittsburgh is also known as [QA(”What other name is Pittsburgh known by?”) -> Steel City] the Steel City”。

  5. 这包含预期的 API 调用和应答。重复此步骤以使用各种工具(即 API 调用)生成新的 LM 数据集。

因此,LM 使用嵌入在文本中的 API 调用来注释大量数据,然后使用这些 API 调用对 LM 进行微调,以进行有用的 API 调用。这就是自监督训练的方式,这种方法的好处包括:

  • 更少需要人工注释。

  • 将 API 调用嵌入到文本中允许 LM 使用多个外部工具来添加更多内容。

Toolformer 然后学会预测每个任务将使用哪个工具。

2.1 API 调用的采样

下图显示了给定用户输入的情况下,Toolformer使用和来表示API调用的开始和结束。为每个API编写一个提示符,鼓励Toolformer使用相关的API调用对示例进行注释。

0b89711c34092272bab6b99d1bbb1dde.png

Toolformer为每个token分配一个概率,作为给定序列的一个可能的延续。该方法通过计算ToolFormer分配给在序列中每个位置启动API调用的概率,对API调用的最多k个候选位置进行采样。保持概率大于给定阈值的位置,对于每个位置,通过使用以API调用为前缀、以序列结束标记为后缀的序列从Toolformer采样,最多可获得m个API调用。

2.2 API调用的执行

API调用的执行完全取决于正在执行调用的客户端。客户端可以是不同类型的应用程序,从另一个神经网络、Python脚本,到在大型语料库中搜索的检索系统。需要注意的是,当客户端发出调用时,API会返回一个单一的文本序列响应。此响应包含有关调用的详细信息,包括调用的成功或失败状态、执行时间等。

因此,为了获得准确的结果,客户端应该确保提供正确的输入参数。如果输入参数不正确,API可能会返回错误的结果,这对于用户来说可能是不可接受的。另外,客户端还应该确保与API的连接是稳定的,以避免在调用期间发生连接中断或其他网络问题。

2.3 过滤API调用

在过滤过程中,Toolformer通过API调用后的token计算Toolformer的加权交叉熵损失。

然后,比较两种不同的损失计算:

(i)一种是API调用,其结果作为输入给Toolformer

(ii)一种是没有API调用或者API调用但没有返回结果。

如果为API调用提供输入和输出,使得Toolformer更容易预测未来的token,那么API调用就被认为是有用的。应用过滤阈值仅保留两个损失之间的差值大于或等于阈值的API调用。

2.4 模型微调

最后,Toolformer将剩余的API调用与原始输入合并,并创建一个新的API调用来增强的数据集。换句话说,增强的数据集包含与原始数据集相同的文本,只插入了API调用。

然后,使用新的数据集使用标准语言建模目标对ToolFormer进行微调。这样可以确保在增强的数据集上微调模型会暴露给与在原始数据集上微调相同的内容。通过在准确的位置插入API调用,并使用帮助模型预测未来token的输入,对增强数据的微调使语言模型能够了解何时以及如何根据自己的反馈使用API调用。

2.5 推理

在推理过程中,当语言模型产生“→”token时,解码过程被中断,这表明 API 调用的下一个预期响应。然后,调用适当的 API 来获取响应,并在插入响应和token之后继续解码。

此时,我们需要确保获取的响应与上一个token所期望的响应相匹配。如果不匹配,我们需要调整 API 调用以获得正确的响应。在继续解码之前,我们还需要执行一些数据处理来准备下一步的推理过程。这些数据处理包括对响应的分析、对上下文的理解以及对推理路径的选择。因此,在推理过程中,不仅需要调用 API 来获取响应,还需要进行一系列的数据处理和分析,以确保推理过程的正确性和连贯性。

2.6 API工具

Toolformer 中每个可以使用的API工具都要满足以下两个条件:

  • 输入/输出都需要表示为文本序列。

  • 有可用的演示表达如何使用这些工具。

Toolformer 的初始实现中支持了五个API工具:

  1. 问答回答:这是另一个LM,可以回答简单的事实问题。

  2. 计算器:目前只支持4个基本的算术运算,并四舍五入到小数点后两位。

  3. Wiki搜索:返回从维基百科剪切下来的短文本的搜索引擎。

  4. 机器翻译系统:一个可以将任何语言的短语翻译成英语的LM。

  5. 日历:对日历的API调用,该调用返回当前日期而不接受任何输入。

下图显示了使用的所有API的输入和输出示例:

1cc7a5ab8fbd9c2bc10d534765225855.png

3. 应用示例

Toolformer在LAMA、数学数据集、问题解答和时间数据集等任务中的性能优于基线模型和GPT-3,但在多语言问答中表现不如其他模型。Toolformer使用API调用来完成任务,例如LAMA API、Calculator API和Wikipedia搜索工具API。

3.1 LAMA

任务是完成一个缺少事实的陈述语句。Toolformer 的性能优于基线模型,甚至更大的模型,如 GPT-3。下表展示了通过 LAMA API 调用获得的结果:

03aad8411969f9d0e6d80b397e379405.png

3.2 数学数据集

任务是评估 Toolformer 的数学推理能力来对比各种基线模型。Toolformer 的性能优于其他模型,可能是因为它对 API 调用示例进行了微调。允许模型进行 API 调用可以显著提高所有任务的性能,并优于 OPT 和 GPT-3等更大的模型。在几乎所有情况下,模型都决定向计算器工具寻求帮助。

下表展示了通过 Calculator API 调用获得的结果:

54c664d673a02e8d7c3690c6597682c6.png

3.3 问题解答

任务是回答问题,Toolformer 的性能优于同样大小的基线模型,但是优于 GPT-3(175B)。Toolformer 利用 Wikipedia 的搜索工具来完成这项任务中的大多数示例。下表展示了通过 Wikipedia 搜索工具 API 调用获得的结果:

7c12a962f9600904f646d82ec9f484b0.png

3.4 多语言问答

问答数据集被用于多语言问答基准测试 MLQA,其中包含英语上下文段落和阿拉伯语、德语、西班牙语、印地语、越南语或简体中文的问题。Toolformer 在这里并不是最强大的表现者,这可能是由于 CCNet 在所有语言上都缺乏调优。

下表展示了通过 Wikipedia 搜索工具 API 调用获得的结果:

940fe4c908d764f6b15a63be5a14e64b.png

3.5 时间数据集

任务是了解当前日期对于回答问题至关重要的位置。Toolformer 能够超越基线,但是,显然它没有100% 地利用日历工具。相反,它使用的是维基百科的搜索。下表展示了通过 Wikipedia 搜索工具 API 调用获得的结果:

f09cf0c866e473c4ada9b8cbcff49b47.png

4. ToolFormer 的局限

Toolformer 仍然存在一些局限性,例如无法同时使用多个工具、无法处理返回结果过多的工具、对输入措辞敏感导致效率低下、未考虑使用成本可能导致高计算成本等问题。具体如下:

  1. 由于每个工具的 API 调用都是独立生成的,因此 Toolformer 无法在一个流程中使用多个工具。

  2. 特别是对于可能返回数百个不同结果的工具(如搜索引擎),Toolformer 不能以交互方式使用。

  3. 使用 Toolformer 进行训练的模型对输入的确切措辞非常敏感,这种方法对于某些工具来说效率很低,需要大量的文档以生成少量有用的 API 调用。

  4. 在决定使用每个工具时,没有考虑使用它的成本,这可能会导致较高的计算成本。

5. 小结

Toolformer 是一个大型语言模型,通过使用 In-Context Learning 来提高模型理解和生成适合给定上下文或情况的语言能力。它使用 API 调用来注释大量数据,然后使用这些 API 调用对模型进行微调,以进行有用的 API 调用。Toolformer 学会预测每个任务将使用哪个工具。然而,Toolformer 仍然存在一些局限性,如无法在一个流程中使用多个工具,对于可能返回数百个不同结果的工具不能以交互方式使用等。

【参考资料与关联阅读】

  • Toolformer: Language Models Can Teach Themselves to Use Tools,https://arxiv.org/pdf/2302.04761.pdf

  • Meta's Toolformer Uses APIs to Outperform GPT-3 on Zero-Shot NLP Tasks,https://www.infoq.com/news/2023/04/meta-toolformer/

  • Toolformer: Language Models Can Teach Themselves to Use Tools (2023),https://kikaben.com/toolformer-2023/

  • Breaking Down Toolformer,https://www.shaped.ai/blog/breaking-down-toolformer

  • Toolformer: Meta Re-enters the ChatGPT Race With a New Model Using Wikipedia,https://thechainsaw.com/business/meta-toolformer-ai/

  • Toolformer language model uses external tools on its own,https://the-decoder.com/toolformer-language-model-uses-external-tools-on-its-own/

  • 一文读懂“语言模型”

  • 解读TaskMatrix.AI

  • 知识图谱的5G追溯

  • 图计算的学习与思考

  • AI系统中的偏差与偏见

  • 面向AI 的数据生态系统

  • 机器学习与微分方程的浅析

  • 神经网络中常见的激活函数

  • 老码农眼中的大模型(LLM)

  • 《深入浅出Embedding》随笔

  • 机器学习系统架构的10个要素

  • 清单管理?面向机器学习中的数据集

  • DuerOS 应用实战示例——机器狗DIY

  • 《基于混合方法的自然语言处理》译者序

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/14770.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数影周报:假冒ChatGPT的恶意软件激增,谷歌开启无密码登录

本周看点:假冒ChatGPT的恶意软件激增;谷歌开启无密码登录;京东申请注册Chat相关商标;Flexport收购 Shopify Logistics...... 数据安全那些事 Meta:假冒ChatGPT的恶意软件激增 美东时间周三,Facebook的母公司…

【自然语言处理】【大模型】BLOOM:一个176B参数且可开放获取的多语言模型

BLOOM:一个176B参数且可开放获取的多语言模型 《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》 论文地址:https://arxiv.org/pdf/2211.05100.pdf 相关博客 【自然语言处理】【大模型】BLOOM模型结构源码解析(单机版) 【自然语言处…

华为云发起元宇宙 Web3.0联盟,风口上的 AI 计算平台Deepbrain Chain再次登台亮相...

这是白话区块链的第1867期原创 作者 | Bob出品|白话区块链(ID:hellobtc) 近来,亚太地区元宇宙与Web3.0主题相关的政策高频推出,各类活动高潮迭起,看点十足。继新加坡、香港之后,2月2…

BigScience bloom模型

简介 项目叫 BigScience, 模型叫 BLOOM, BLOOM 的英文全名代表着大科学、大型、开放科学、开源的多语言语言模型。 拥有 1760 亿个参数的模型. BLOOM 是去年由 1000 多名志愿研究人员,学者 在一个名为“大科学 BigScience”的项目中创建的. BLOOM 和今天其他可用大型语言模型存…

全新代码编辑器,集成ChatGPT4

给大家推荐一款全新的代码编辑器,集成ChatGPT4,自动编写代码,自动反编译,自动代码审计,主要是免费! 官网地址: Cursor | Build Fast

军事医学研究院应晓敏组招聘博士后

军事医学研究院应晓敏组诚聘博士后 应晓敏研究员,1997年本科毕业于国防科技大学自动控制系,2003年毕业于国防科技大学计算机学院并获得博士学位,此后一直在军事医学科学院(现军事医学研究院)从事生物信息学研究工作。课…

如何高效学习和阅读源码?

作者:明明如月学长, CSDN 博客专家,蚂蚁集团高级 Java 工程师,《性能优化方法论》作者、《解锁大厂思维:剖析《阿里巴巴Java开发手册》》、《再学经典:《EffectiveJava》独家解析》专栏作者。热门文章推荐&…

lora:low-rank adaption of large language models

THUNLP 领读 ICLR 低秩微调大模型(LoRA)【OpenBMB论文速读】第3期_哔哩哔哩_bilibili💡用脑图!⏰十分钟!OpenBMB【论文速读】第3 期来了!本期领读人是清华大学自然语言处理实验室的本科生,带大家高效读完一…

ChatGPT训练流程复现

本篇文章着重于chatGPT训练流程的复现 来自:无数据不智能 进NLP群—>加入NLP交流群 环境安装 虚拟环境创建 conda create -n chatgpt python3.10 conda activate chatgpt 依赖包安装 git clone https://github.com/LAION-AI/Open-Assistant.git cd Open-Assista…

【试用科研好物】GPT辅助科研神器?AI助力科研?ChatPDF、有道速读

前言 近期需要阅读的论文很多,偶然间在微博刷到许多人推荐科研利器ChatPDF和有道速读。使用后的结论是不推荐使用,下面分别给出理由。 使用&评价 网页版,无需安装任何东西,两款都支持中文。 ChatPDF有道速读 下面太长不看…

10分钟读完《富爸爸穷爸爸》,用ChatGPT速读100本致富经典

你好,我是赤辰。本栏目是每天借助ChatGPT速读1本商业书籍或致富经典,让大家以最短时间汲取到优质书籍中的精华内容和核心思想,本期要给大家解读是致富经典《富爸爸穷爸爸》。 本篇读书笔记全程由ChatGPT辅助阅读,并按照核心观点-…

用ChatGPT速读100本致富经典 |《贫穷的本质》且得出解决方案

你好,我是赤辰。本栏目是每天借助ChatGPT速读1本商业书籍或致富经典,让大家以最短时间汲取到优质书籍中的精华内容和核心思想,本期要给大家解读是《贫穷的本质》。 本篇读书笔记全程由ChatGPT辅助阅读,并按照核心观点-重要引述-结…

10分钟读完《刻意练习》,用ChatGPT速读100本致富经典

本篇读书笔记全程由ChatGPT辅助按照核心观点-重要引述-结论-行动建议来完成阅读,并输出笔记,通过用AI读完一本书只耗时20分钟,能生成约2000字笔记; 书名:《刻意练习》 作者:埃里克乔根森 出版日期&#x…

10分钟读完《原则》精华,用ChatGPT速读100本致富经典

你好,我是赤辰。本栏目是每天借助ChatGPT速读1本商业书籍或致富经典,让大家以最短时间汲取到优质书籍中的精华内容和核心思想,本期要给大家解读是黑石集团创始人瑞达利欧写的《原则》。 本篇读书笔记全程由ChatGPT辅助阅读,并按照…

ChatGPT之后,下一代大型语言模型在哪里?

OpenAI 首席执行官 Sam Altman(左)和 Meta AI 首席执行官 Yann LeCun(右)对未来有不同看法... 来源:学术头条 【编者按:ChatGPT的爆火,让大语言模型受到了人们的关注,然而这些来自不…

【MARK】搜索引擎汇总

1、除了Google,百度外的搜索引擎 基于笔点的自制导航页 https://www.bidianer.com/searchx 通用搜索引擎☞ Bing,微软必应,壁纸不错。 Ecosia,可以作为Bing搜索国际版。 F搜,据说是谷歌中文版,偶尔抽风…

借用百度翻译,用pyqt5 搞定pdf和word文档翻译,排版基本不变,免费好用

以下内容均来自微信公众号:万能搜吧,关注获取更多干货分享。 其实写软件测评写多了,就知道哪些需求是刚需,今天说的是文档翻译的需求,这种需求是比如将英文的PDF论文全部翻译成中文,而且最好排版不受影响。…

Chat Support Board WordPress聊天插件 v3.5.8

功能列表 支持和聊天功能 Slack聊天完全同步 - 直接从Slack发送和接收用户信息。 立即工作 - 只需插入短码,即可立即安装和使用。 丰富的信息 - Dialogflow机器人发送丰富的信息。 机器人--集成一个由API.AI驱动的多语言机器人。 电子邮件通知 - 当收到回复时&#…

成本降低90%,OpenAI正式开放ChαtGΡΤ

今天凌晨,OpenAI官方发布ChαtGΡΤ和Whisper的接囗,开发人员现在可以通过API使用最新的文本生成和语音转文本功能。OpenAI称:通过一系列系统级优化,自去年12月以来,ChαtGΡΤ的成本降低了90%;现在OpenAI用…