文章目录
- 前言
- 一、啥叫微调
- 二、为啥要微调
- 三、不是所有模型都可以微调的
- 四、总述微调的基本流程,以及涉及的主要函数,参数
- 1. 安装
- 2. 准备训练数据
- 3. openai.api_key = os.getenv() 进行一个说明
- 4. 通过API 调用模型 常用函数
- 5. 微调模型 常用函数
- 6. OpenAI CLI 开始微调
- --------------------------- 1. 创建微调模型---------------------------
- --------------------------- 2. 微调中断 恢复---------------------------
- --------------------------- 3. 微调中的其他操作---------------------------
- --------------------------- 4. 使用微调模型---------------------------
- --------------------------- 5. 删除微调模型---------------------------
前言
ChatGPT出来时间也不短了,最近听同事们说在面试时候,很多公司都会问,有没有微调GPT的经历,因此觉得,这东西需要掌握住,正好公司自己搭建的平台,api秘钥也是免费用,就趁着这个机会,好好琢磨下这个东西。
大致分为以下几步走:
第一:总述 微调 的基本流程
第二:微调用的数据
第三:微调的一些特殊用法
第四:实际例子分析
一、啥叫微调
微调
是指在训练好的机器学习模型上进行进一步调整和优化
,以提高其性能
和适应特定任务
或领域的能力
。在微调过程中,我们通常会使用一个较小的数据集
来重新训练模型,这个数据集包含与目标任务或领域相关的样本。通过微调,模型可以学习到更加具体和精确的特征,从而提升其在特定任务上的表现。微调是深度学习
和迁移学习
中常用的技术之一,可以使得模型更好地适应实际应用场景。
二、为啥要微调
用过GPT网页版的,或者通过api直接调用的,都知道,它有不错的通用能力,但是一到特别领域就不行。
但是但是,微调后就有这写好处:
-
个性化适应
:通过微调,可以根据特定的需求和场景来训练ChatGPT,使其具有更加个性化、定制化的回答能力。可以引入特定领域的语料库或样本集,以便ChatGPT对该领域的问题和主题有更深入的了解。 -
消除偏见
:微调可以帮助消除模型中可能存在的偏见。通过重新训练模型并提供多样化的数据,可以减少模型在回答问题时对某些群体或观点的偏见,从而提高模型的公平性和中立性。 -
控制输出
:微调可以让更好地控制ChatGPT的输出内容。可以通过微调来约束模型生成的答案,确保其符合特定的要求,比如遵守特定的规则、避免敏感信息泄露等。 -
提高准确性
:微调可以显著提高ChatGPT的准确性和质量。通过使用与目标任务相关的数据进行微调,模型可以更好地理解和回答相关问题,提供更准确的答案
并且通过微调可让从 API 提供的模型中获得更多收益:
- 比即时设计更高质量的结果
- 能够训练比提示中更多的例子
- 由于更短的提示而节省了代币
- 更低的延迟请求
GPT-3 已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成。这通常称为“小样本学习”。
微调通过训练比提示中更多的示例
来改进小样本学习
,让咱们在大量任务中
取得更好的结果。对模型进行微调后,将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。
总述就是
,微调涉及以下步骤:
- 准备和上传训练数据
- 训练微调模型
- 使用微调模型
三、不是所有模型都可以微调的
微调目前仅适用于以下基础模型:davinci
、curie
、babbage
和ada
。这些是原始模型,在训练后没有任何说明(例如text-davinci-003)。还可以继续微调微调模型以添加其他数据,而无需从头开始。
我只关注ChatGPT3.5
系列:如图
四、总述微调的基本流程,以及涉及的主要函数,参数
1. 安装
这个是openai给的安装方法:
建议使用的 OpenAI 命令行界面 (CLI)。要安装这个,运行
pip install --upgrade openai
(以下说明适用于0.9.4及更高版本。此外,OpenAI CLI 需要 python 3。)
OPENAI_API_KEY
通过将以下行添加到您的 shell 初始化脚本(例如 .bashrc、zshrc 等)或在微调命令之前的命令行中运行它来设置您的环境变量:
export OPENAI_API_KEY="<OPENAI_API_KEY>"
2. 准备训练数据
后面咱们专门说这个
3. openai.api_key = os.getenv() 进行一个说明
openai.api_key = os.getenv()
函数
import os
import openai# Load your API key from an environment variable or secret management service
openai.api_key = os.getenv("OPENAI_API_KEY")
这行代码的含义是将环境变量中存储的OpenAI API
密钥赋值给openai.api_key
变量。
这可以用于对OpenAI API进行身份验证,以便在使用API时向OpenAI发送请求。
os.getenv()
:是Python标准库os中的一个函数,它用于获取操作系统环境变量的值。
"OPENAI_API_KEY"
:是要获取的环境变量的名称,这里我们想要获取OpenAI的API密钥。
openai.api_key
:是OpenAI提供的一个变量,用于存储API密钥。将os.getenv("OPENAI_API_KEY")
的返回值赋值给它,
即可将API密钥保存在该变量中,方便后续使用。
4. 通过API 调用模型 常用函数
openai.Completion.create()
函数
response = openai.Completion.create(
model="text-davinci-003",
prompt="Say this is a test",
temperature=0,
max_tokens=7)
openai.Completion.create()
:是OpenAI提供的一个函数,用于创建文本生成的请求。
model="text-davinci-003"
:指定了使用的模型。在这个例子中,模型被命名为"text-davinci-003"。模型名称通常表明了它所擅长的任务和能力。
prompt="Say this is a test"
:是输入给模型的提示文本。在这个例子中,模型的生成将基于这个提示进行。
temperature=0
:是控制文本生成的随机性的参数。较低的温度值(如0)会使生成结果更加确定性,较高的温度值(如1)会使生成结果更加随机。
max_tokens=7
:指定了生成文本的最大长度。在这个例子中,生成的文本将不超过7个标记(tokens)。
通过调用openai.Completion.create()
函数并传入相应的参数,可以向OpenAI API发送请求,并获得生成的文本结果。
5. 微调模型 常用函数
fine_tunes.create()
函数
fine_tunes.create
: 这个函数用于创建一个微调任务。
主要参数:
-t <TRAIN_FILE_ID_OR_PATH>
: 指定训练文件的标识符或路径,它包含了用于微调的数据集。
该参数,允许根据训练文件是本地存储还是上传到OpenAI API来指定文件的标识符或路径。
如果这个文件位于C:\path\to\train.txt
,命令会是这样的:
-t C:\path\to\train.txt
另外,如果你已经将训练文件上传到了OpenAI API
,并获得了一个文件标识符
,你可以将这个标识符作为-t参数的值。
例如
,如果文件标识符是file-abc123
,命令会是这样的:
-t file-abc123
-m
<BASE_MODEL>: 指定基础模型的选择,即预训练模型的名称或标识符。
-n
<NUM_ITERATIONS>: 指定微调的迭代次数,即完成微调的总步骤数。
-b
<BATCH_SIZE>: 指定每个微调步骤(iteration)的批量大小,即每次更新模型时一次处理的样本数量。
-e
<EVALUATION_INTERVAL>: 指定模型在微调过程中进行评估的间隔,即多少个微调步骤后进行一次模型评估。
-s
: 指定随机种子,以确保微调过程的可重复性。
-o
<OUTPUT_DIR>: 指定输出目录,用于存储微调过程中生成的模型权重和其他相关文件。
通过使用这些参数,您可以指定微调所使用的训练数据、基础模型以及微调任务的其他相关参数。
执行fine_tunes.create
函数后,OpenAI API将开始进行模型微调
,并在指定的迭代次数内更新模型权重和优化参数,
最终生成一个经过个性化训练的模型。
openai.常用函数
openai.Completion.create(): 用于创建文本生成的请求。
openai.Davinci(models='davinci'): 用于选择Davinci模型。
openai.Gpt3(models='gpt-3.5-turbo'): 用于选择GPT-3.5 Turbo模型。
openai.ChatCompletion.create(): 用于创建对话式生成的请求。
openai.File.create(): 用于上传文件到OpenAI API中,并返回一个文件标识符。
openai.File.retrieve(): 用于从OpenAI API中检索已上传的文件。
6. OpenAI CLI 开始微调
--------------------------- 1. 创建微调模型---------------------------
使用 OpenAI CLI 开始微调工作:
openai api fine_tunes.create -t <TRAIN_FILE_ID_OR_PATH> -m <BASE_MODEL>'''
也可以给模型增加上名字最多 40 个字符的后缀'''
openai api fine_tunes.create -t test.jsonl -m ada --suffix "custom model name"
结果名称
将是:
ada:ft-your-org:custom-model-name-2022-02-15-04-21-04
执行这行代码后,开始执行下面的操作…
- 使用文件 API上传文件(或使用已经上传的文件)
- 创建微调作业
- 流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)
注意
:
成功创建微调任务后,
API
将返回一个响应包含有关微调的信息
,其中包括相应的模型ID
。您可以从API响应中提取该模型ID,这个后面会需要使用
--------------------------- 2. 微调中断 恢复---------------------------
使用这行代码就行恢复…
openai api fine_tunes.follow -i <YOUR_FINE_TUNE_JOB_ID>
fine_tunes.follow
: 这个函数用于跟踪模型微调任务
的状态和进展
。
主要参数:
-i <YOUR_FINE_TUNE_JOB_ID>
: 指定模型微调任务的标识符
,即您的微调的唯一ID
。
通过使用fine_tunes.follow
函数并提供相应的微调ID
,您可以获取有关模型微调过程的实时状态更新。
这些状态更新可能包括每个迭代步骤的训练损失
、验证指标
、当前轮次等信息
。通过跟踪微调任务的状态,
您可以了解模型微调的进展情况,并根据需要进行必要的监控和后续操作。
!!!请注意!!!
,上述参数是一个示例,需要将<YOUR_FINE_TUNE_JOB_ID>
替换为实际的模型微调作业ID
。这个作业ID通常是在启动微调任务时由OpenAI API返回的
。
--------------------------- 3. 微调中的其他操作---------------------------
除了创建微调,恢复微调外,还可以 列出现有微调
、检索微调状态
或 取消微调
。
列出现有微调
(有点类似 pip list) # List all created fine-tunes
openai api fine_tunes.list
检索微调
# Retrieve the state of a fine-tune. The resulting object includes
# job status (which can be one of pending, running, succeeded, or failed)
# and other information
openai api fine_tunes.get -i <YOUR_FINE_TUNE_JOB_ID>
取消微调任务
# Cancel a job
openai api fine_tunes.cancel -i <YOUR_FINE_TUNE_JOB_ID>
看到了吧
,这里的 工作ID 其实就是上面创建微调模型的时候 返回的 ID
--------------------------- 4. 使用微调模型---------------------------
方式一
:OpenAI 命令行界面:
openai api completions.create -m <FINE_TUNED_MODEL> -p <YOUR_PROMPT>
方式二
:Python:
import openai
openai.Completion.create(model=FINE_TUNED_MODEL,prompt=YOUR_PROMPT)'''
这个函数上面有详细解释
'''
如果您使用了OpenAI API中的fine_tunes.create
函数进行微调,则在成功创建微调任务后,
API将返回一个响应包含有关微调作业的信息
,其中包括相应的模型ID
。您可以从API响应中提取该模型ID,
并将其用作<FINE_TUNED_MODEL>
参数的值。
--------------------------- 5. 删除微调模型---------------------------
方式一
:OpenAI 命令行界面:
openai api models.delete -i <FINE_TUNED_MODEL>
方式二
:Python:
import openai
openai.Model.delete(FINE_TUNED_MODEL)