OPENAI API 微调 GPT-3 的 Ada 模型

2023-05-15 14:05:27 api 微调 OpenAI

前言

本文主要是介绍了使用 openai 提供的 api 来完成对开放出来的模型进行微调操作。开放的模型有 curie 、babbage、ada 等,我这里以微调 ada 举例,其他类似。

需要提前安装好 openai 所需要的各种库,我这里的库版本是 openai-0.25.0 。以及最关键过的 openai key ,这需要科学上网,请自行解决。需要注意的是微调是要花钱的,不过最开始的注册账户里默认都有 5$ ,在开始之前到

https://platfORM.openai.com/account/usage 

这里可以查看是否有余额。另外可以去

Https://openai.com/pricing 

查看微调不同模型的费用,对于本文的介绍的内容使用免费的 5$ 是足够的。

数据准备

我们这里使用现成的数据,从网上可以直接读取使用,该数据主要有两类包含棒球和曲棍球。并且会随机打乱数据,方便后续的训练。可以看到数据的总量不大,只有 1197 条数据。

from sklearn.datasets import fetch_20newsgroups
import pandas as pd
import openai
cateGories = ['rec.sport.baseball', 'rec.sport.hockey']
sports_dataset = fetch_20newsgroups(subset='train', shuffle=True, random_state=42, categories=categories)
len_all, len_baseball, len_hockey = len(sports_dataset.data), len([e for e in sports_dataset.target if e == 0]), len([e for e in sports_dataset.target if e == 1])
print(f"Total examples: {len_all}, Baseball examples: {len_baseball}, Hockey examples: {len_hockey}")

打印:

Total examples: 1197, Baseball examples: 597, Hockey examples: 600

数据处理

为了加速我们的训练,我们这里选用打乱的训练集中的前 100 条数据来进行演示效果,因为数据多的话,时间消耗会长,而且微调的费用会和训练数据成正比增加。

这里的数据一共有两列,一列是 prompt 表示待分类的文本,一列是 completion 表示对应文本描述的标签,标签只有两类 baseball 和 hockey 。

labels = [sports_dataset.target_names[x].split('.')[-1] for x in sports_dataset['target']]
texts = [text.strip() for text in sports_dataset['data']]
df = pd.DataFrame(zip(texts, labels), columns = ['prompt','completion']) 
df = df[:100]

微调模型的输入数据需要按照规定的格式进行整理,这里使用常见的 JSONl 格式,使用 openai 库自带的工具进行处理即可得到训练集 sport2_prepared_train.jsonl 和验证集 sport2_prepared_valid.jsonl 在当前目录。

df.to_json("sport2.jsonl", orient='records', lines=True)
!openai tools fine_tunes.prepare_data -f sport2.jsonl -q

模型训练

首先将你的 openai key 设置成环境变量 OPENAI_API_KEY 才能执行下面的命令,该命令会使用指定的训练集和验证集进行微调的分类任务,并且会计算保留分类常见的指标,我们这里指定的模型为 ada 。

!openai api fine_tunes.create -t "sport2_prepared_train.jsonl" -v "sport2_prepared_valid.jsonl" --compute_classification_metrics --classification_positive_class " baseball" -m ada

打印:

Uploaded file from sport2_prepared_train.jsonl: file-wx9c3lYQB6Z4pWrrCqBabWUh
Uploaded file from sport2_prepared_valid.jsonl: file-aujZlpbhXZnevKzJNjF06q85
Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk
Streaming events until fine-tuning is complete...
[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk
[2023-03-28 09:59:16] Fine-tune costs $0.06
[2023-03-28 09:59:16] Fine-tune enqueued. Queue number: 2
[2023-03-28 09:59:32] Fine-tune is in the queue. Queue number: 1
(Ctrl-C will interrupt the stream, but not cancel the fine-tune)
[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk
Stream interrupted (client disconnected).
To resume the stream, run:
  openai api fine_tunes.follow -i ft-aEHXhd8q9dfG8MOKt43ph7wk

从打印信息中我们能看到此次训练的花费,以及当前的排队情况,这个训练过程是在 openai 的服务器上进行的,有时候长时间因为排队没有响应会自己断开数据流的传输,我们如果想要继续查看任务情况,只需要找到打印出来的唯一任务编码,执行下面的命令,我的远程服务器上的训练任务编码是 ft-aEHXhd8q9dfG8MOKt43ph7wk ,其实上面的打印信息中都有相应的提示。

openai api fine_tunes.follow -i ft-aEHXhd8q9dfG8MOKt43ph7wk
[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk
[2023-03-28 09:59:16] Fine-tune costs $0.06
[2023-03-28 09:59:16] Fine-tune enqueued. Queue number: 2
[2023-03-28 09:59:32] Fine-tune is in the queue. Queue number: 1
[2023-03-28 10:12:20] Fine-tune is in the queue. Queue number: 0
[2023-03-28 10:13:54] Fine-tune started
[2023-03-28 10:14:22] Completed epoch 1/4
[2023-03-28 10:14:37] Completed epoch 2/4
[2023-03-28 10:14:50] Completed epoch 3/4
[2023-03-28 10:15:03] Completed epoch 4/4
[2023-03-28 10:15:26] Uploaded model: ada:ft-personal-2023-03-28-02-15-26
[2023-03-28 10:15:27] Uploaded result file: file-YZ2VNHkFnAJAhBeTKJ2AxfLK
[2023-03-28 10:15:27] Fine-tune succeeded

从打印信息中我们可以看到微调的结果模型叫 ada:ft-personal-2023-03-28-02-15-26 ,这个可以在 platform.openai.com/playground 里的模型选择栏中看到自己微调后的模型。

训练信息打印

我们通过任务编码可以获取该任务训练的各种信息,比如随着 epoch 变化的 loss 、acc 等信息。可以看出在我们的训练集上训练的分类准确率为 100% 。

!openai api fine_tunes.results -i ft-aEHXhd8q9dfG8MOKt43ph7wk > result.csv
results = pd.read_csv('result.csv')
results[results['classification/accuracy'].notnull()].tail(1)

打印信息:

	step	elapsed_tokens	elapsed_examples	training_loss	training_sequence_accuracy	training_token_accuracy	validation_loss	validation_sequence_accuracy	validation_token_accuracy	classification/accuracy	classification/precision	classification/recall	classification/auroc	classification/auprc	classification/f1.0
316	317	143557	317	0.02417	1.0	1.0	NaN	NaN	NaN	1.0	1.0	1.0	1.0	1.0	1.0

模型测试

我们随机挑选验证集中的一条文本,使用微调后的模型进行测试,打印出来的分类标签是正确的。

test = pd.read_json('sport2_prepared_valid.jsonl', lines=True)
res = openai.Completion.create(model= 'ada:ft-personal-2023-03-28-02-15-26', prompt=test['prompt'][0] + '\n\n###\n\n', max_tokens=1, temperature=0)
res['choices'][0]['text']

打印:

' hockey'

另外我们的微调分类器是非常通用的,不仅在我们使用的训练集和验证集上游泳,它也能用来预测推文。

sample_hockey_tweet = """Thank you to the 
@Canes
 and all you amazing Caniacs that have been so supportive! You guys are some of the best fans in the NHL without a doubt! Really excited to start this new chapter in my career with the 
@DetroitRedWings
 !!"""
res = openai.Completion.create(model='ada:ft-personal-2023-03-28-02-15-26', prompt=sample_hockey_tweet + '\n\n###\n\n', max_tokens=1, temperature=0, logprobs=2)
res['choices'][0]['text']

打印:

' baseball'

总结

其实使用 openai 的微调 api 只需要四步:

  • 准备环境和 key
  • 准备规定格式的数据
  • 训练模型
  • 模型推理

以上就是OPENAI API 微调 GPT-3 的 Ada 模型的详细内容,更多关于OPENAI API微调GPT-3 Ada 的资料请关注其它相关文章!

相关文章