在人工智能领域,特别是在自然语言处理(NLP)方面,Prompt-tuning正逐渐成为一个炙手可热的话题。作为一种新兴的技术,它不仅能提高模型的性能,还能显著减少训练和推理的成本。今天,我们将深入探讨Prompt-tuning的工作原理、应用场景以及它为何如此重要。
什么是Prompt-tuning?
在我们深入探讨Prompt-tuning之前,先来了解一下Prompt(提示词)是什么。在NLP中,Prompt是一种输入形式,用来引导模型生成特定的输出。例如,当你在搜索引擎中输入“天气如何”,搜索引擎会根据提示词生成相应的天气信息。
Prompt-tuning则是一个更高级的概念。它是一种通过调整提示词来优化模型性能的方法。与传统的模型微调(fine-tuning)不同,Prompt-tuning不需要对整个模型进行大规模的参数调整,而是通过优化提示词来实现。这种方法不仅更加高效,还能保留模型的通用性。
Prompt-tuning的工作原理
要理解Prompt-tuning的工作原理,我们需要从以下几个方面入手:
-
提示词的选择:Prompt-tuning的核心在于选择合适的提示词。提示词的选择直接影响模型的输出质量。理想的提示词应当能够准确引导模型生成所需的输出。
-
优化提示词:一旦选择了初步的提示词,下一步就是优化它们。这个过程类似于在传统机器学习中调整超参数。通过不断地调整和测试提示词,找到最优的组合。
-
模型的响应:优化后的提示词被输入到模型中,生成相应的输出。通过评估输出的质量,可以进一步调整提示词,直到达到理想的效果。
为了更能了解如何使用Prompt-tuning,下面会使用BERT演示Prompt-tuning实现情感分类任务,并使用transformers微调BERT实现情感分类任务用于对比。
我们将演示如何使用Prompt-tuning和BERT实现文本分类和情感分类任务, 并介绍如何使用OpenPrompt(清华开发的Prompt-tuning工具包,大家也可以去B站学习对应的课程)工具进行这些任务。我们将使用Python和相关的深度学习库来完成这些任务。
环境准备
首先,确保你已经安装了所需的库。你可以使用以下命令安装这些库:
pip install transformers datasets openprompt
数据集准备
我们将使用Hugging Face的datasets
库来加载IMDB情感分类数据集。这个数据集包含电影评论文本及其对应的情感标签(正面或负面)。
from datasets import load_dataset
# 加载IMDB数据集
dataset = load_dataset("imdb")
train_data = dataset['train']
test_data = dataset['test']
使用BERT进行文本分类
首先,我们将演示如何使用BERT进行文本分类任务。我们将使用Hugging Face的transformers
库来加载预训练的BERT模型,并进行微调。
from transformers import BertTokenizer, BertForSequenceClassification, Trainer, TrainingArguments
import numpy as np
from sklearn.metrics import accuracy_score, f1_score
# 加载预训练的BERT模型和分词器
model_name = "bert-base-uncased"
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name, num_labels=2)
# 数据预处理
def preprocess_function(examples):
return tokenizer(examples['text'], truncation=True, padding=True)
train_dataset = train_data.map(preprocess_function, batched=True)
test_dataset = test_data.map(preprocess_function, batched=True)
# 训练参数
training_args = TrainingArguments(
output_dir='./results',
evaluation_strategy="epoch",
learning_rate=2e-5,
per_device_train_batch_size=8,
per_device_eval_batch_size=8,
num_train_epochs=3,
weight_decay=0.01,
)
# 计算评价指标
def compute_metrics(p):
preds = np.argmax(p.predictions, axis=1)
return {
'accuracy': accuracy_score(p.label_ids, preds),
'f1': f1_score(p.label_ids, preds, average='weighted')
}
# 使用Trainer进行训练
trainer = Trainer(
model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=test_dataset,
compute_metrics=compute_metrics,
)
# 开始训练
trainer.train()
使用OpenPrompt进行Prompt-tuning
接下来,我们将使用OpenPrompt工具进行Prompt-tuning。OpenPrompt是一个灵活的框架,允许我们轻松地在各种NLP任务中应用Prompt-tuning。
from openprompt.data_utils import InputExample
from openprompt.data_utils.text_classification_dataset import AgnewsProcessor
from openprompt.plms import load_plm
from openprompt.prompts import ManualTemplate, ManualVerbalizer
from openprompt import PromptForClassification, PromptDataLoader
# 加载预训练的BERT模型和分词器
plm, tokenizer, model_config, WrapperClass = load_plm("bert", "bert-base-uncased")
# 定义数据集
train_examples = [InputExample(guid=idx, text_a=data['text'], label=data['label']) for idx, data in enumerate(train_data)]
test_examples = [InputExample(guid=idx, text_a=data['text'], label=data['label']) for idx, data in enumerate(test_data)]
# 定义模板
template = ManualTemplate(
text='{"placeholder":"text_a"} It was {"mask"}.',
tokenizer=tokenizer,
)
# 定义词汇表
verbalizer = ManualVerbalizer(
classes=["negative", "positive"],
label_words={"negative": ["bad"], "positive": ["good"]},
tokenizer=tokenizer,
)
# 创建Prompt模型
prompt_model = PromptForClassification(
template=template,
plm=plm,
verbalizer=verbalizer,
)
# 创建数据加载器
train_dataloader = PromptDataLoader(
dataset=train_examples,
template=template,
tokenizer=tokenizer,
tokenizer_wrapper_class=WrapperClass,
max_seq_length=128,
batch_size=8,
shuffle=True,
teacher_forcing=False,
predict_eos_token=False,
truncate_method="head"
)
test_dataloader = PromptDataLoader(
dataset=test_examples,
template=template,
tokenizer=tokenizer,
tokenizer_wrapper_class=WrapperClass,
max_seq_length=128,
batch_size=8,
shuffle=False,
teacher_forcing=False,
predict_eos_token=False,
truncate_method="head"
)
# 定义优化器
from transformers import AdamW
optimizer = AdamW(prompt_model.parameters(), lr=2e-5)
# 训练模型
from tqdm import tqdm
for epoch in range(3):
prompt_model.train()
for step, inputs in enumerate(tqdm(train_dataloader)):
inputs = inputs.to(prompt_model.device)
labels = inputs['label']
outputs = prompt_model(inputs)
loss = outputs.loss
loss.backward()
optimizer.step()
optimizer.zero_grad()
# 评估模型
prompt_model.eval()
all_preds = []
all_labels = []
for step, inputs in enumerate(tqdm(test_dataloader)):
inputs = inputs.to(prompt_model.device)
labels = inputs['label']
with torch.no_grad():
outputs = prompt_model(inputs)
preds = torch.argmax(outputs.logits, dim=-1)
all_preds.extend(preds.cpu().numpy())
all_labels.extend(labels.cpu().numpy())
accuracy = accuracy_score(all_labels, all_preds)
f1 = f1_score(all_labels, all_preds, average='weighted')
print(f"Accuracy: {accuracy}, F1 Score: {f1}")
上面分别用两种方式微调了Bert模型,分别使用了Hugging Face的transformers库的内置训练类和OpenPrompt工具包,两种方式都可以实现多种NLP任务,但是更加推荐OpenPrompt工具包,这里主要是考虑到Bert预训练时的两种任务:掩码语言模型(Masked Language Model,MLM)和下一句预测(Next Sentence Prediction,NSP),和我们情感分类任务关联性不大的,我们使用第一种方式训练很难激发更多的预训练学习到的知识和能力。(推荐看B站清华讲这个的课程)
总结
Prompt-tuning作为一种新兴的技术,填补了Bert类模型预训练和实现下游任务微调的差异,更能激发或保持模型预训练所学习到的能力。
如果说传统的模型微调是给AI穿上一件合身的衣服,那么Prompt-tuning就是给AI戴上一顶时尚的帽子。
希望这篇文章能够帮助你更好地理解Prompt-tuning,并激发你对这一技术的兴趣。