Skip to content

Commit

Permalink
sort prompts
Browse files Browse the repository at this point in the history
  • Loading branch information
luheng committed Dec 4, 2024
1 parent b049d2f commit bf550f0
Show file tree
Hide file tree
Showing 15 changed files with 19 additions and 9 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -14,31 +14,31 @@ Soft Prompts(软提示)与Hard Prompts(硬提示)相对。软提示是

Prompt Tuning[1](#refer-anchor-1)的核心思想在于prompt tokens有自己的参数,这些参数可以独立更新。这意味着你可以保持预训练模型的参数不变,只更新prompt tokens的嵌入向量的梯度。这样的结果与传统的训练整个模型的方法相当,并且随着模型大小的增加,Prompt Tuning的性能也会提升。

- 0
![alt text](<assest/大模型微调之Soft prompts(一)概述/0.png>)

### 3.2 Prefix-Tuning

Prefix-Tuning[2](#refer-anchor-2)是Prompt Tuning的一种变体,它通过在模型输入的前缀位置添加可学习的提示向量来实现。这种方法的优势在于可以在不改变模型结构的情况下,为不同的任务提供不同的提示。

Prefix-Tuning和Prompt Tuning最主要区别在于,Prefix-Tuning的前缀参数被插入到模型的所有层中,而Prompt Tuning只将提示参数添加到模型的embedding层。

-1
![alt text](<assest/大模型微调之Soft prompts(一)概述/1.png>)

### 3.3 P-Tuning

P-tuning[3](#refer-anchor-3)主要是为自然语言理解(NLU)任务设计的,它是Soft prompts的另一种变体。P-tuning 添加了一个可训练的嵌入张量,这个张量可以被优化以找到更好的提示,并且它使用一个提示编码器(一个双向长短期记忆网络或LSTM)来优化提示参数。

P-tuning的特点是将Decoder架构的模型变得适应Encoder架构的任务,如NLU任务。

-2
![alt text](<assest/大模型微调之Soft prompts(一)概述/2.png>)

### 3.4 Multitask prompt tuning

多任务提示调整(MPT)[4](#refer-anchor-4)是一种从数据中学习单一提示的方法,该提示可以用于多种任务类型,并可以共享以适应不同的目标任务。与之相对的其他现有方法则为每个任务学习一个单独的软提示,这些提示需要被检索或聚合以适应目标任务。

简而言之:MPT先学习一个通用的提示,然后再根据具体任务进行调整。

-3
![alt text](<assest/大模型微调之Soft prompts(一)概述/3.png>)

## 参考

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,7 @@ LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(三)Prefix-Tun

## 技术解读

- 0
![alt text](<assest/大模型微调之Soft prompts(三)Prefix-tuning/0.png>)

Prefix Tuning是一种用于自然语言生成任务的参数高效微调技术。它的核心思想是在模型的输入序列前添加一系列连续的任务特定向量,这些向量被称为前缀(prefix)。这些前缀向量是可训练的,而预训练语言模型(PLM)的其他参数则保持固定。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -5,7 +5,7 @@

## 技术解读

- 0
![alt text](<assest/大模型微调之Soft prompts(二)Prompt-tuning/0.png>)

Prompt Tuning是一种高效的微调方法,它通过在模型输入中添加特定的文本提示(prompt)来适配下游任务,而不需要对预训练模型的参数进行全面的更新。这种方法的核心在于,它通过优化输入提示的参数来调整模型的行为,使得模型能够更好地适应新的任务,而预训练模型的主体参数保持不变。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,13 +2,13 @@ LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(五)Multitask

2023年5月,时隔2年后,soft-prompts又有了新方法,我第一次看到这个方法的时候,心里闪过一个词:一顿操作猛如虎。我的表情就是这样的:

- 1
![alt text](<assest/大模型微调之Soft prompts(五)Multitask prompt tuning/1.png>)

要不是为了这个系列的完备性,也许我永远不会看这篇paper!我建议大家直接看直观解析这一节。

## 技术解读

- 0
![alt text](<assest/大模型微调之Soft prompts(五)Multitask prompt tuning/0.png>)

多任务提示调整 (MPT) 从多种任务类型的数据中学习单个提示,这些提示可共享给不同的目标任务。其他现有方法为每个需要检索或聚合以适应目标任务的任务学习单独的软提示。MPT 包含两个阶段:

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,7 @@ P—Tuning是为了解决NLU任务而设计的Soft prompts方法,P-tuning添

## 技术解读

- 0
![alt text](<assest/大模型微调之Soft prompts(四)P-tuning/0.png>)

P-tuning有两个版本,P-tuning v1(2021年)和P-tuning v2(2023年)。P-tuning v1通过使用一个prompt encoder(例如BiLSTM+MLP)来优化prompt参数,但这种方法在一些复杂的自然语言理解(NLU)任务上效果不佳,且只在较大的模型规模上表现良好。

Expand Down
10 changes: 10 additions & 0 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -175,6 +175,16 @@

[大模型的参数高效微调(PEFT),LoRA微调以及其它](03-第三章-微调/大模型的参数高效微调(PEFT),LoRA微调以及其它.md)

[大模型微调之Soft prompts(一)概述](<03-第三章-微调/大模型微调之Soft prompts(一)概述.md>)

[大模型微调之Soft prompts(二)Prompt Tuning](<03-第三章-微调/大模型微调之Soft prompts(二)Prompt Tuning.md>)

[大模型微调之Soft prompts(三)Prefix-Tuning](<03-第三章-微调/大模型微调之Soft prompts(三)Prefix-Tuning.md>)

[大模型微调之Soft prompts(四)P-Tuning](<03-第三章-微调/大模型微调之Soft prompts(四)P-Tuning.md>)

[大模型微调之Soft prompts(五)Multitask prompt tuning](<03-第三章-微调/大模型微调之Soft prompts(五)Multitask prompt tuning.md>)

## 第四章-大模型量化

**[⬆ 一键返回目录](#目录)**
Expand Down

0 comments on commit bf550f0

Please sign in to comment.