Skip to content

Commit de21686

Browse files
committed
修改 readme.md
1 parent 73d8c30 commit de21686

File tree

3 files changed

+30
-13
lines changed

3 files changed

+30
-13
lines changed

NLPinterview/PreTraining/bert_big/readme.md

Lines changed: 28 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -96,12 +96,12 @@
9696
- [9.3 【SpanBERT】微调](#93-spanbert微调)
9797
- [9.4 【SpanBERT】效果](#94-spanbert效果)
9898
- [十、MacBERT](#十macbert)
99-
- [9.1 【MacBERT】动机](#91-macbert动机)
100-
- [9.2 【MacBERT】预训练](#92-macbert预训练)
101-
- [9.2.1 MLM](#921-mlm)
102-
- [9.2.2 NSP](#922-nsp)
103-
- [9.3 【MacBERT】微调](#93-macbert微调)
104-
- [9.4 【MacBERT】效果](#94-macbert效果)
99+
- [10.1 【MacBERT】动机](#101-macbert动机)
100+
- [10.2 【MacBERT】预训练](#102-macbert预训练)
101+
- [10.2.1 MLM](#1021-mlm)
102+
- [10.2.2 NSP](#1022-nsp)
103+
- [10.3 【MacBERT】微调](#103-macbert微调)
104+
- [10.4 【MacBERT】效果](#104-macbert效果)
105105
- [参考](#参考)
106106

107107
## 总结
@@ -179,6 +179,22 @@
179179
<td>--</td>
180180
<td>--</td>
181181
</tr>
182+
<tr>
183+
<td>SpanBERT</td>
184+
<td>SpanBERT: Improving Pre-training by Representing and Predicting Spans</td>
185+
<td>旨在更好地表示和预测文本的 span</td>
186+
<td>1. Span Mask <br/>2. Span Boundary Objective (SBO) <br/>训练目标 Single-Sequence Training</td>
187+
<td>--</td>
188+
<td>--</td>
189+
</tr>
190+
<tr>
191+
<td>MacBERT</td>
192+
<td>Revisiting Pre-trained Models for Chinese Natural Language Processing</td>
193+
<td>为了解决与训练阶段和微调阶段存在的差异性</td>
194+
<td>1. 使用Whole Word Masking、N-gram Masking <br/>2. 使用相似的word进行替换[MASK] <br/>3. 采用ALBERT提出的SOP替换NSP</td>
195+
<td>--</td>
196+
<td>--</td>
197+
</tr>
182198
</table>
183199

184200

@@ -616,26 +632,26 @@ ERNIE-T 引入知识图谱来增强预训练模型的语义表达能力,其实
616632
> 论文:https://arxiv.org/abs/2004.13922</br>
617633
> 代码:https://github.com/ymcui/MacBERT</br>
618634
619-
### 9.1 【MacBERT】动机
635+
### 10.1 【MacBERT】动机
620636

621637
- 主要为了解决与训练阶段和微调阶段存在的差异性
622638

623-
### 9.2 【MacBERT】预训练
639+
### 10.2 【MacBERT】预训练
624640

625-
#### 9.2.1 MLM
641+
#### 10.2.1 MLM
626642

627643
1. 使用Whole Word Masking、N-gram Masking:single token、2-gram、3-gram、4-gram分别对应比例为0.4、0.3、0.2、0.1;
628644
2. 由于finetuning时从未见过[MASK]token,因此使用相似的word进行替换。使用工具Synonyms toolkit 获得相似的词。如果被选中的N-gram存在相似的词,则随机选择相似的词进行替换,否则随机选择任意词替换;
629645
3. 对于一个输入文本,15%的词进行masking。其中80%的使用相似的词进行替换,10%使用完全随机替换,10%保持不变。
630646

631-
### 9.2.2 NSP
647+
### 10.2.2 NSP
632648

633649
采用ALBERT提出的SOP替换NSP
634650

635-
### 9.3 【MacBERT】微调
651+
### 10.3 【MacBERT】微调
636652

637653

638-
### 9.4 【MacBERT】效果
654+
### 10.4 【MacBERT】效果
639655

640656

641657

NLPinterview/PreTraining/bert_zip/readme.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -19,7 +19,7 @@
1919
- 限制了 Bert 系列模型在移动和物联网等嵌入式设备上的部署;
2020

2121
## 二、Bert 模型压缩对比表
22-
22+
2323
<table>
2424
<tr>
2525
<td>论文</td>

README.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -20,6 +20,7 @@
2020
>
2121
> GCN 论文学习笔记:https://github.com/km1994/GCN_study
2222
>
23+
> **推广搜 军火库**https://github.com/km1994/recommendation_advertisement_search
2324
2425
![](img/微信截图_20210301212242.png)
2526
> **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**

0 commit comments

Comments
 (0)