Natural Language Processing
RoBERTa : A Robustly Optimized BERT Pretraining Approach
Attention is All You Need
2021. 7. 18. 22:50
1. 논문 제목 : RoBERTa : A Robustly Optimized BERT Pretraining Approach
2. 발표한 학회 : ICLR 2020
3. 논문의 핵심 키워드 : BERT, Encoder, Pre-training, robust, underfit
4. 논문요약 :
해당 논문 발표전에 Glue에서 SOTA를 달성하고 있던 XLNet을 포함하여,
BERT 이후에 많은 모델들은 새로운 pretraining 방법론을 모색하거나, 모델 구조에 변화를 주는 시도를 하고 있었다.
RoBERTa는 BERT의 pretraining 방법에 약간의 변화만 준 채로, 새로운 큰 변화를 주는 대신에,
더욱 많은 데이터로 더욱 긴 시간동안 훈련을 하였을 때도 충분히 큰 성능 향상으로 이어질 수 있다는 점을 시사하면서,
기존에 발표된 Language Model들이 pretrain data에 underfit 되어 있을 수 있으므로, 이를 optimize하는 것의 중요성을 야기시킨 논문.
5. 스터디 발표 영상 :