Post

Paper Review. BERT_Pretraining of Deep Bidirectional Transformers for Language Understanding@NAACL' 2019

Abstract

Background

BERT

Experiments

Conclusions & Reviews

  • bidirectional 구조를 일반화시켜 Pre training 된 모델이 광범위한 NLP 작업을 성공적으로 처리할 수 있도록 기여함.

  • Fine tuning 을 위해 단순하게 bert 의 마지막 단에 한 개의 레이어를 추가해서 downstream task 를 수행한다는 점이 놀라웠다.

  • 모델을 복잡하게 만들어서 성능을 올릴 수도 있지만 반대로 단순하게 접근해서 강력한 성능을 낼 수 있었다는 점이 매우 흥미로웠다.

Reference

This post is licensed under CC BY 4.0 by the author.