반응형
1. Introduction
- 2018년 10월 논문 공개
- 당시, NLP 11개 task에 SOTA 달성
- SQuAD v1.1에서 인간보다 더 높은 정확도를 보여 주목을 받음
- 논문 제목
- BERT: Pre-trainig of Deep Bidirectional Transformers for Language Understanding
논문 링크
설명 링크
https://coding-moomin.notion.site/BERT-f351597381d84e369bb429340593504b
반응형