1. 목표: Pretrain Language Modeling에 대한 연구와 이를 응용한 NLP tasks(QA, NMT(Neural Machine Translation), MRC(Machine Reading Comprehension), NLI(Natural Language Inference)등)에 대한 접근
2. 세부목표: Pretrain Language Model중 대표적인 BERT(Bidirectional Encoder Representation s from Transformers)에 대한 깊은 이해와 BERT를 이용하여 NL