1. 목표: Pretrain Language Modeling에 대한 연구와 이를 응용한 NLP tasks(QA, NMT(Neural Machine Translation), MRC(Machine Reading Comprehension), NLI(Natural Language Inference)등)에 대한 접근
2. 세부목표: Pretrain Language Model중 대표적인 BERT(Bidirectional Encoder Representation s from Transformers)에 대한 깊은 이해와 BERT를 이용하여 NLP tasks에 fine-tuning을 통해 접근
3. 구성원: 김경욱, 김유상(참관), 민재옥, 박현묵, 이시훈, 전은광, 홍권일
4. 운영방법: 오프라인 모임(격주 토요일) 온라인(slack을 통한 정보공유)