Written by Youngrok Jang
MT-DNN 핵심 요약 BERT에 Multi-task learning(GLUE의 9개 Task 활용)을 수행하여 성능 개선한 모델 다양한 Task의 Supervised Dataset을 모두 사용하여 대용량 데이터로 학습 Multi-task Learning을 통해 특정 Task에 Overfitting되지 않도록 Regularization...
Written by Minho Park
BERT: Pre-trainig of Deep Bidirectional Transformers for Language Understanding 최근에 NLP 연구분야에서 핫한 모델인 BERT 논문을 읽고 정리하는 포스트입니다. 구성은 논문을 쭉 읽어나가며 정리한 포스트기 때문에 논문과 같은 순서로 정리하였습니다....
Written by Hyunsuk Yoo
이번 포스팅은 다음 논문들의 내용을 이용하여 정리하였습니다. Learning Transferable Architectures for Scalable Image Recognition 요약 소개해드릴 논문은 CVPR 2018년에 발표된 논문입니다. 본 논문에서는 작은 dataset의 search space에서 성능이 좋은 model...
Written by Joohan Lee
이번 포스팅은 다음 논문들의 내용을 이용하여 정리하였습니다. SphereFace: Deep Hypersphere Embedding for Face Recognition CosFace: Large Margin Cosine Loss for Deep Face Recognition Intro 위 두개의 논문은 기존에 연구되어 오던...
Written by Gunsoo Han
End-to-end task TODS is challenging since knowledge bases are usually large, dynamic hard to incorporate into a learning framework. We propose the global-to-local memory pointer (GLMP) networks to address this...