본문 바로가기

딥러닝7

[논문리뷰] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding Background Key features : NLP(Natural Language Processing), Language modeling objective, Transformer, Transfer learning, Masked Language Modeling(MLM), Next Sentence Prediction(NSP), Fine-tuning BERT는 유명한 논문입니다. LSTM 구조의 모델에서 허덕이던 NLP계에 혜성같이 등장하여 11개의 NLP 벤치마크에서 SOTA를 달성하였습니다. BERT의 영향력은 엄청나 현재까지 BERT의 구조를 이용한 수많은 변형 모델들이 만들어졌습니다. 지금 생각나는 것만 나열해 봐도, RoBERTa, ALBERT, BART, MBERT, ViLBERT, SpanBER.. 2021. 6. 30.
[논문리뷰] Attention is all you need in speech separation 논문 제목부터 어그로가 엄청납니다. 근데 speech separation 관련해서 나온 논문 중 RNN없이 transformer를 사용해서 SOTA를 만든 최초의 논문(아마?)이라서 어느 정도 까방권이 있는 느낌입니다. 본 논문은 2020년8월25일에 submit된 논문이고, ICASSP 2021에 accept 된 논문입니다. Transformer 기법을 사용하여 음성 분리(speech separation)를 이뤄냈으며 이 분야의 SOTA 논문입니다(적어도 이 논문에서는 그렇다고 합니다). 먼저 간략하게 본 논문에 대해서 말씀드리겠습니다. 먼저 이 논문에서는 RNN이 Seq2Seq 학습에서 좋았었지만, 병렬화에서 성능이 떨어지는 모델이었기 때문에 transformer가 그 대안으로 나왔다는 말부터 시작합.. 2021. 4. 1.
[논문리뷰] No-search focus prediction at the single cell level in digital holographic imaging with deep convolutional neural network 본 논문은 딥러닝보다는 광학이(제 전공이 아닙니다 ㅠㅠ) 주 목적이기 때문에 알지 못하는 용어들이 존재합니다. 그래서 정확한 내용의 논문 요약이 어려우니 참고해주시길 바랍니다. 딥러닝을 응용한 연구에는 무엇이있나 찾아보다 발견한 논문이므로 딥러닝 응용관점에서 봐주시길 바랍니다. Abstract Off-axis hologram의 digital propagation은 sensor plane(CCD)과 reconstruction plane사이의 거리가 정확할 때 quantitative phase-contrast를 얻는다. 그래서 CCD와 reconstruction plane사이의 거리인 reconstruction distance를 딥러닝을 사용하여 빠르게 잘 구하는게 본 논문의 목표이다. 실제 필터링된 적혈구.. 2019. 6. 28.
반응형