Speech separation1 [논문리뷰] Attention is all you need in speech separation 논문 제목부터 어그로가 엄청납니다. 근데 speech separation 관련해서 나온 논문 중 RNN없이 transformer를 사용해서 SOTA를 만든 최초의 논문(아마?)이라서 어느 정도 까방권이 있는 느낌입니다. 본 논문은 2020년8월25일에 submit된 논문이고, ICASSP 2021에 accept 된 논문입니다. Transformer 기법을 사용하여 음성 분리(speech separation)를 이뤄냈으며 이 분야의 SOTA 논문입니다(적어도 이 논문에서는 그렇다고 합니다). 먼저 간략하게 본 논문에 대해서 말씀드리겠습니다. 먼저 이 논문에서는 RNN이 Seq2Seq 학습에서 좋았었지만, 병렬화에서 성능이 떨어지는 모델이었기 때문에 transformer가 그 대안으로 나왔다는 말부터 시작합.. 2021. 4. 1. 이전 1 다음 반응형