본문 바로가기

딥러닝#speech separation #Deeplearning2

[논문리뷰] Multi-talker Speech Separation with Utterance-level Permutation Invariant Training of Deep Recurrent Neural Networks 안녕하세요. 이번 논문은 지난번에 소개했던 ‘Attention is all you need in speech separation’에서 사용되었던 loss에 대해서 소개하는 논문입니다. 사실 저번 논문 소개에서 loss에 대해서는 말을 하지 않기는 했었죠. 무튼 이번에는 저번에 소개했던 논문에서 사용된 loss에 대해서 알아보기 위해 본 논문을 소개해 드릴게요! 또한 본 논문은 저번에 리뷰 한 논문인 PIT논문의 후속작 입니다. PIT는 speaker tracing problem과 같은 문제가 있었는데 본 논문에서 소개하는 uPIT는 이러한 단점을 보완한 방법입니다. 그럼 이제부터 알아보겠습니다. 먼저 이 논문은 2017년 10월에 IEEE/ACM Transactions on Audio, Speech an.. 2021. 10. 27.
[논문리뷰] PERMUTATION INVARIANT TRAINING OF DEEP MODELS FORSPEAKER-INDEPENDENT MULTI-TALKER SPEECH SEPARATION 이 논문은 옛날에 나온 논문입니다. 하지만 현재 사용되는 loss함수의 근원이 되는 논문이므로 리뷰를 해보도록 하겠습니다. 먼저 이 논문은 2017년에 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)에 출판된 논문입니다. 멋지군요. 이전에 제가 리뷰했던 speech separation의 SOTA논문의 저자가 참여한 논문입니다. 그러니까 꼭 읽어야겠죵? 이제 찬찬히 논문의 서론을 바라봅시다. 오! 첫 줄부터 이렇게 시작합니다. “우리는 새로운 딥러닝 훈련 기준을 제안하며, 이를 permutation invariant training(PIT)라고 명명합니다.” 멋집니다. 계속 봅시다. PIT는 칵테일 파티 문제.. 2021. 6. 29.
반응형