Осторожно, занудный комментарий (но вдруг кому-то будет интересно)



Новость выглядит как bs, либо плохо описывает что произошло (что нельзя проверить, тк ссылки на источник нет). Мультиязычные модели, которые переводят без промежуточного языка используются ещё с 2016 года. Возможно, особенность данной системы именно в том, что одна модель поддерживает не ~10 языков, а 100. При сотне языков есть большая сложность - модель начинает плохо работать для высокоресурсных языков (английский, французский), что можно увидеть вот тут. Это можно обойти тем, что сделать модель в 1000 раз больше, но такое не запихаешь в прод. Может быть фейсбук смог решить именно эту проблему.



Прочитал ещё раз, вроде бы разница ещё более тонкая. Особенность системы в том, что она не использует синтетические данные для тренировки (backtranslation). Про цепочки языков там вообще ни слова, там именно backtranslaiton описывают. По-моему этот подход это уже забытые технологии древних, хотя могу быть неправ, тк с MT-продом близко не сталкивался).