
Sequence-to-sequence модели (seq2seq) – это модели глубокого обучения, достигшие больших успехов в таких задачах, как машинный перевод, суммаризация текста, аннотация изображений и др. Так, например, в конце 2016 года подобная модель была встроена в Google Translate.
Перевод статьи по ссылке:
http://bit.ly/3j60DpS
Перевод статьи по ссылке:
http://bit.ly/3j60DpS