Задание к следующему семинару:



На нём разберём attention-механизм (Bahdanau et. al, 2014), без которого нейронный машинный никогда бы не заработал. А также начнём разбирать архитектуру transformer (Vaswani et. al 2017), которая изменила нейросетевой подход к оброаботке последовательностей и сделала ещё один большой скачок в NMT.



Лекция: https://youtu.be/IxQtK2SjWWM

Квиз: https://goo.gl/forms/1EdFO9RdEc5GkyoN2

Вопросы: https://goo.gl/forms/pPRzEXjAbIFHUfZf1