Задание к следующему семинару:
На нём разберём attention-механизм (Bahdanau et. al, 2014), без которого нейронный машинный никогда бы не заработал. А также начнём разбирать архитектуру transformer (Vaswani et. al 2017), которая изменила нейросетевой подход к оброаботке последовательностей и сделала ещё один большой скачок в NMT.
Лекция: https://youtu.be/IxQtK2SjWWM
Квиз: https://goo.gl/forms/1EdFO9RdEc5GkyoN2
Вопросы: https://goo.gl/forms/pPRzEXjAbIFHUfZf1
На нём разберём attention-механизм (Bahdanau et. al, 2014), без которого нейронный машинный никогда бы не заработал. А также начнём разбирать архитектуру transformer (Vaswani et. al 2017), которая изменила нейросетевой подход к оброаботке последовательностей и сделала ещё один большой скачок в NMT.
Лекция: https://youtu.be/IxQtK2SjWWM
Квиз: https://goo.gl/forms/1EdFO9RdEc5GkyoN2
Вопросы: https://goo.gl/forms/pPRzEXjAbIFHUfZf1