gonzo-обзоры ML статей

Затем Rich Caruana с Lei Jimmy Ba развили эту тему в работе:Do Deep Nets Really Need to be Deep?http...

Читать далее

Одной из ранних работ, на которую принято ссылаться, является: Model CompressionRich Caruana, Cristi...

Читать далее

Дистилляция: матчастьПора немного поговорить про истоки дистилляции и её суть.В целом, как уже было...

Читать далее

Ну и дистилляция дистилляцией, но не забывайте, что появился ещё и весьма качественный ALBERT (тоже...

Читать далее

Результаты дистиллированного BERT'а со сжатым словарём

Читать далее

Результаты BERT_PKD

Читать далее

Результаты BiLSTM_soft

Читать далее

Другие известные дистилляции BERT’а(2019/03) “Distilling Task-Specific Knowledge from BERT into Simp...

Читать далее

Сравнения по качеству, скорости и размерам

Читать далее

Двухэтапная процедура обучения TinyBERT

Читать далее