За свою жизнь я успела попробовать несколько областей деятельности. Училась в разных местах - сначала на схемотехника, потом на математика-алгебраического тополога, потом на математика-информатика (разумеется, не забывая и о самообразовании). Параллельно с двумя последними пунктами работала на разных работах, которые можно грубо резюмировать как: промоутер -> клерк -> репетитор -> инженер по расчетам -> разработчик -> ML-разработчик -> ML-исследователь.
Все эти годы я и бомбила от постоянного переучивания, но в то же время и радовалась, что удалось столько всего узнать и сделать. Я верила в то, что если, так сказать, прохавать жизнь сверху донизу и попробовать всё на свете, то можно избежать профдеформации и научиться подниматься над привычными парадигмами, в которых мыслят люди разных профессий и разного уровня образования, примеряя на себя разные способы мышления по обстоятельствам, как бы проживая триллионы жизней на триллионах таких планет, как эта.
Но, к сожалению, оказалось, что от профдеформации так просто не убежишь! И самую сильную проф.деформацию мне, похоже, нанесла даже не работа, а обучение на мехмате.
Я замечаю все новые аспекты, в которых образ мышления, привитый на мехмате, меня тормозит. Так, похоже, именно из-за слишком сильного застревания в парадигме мышления математика я долгое время не считала DL чем-то заслуживающим внимания и интереса. Активно интересоваться ML в целом я начала с 2015-го, но при этом года до 2018-го, а то и 2019-го, я думала, что настоящая наука - это теоретические основы классического ML, где про модели доказывают теоремы. А Deep Learning - это когда просто какие-то долбоебы наваливают кучу матричных умножений вперемешку с софтмаксами, запускают градиентный спуск и радуются получившимся высерам, при этом не понимая, что произошло. Естественно, ни доказать, ни даже объяснить при этом ничего не могут. А когда что-то не получается, дебилы просто добавляют новые слои. Да ну их, пойду-ка я лучше продолжу заниматься классикой ML, прорабатывать формальные методы TDA (Topological Data Analysis) да скрещивать одно с другим...
А когда до меня дошло, что на самом деле DL-архитектуры тоже могут интересно обыгрывать природу данных и природу применяемых численных методов, что при их обучении возникают сложные вызовы разного типа и много интересных феноменов, а еще что можно анализировать происходящее внутри глубоких моделей, применяя разные математические методы, в том числе и топологию, мне уже было под тридцатник! И я такая - блин... если бы я поняла, что Deep Learning интересный, еще в 2015-м, а лучше, вообще лет 10-15 назад... как бы я могла уже развиться в понимании этой области за эти годы.
Особенно остро это чувство меня пронзило на закрытии EMNLP 2022, когда одну из наград за best paper вручили студенту-магистру... вот уж кто времени зря не терял! Если бы я такие награды получала, будучи студенткой, кем бы я стала сейчас?..
Короче, чтобы дальше не тормозить, надо стать гибче и научиться при необходимости отстраняться от парадигмы мышления математика, чтобы я владела ею, а не она мной.
P.S. А также не стесняться добавлять новые слои.
#о_себе
Все эти годы я и бомбила от постоянного переучивания, но в то же время и радовалась, что удалось столько всего узнать и сделать. Я верила в то, что если, так сказать, прохавать жизнь сверху донизу и попробовать всё на свете, то можно избежать профдеформации и научиться подниматься над привычными парадигмами, в которых мыслят люди разных профессий и разного уровня образования, примеряя на себя разные способы мышления по обстоятельствам, как бы проживая триллионы жизней на триллионах таких планет, как эта.
Но, к сожалению, оказалось, что от профдеформации так просто не убежишь! И самую сильную проф.деформацию мне, похоже, нанесла даже не работа, а обучение на мехмате.
Я замечаю все новые аспекты, в которых образ мышления, привитый на мехмате, меня тормозит. Так, похоже, именно из-за слишком сильного застревания в парадигме мышления математика я долгое время не считала DL чем-то заслуживающим внимания и интереса. Активно интересоваться ML в целом я начала с 2015-го, но при этом года до 2018-го, а то и 2019-го, я думала, что настоящая наука - это теоретические основы классического ML, где про модели доказывают теоремы. А Deep Learning - это когда просто какие-то долбоебы наваливают кучу матричных умножений вперемешку с софтмаксами, запускают градиентный спуск и радуются получившимся высерам, при этом не понимая, что произошло. Естественно, ни доказать, ни даже объяснить при этом ничего не могут. А когда что-то не получается, дебилы просто добавляют новые слои. Да ну их, пойду-ка я лучше продолжу заниматься классикой ML, прорабатывать формальные методы TDA (Topological Data Analysis) да скрещивать одно с другим...
А когда до меня дошло, что на самом деле DL-архитектуры тоже могут интересно обыгрывать природу данных и природу применяемых численных методов, что при их обучении возникают сложные вызовы разного типа и много интересных феноменов, а еще что можно анализировать происходящее внутри глубоких моделей, применяя разные математические методы, в том числе и топологию, мне уже было под тридцатник! И я такая - блин... если бы я поняла, что Deep Learning интересный, еще в 2015-м, а лучше, вообще лет 10-15 назад... как бы я могла уже развиться в понимании этой области за эти годы.
Особенно остро это чувство меня пронзило на закрытии EMNLP 2022, когда одну из наград за best paper вручили студенту-магистру... вот уж кто времени зря не терял! Если бы я такие награды получала, будучи студенткой, кем бы я стала сейчас?..
Короче, чтобы дальше не тормозить, надо стать гибче и научиться при необходимости отстраняться от парадигмы мышления математика, чтобы я владела ею, а не она мной.
P.S. А также не стесняться добавлять новые слои.
#о_себе