Нейросетей и прочих AI-чудес пост (#философское)



Вряд ли кто-то из вас ничего не слышал про прорывы в области искусственного интеллекта, особенно в части GPТ-технологий. Человечество долго-долго шло-шло и, наконец, пришло. OpenAI (а на самом деле далеко не только он) выкатил ChatGPT и загорелись глаза и зады. Оказалось, что можно скармливать железке всякие вопросы, тексты и прочее и получать на выходе удивительно похожие на правдоподобные ответы. Объяснюсь. Правдоподобные != правильные. Удивительно похожие != истинные. Множество экспериментов сообщества показало, что в ряде случаев железка и правда дает верные ответы, которые соответствуют текущей модели мира и не противоречат ей. Но наибольший интерес представляют не положительные результаты работы алгоритмов, а сомнительные и отрицательные. Так в некоторых случаях жэпэтэ выдавал что-то очень похожее, но на деле совершенно не пригодное к использованию. Был замечен за подменой понятий и искажением вопросов, выдуманными фактами, несуществующими методами, давлением на вопрошающего и пр. Результат после валидации профессиональным кожаным мешком оказывался неверным и требовал коррекции.



Что имеем? Ограниченность во времени и силах. Тотальная нехватка компетенций даже на базовых уровнях. Быстрый и дешевый генератор неважно чего без гарантии правильности ответа, главное правильно спросить.

Что хотим? Делать что-то еще больше и еще быстрее, еще дешевле. Теперь уже не важно что делать, потому что это стало быстро и дешево. По большому счету, качество не очень волнует, цена и время. Не напрягаться и получать всё.



Применим эти тезисы к ИТ. ИТ это долго и дорого. Кнопку прилепить и покрасить занимает командонедели. Не будем вдаваться в причины, но это так. А хочется делать юнит-тесты, автотесты, код-ревью, рефакторинг и прочее, но на это нет времени и сил, потому что кнопок много. Синьоров двигать кнопки быстро мало, да еще и уехали за бугор. Все стало еще дольше, хоть и не сильно дороже. А тут ученые подогнали решение - ИИ в ИТ. По их заявлениям он и код поправит и напишет, там где его не хватает, и тесты и вот это вот все. Выглядит здорово, если бы не одно небольшое философское «Но».



Старший специалист может использовать ИИ в помощь, потому что он (если он все еще старший) имеет возможность а) правильно озадачить, б) получить результаты и провалидировать их. Специалист меньшей квалификации может все тоже самое, но вот оценка пригодности будет хромать в ряде случаев. А вот что делать с младшими специалистами? Кажется, что для того, чтобы задавать вопросы железке с целью генерации нужных действий, стоит понимать что происходит в системе и что хочется получить на выходе. Сможет он это сделать? - вопрос. Запрос сформулирован (пусть даже правильно), система вернула код. Сможет ли он понять суть написанного и провалидировать результат? - вопрос. Творение ИИ под управлением младшего специалиста должно быть передано более старшему специалисту на проверку. Это если оно вообще соберется и запустится. Представьте себе удивление младшего, если всемогущий ИИ сгенерил какаху. В итоге старшие товарищи кроме валидации ответов на свои вопросы будут вынуждены валидировать ответы на чужие вопросы. Но это все фигня против основного момента - младшему больше НЕ НАДО УЧИТЬСЯ. За него все делает железка и старшие. И вряд ли все преодолеют это искушение.



Как сделать так, чтобы применение ИИ наносило пользу, а не вред?

Как разделить области и границы применимости ИИ, чтобы люди не потеряли стимул к обучению и росту?



Вопросы философские, хоть и утилитарные. Ответы я только начал искать. Пока выглядит так, что появление такого рода систем на порядок увеличивает ценность истинного знания. Учитесь, друзья мои, вопреки уговорам определенных лиц, в первую очередь для себя, а будущее рассудит.



Вот такое вот пятничное философское получилось. Возраст и опыт позволяет брюзжать, а не пищать от восторга, по крайне мере на текущий момент времени. Продолжу.



P.S. Яндекс опубликовал объявление о наборе на позиции обучателей и (внимание!) руководителей обучателей ИИ.