В чём проблема с добавлением новых данных в GPT-модели?

Возможно, вы заметили, что с каждым обновлением продвигается дата "knowledge cutoff" — момента, до которого модели знают, что происходило в мире.



Какова же проблема? На самом деле, существует два этапа при обучении моделей:



1) Создатели собирают всевозможные данные из интернета, тратя сотни миллионов на обучение модели.

2) Создатели собирают основные новости по разным направлениям и делают дообучение модели.



ChatGPT Knowledge Cutoff — 12/23, Opus — 8/23.



Какие последние версии библиотеки python-telegram-bot знают сети:

GPT-4 — 13.12 (выпущено 2022-05-26), Opus — 20.3 (выпущено 2023-05-07).



Версии библиотек — это самый простой пример, хотя OpenAI и GitHub, находясь в одной компании, могли бы постараться сделать больше! Если вы погрузитесь глубже в любые вещи за пределами новостей, ситуация будет такой же. Статьи, мемы в интернете и т.д.



Проблема здесь в том, что собирать массу новой информации и делать incremental learning на текущий момент почти нереально, насколько я знаю - технически эта задача не решена, а это на самом деле достаточно сильно ограничивает области применения моделей, особенно в написании кода и в индустриях, где все меняется очень быстро (условный маркетинг в интернете, где хуки, работающие год назад, становятся совершенно не актуальны). Такие дела.



@aihappens