ИИ на грани коллапса.



Команда исследователей из Великобритании и Канады опубликовала статью, в которой предупреждают о феномене, известном как "коллапс модели". Проблема возникает, когда ИИ обучаются на данных, сгенерированных другими ИИ, а не на контенте, созданном человеком. Со временем, модели, обучающиеся на этих ИИ-данных, могут искажать реальность.



Для предотвращения "коллапса модели" исследователи предлагают сохранить оригинальный набор данных, созданный человеком, чтобы периодически переобучать модель, или вводить в обучение новые, "чистые" наборы данных, созданные человеком. Однако такой подход потребует механизма для различения контента, сгенерированного ИИ и человеком, который в настоящее время не существует в нужных масштабах.



Несмотря на эти проблемы, исследователи подчеркивают будущую ценность контента, созданного человеком, как источника исходного материала для обучения ИИ.



Источник