🤯 Коллапс нейронных сетей ожидается учеными в результате самостоятельного обучения ИИ на собственном материале.
Нейронные сети обучаются на созданном человеком контенте, таком как книги, статьи и фотографии. Однако по мере того, как в Интернете генерируется больше информации, ИИ не может учиться на ней, а обработка такого контента приводит к деградации ИИ, по мнению группы независимых ученых из Великобритании и Канады.
🧠 Исследователи обнаружили, что чем больше нейронные сети обучаются на генерируемом контенте, тем больше искаженной информации они производят. Проведя эксперимент, ученые были удивлены тем, как ИИ отошел от объективной реальности при обучении на машинных данных. Кроме того, нейросеть «забыла» большую часть контента из энциклопедий и других объективных источников информации.
По словам ученых, есть два метода предотвращения потенциального упадка ИИ. Первый включает в себя обучение нейронных сетей исключительно человеческому контенту и регулярное использование одного и того же объективного набора данных для предотвращения деградации. Второй метод предполагает периодическое использование проверенного набора данных и определение его приоритетности в качестве основного источника информации для ИИ по сравнению с другими источниками.
Несмотря на это, исследователи подчеркивают важность пристального наблюдения за достижениями в индустрии искусственного интеллекта и тщательного изучения возможных последствий его работы.
Нейронные сети обучаются на созданном человеком контенте, таком как книги, статьи и фотографии. Однако по мере того, как в Интернете генерируется больше информации, ИИ не может учиться на ней, а обработка такого контента приводит к деградации ИИ, по мнению группы независимых ученых из Великобритании и Канады.
🧠 Исследователи обнаружили, что чем больше нейронные сети обучаются на генерируемом контенте, тем больше искаженной информации они производят. Проведя эксперимент, ученые были удивлены тем, как ИИ отошел от объективной реальности при обучении на машинных данных. Кроме того, нейросеть «забыла» большую часть контента из энциклопедий и других объективных источников информации.
По словам ученых, есть два метода предотвращения потенциального упадка ИИ. Первый включает в себя обучение нейронных сетей исключительно человеческому контенту и регулярное использование одного и того же объективного набора данных для предотвращения деградации. Второй метод предполагает периодическое использование проверенного набора данных и определение его приоритетности в качестве основного источника информации для ИИ по сравнению с другими источниками.
Несмотря на это, исследователи подчеркивают важность пристального наблюдения за достижениями в индустрии искусственного интеллекта и тщательного изучения возможных последствий его работы.