
Нагоню для Вас немного жути 🤩 🤩 🤩
Вы уже должны были видеть, что бывшие разработчики OpenAI и Google DeepMind подписали публичное письмо о контроле ИИ и об их защите.
Не совсем понятно, действительно ли там их так притесняют, но помимо всего, Леопольд Ашенбреннер высказал еще свои предположения об угрозах развития. Сейчас расскажу о самых интересных:
- Прогноз создания AGI к 2027 году: Ашенбреннер считает, что общий искусственный интеллект, который по своим интеллектуальным способностям соответствует человеческому разуму, может быть создан уже к 2027 году.
- Потребляемая мощность: Ожидается, что к 2026 году ИИ будет потреблять 1 ГВт энергии, а к 2028 году — около 10 ГВт, что может стать сдерживающим фактором из-за нехватки свободных мощностей и долгосрочных контрактов на поставку энергии.
- Инвестиции в вычислительные мощности: Американские компании готовы вложить триллионы долларов в развитие вычислительных мощностей для создания AGI. К 2025–2026 годам ИИ может превзойти по интеллекту выпускников колледжей, а к концу десятилетия — любого человека.
- Гонка за ИИ между США и Китаем: Ашенбреннер предупреждает о возможной гонке в области ИИ между США и Китаем, которая может привести к полномасштабной войне. Он также упоминает проблему «стены данных», ограничивающую доступ к данным в интернете для обучения ИИ.
- Безопасность ИИ: Ведущие национальные лаборатории ИИ в США рассматривают безопасность как второстепенную задачу, фактически передавая ключевые секреты ИИ Китаю.
- Сверхинтеллект и его последствия: Сверхинтеллект, который на порядки умнее людей, может изменить баланс сил в международной политике и стать главным фактором в гонке вооружений. Ашенбреннер сравнивает риск создания AGI с созданием атомной и водородной бомб.
- Необходимость усиления мер безопасности: Ашенбреннер призывает к усилению мер безопасности в ИИ-лабораториях, строительству вычислительных кластеров в США и сотрудничеству с военными для предотвращения катастрофических последствий.
В общем все нереально страшно и скоро нас уничтожат. Что думаете об этом?
Вы уже должны были видеть, что бывшие разработчики OpenAI и Google DeepMind подписали публичное письмо о контроле ИИ и об их защите.
Не совсем понятно, действительно ли там их так притесняют, но помимо всего, Леопольд Ашенбреннер высказал еще свои предположения об угрозах развития. Сейчас расскажу о самых интересных:
- Прогноз создания AGI к 2027 году: Ашенбреннер считает, что общий искусственный интеллект, который по своим интеллектуальным способностям соответствует человеческому разуму, может быть создан уже к 2027 году.
- Потребляемая мощность: Ожидается, что к 2026 году ИИ будет потреблять 1 ГВт энергии, а к 2028 году — около 10 ГВт, что может стать сдерживающим фактором из-за нехватки свободных мощностей и долгосрочных контрактов на поставку энергии.
- Инвестиции в вычислительные мощности: Американские компании готовы вложить триллионы долларов в развитие вычислительных мощностей для создания AGI. К 2025–2026 годам ИИ может превзойти по интеллекту выпускников колледжей, а к концу десятилетия — любого человека.
- Гонка за ИИ между США и Китаем: Ашенбреннер предупреждает о возможной гонке в области ИИ между США и Китаем, которая может привести к полномасштабной войне. Он также упоминает проблему «стены данных», ограничивающую доступ к данным в интернете для обучения ИИ.
- Безопасность ИИ: Ведущие национальные лаборатории ИИ в США рассматривают безопасность как второстепенную задачу, фактически передавая ключевые секреты ИИ Китаю.
- Сверхинтеллект и его последствия: Сверхинтеллект, который на порядки умнее людей, может изменить баланс сил в международной политике и стать главным фактором в гонке вооружений. Ашенбреннер сравнивает риск создания AGI с созданием атомной и водородной бомб.
- Необходимость усиления мер безопасности: Ашенбреннер призывает к усилению мер безопасности в ИИ-лабораториях, строительству вычислительных кластеров в США и сотрудничеству с военными для предотвращения катастрофических последствий.
В общем все нереально страшно и скоро нас уничтожат. Что думаете об этом?