
🤖Это связано с тем, что он способен мобилизовать множество ресурсов для достижения целей, которые могут быть недоступны людям, и потенциально невозможным для контроля. Как было доказано с помощью Тьюринга, мы можем знать это для конкретных программ, но логически невозможно знать все возможные программы, которые могут быть написаны.
🧠Таким образом, любая программа, написанная для того, чтобы остановить ИИ, причиняющий вред людям и разрушающий мир, может прийти к выводу (и остановиться) или нет – математически мы не можем быть абсолютно уверены. В любом случае это означает, что ИИ невозможно сдержать.
👨🏻🔬«По сути, это делает алгоритм сдерживания непригодным для использования, — говорит ученый-компьютерщик Ияд Рахван из Института человеческого развития им. Макса Планка в Германии».
Изучить статью вы можете тут.
КиберХаб | БотGPT | Чат