Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:
1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.
2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.
3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.
4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.
5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.
6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.
7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.
8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.
9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.
Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.
В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.
@aihappens
1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.
2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.
3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.
4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.
5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.
6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.
7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.
8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.
9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.
Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.
В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.
@aihappens