GPT-4 взламывает системы: единственная ИИ-модель с навыками хакера
Исследователи из Университета Иллинойса в Урбана-Шампейн (США) провели эксперимент, чтобы выяснить, насколько хорошо большие языковые модели (LLM) умеют взламывать системы.
Оказалось, что только GPT-4 способна не только использовать известные уязвимости (CVE), но и самостоятельно писать код для новых эксплойтов. Это открытие поднимает важные вопросы о безопасности и этичности использования таких мощных ИИ-моделей.
HT | ChatGPT-4 Bot
Исследователи из Университета Иллинойса в Урбана-Шампейн (США) провели эксперимент, чтобы выяснить, насколько хорошо большие языковые модели (LLM) умеют взламывать системы.
Оказалось, что только GPT-4 способна не только использовать известные уязвимости (CVE), но и самостоятельно писать код для новых эксплойтов. Это открытие поднимает важные вопросы о безопасности и этичности использования таких мощных ИИ-моделей.
HT | ChatGPT-4 Bot