​​GPT-4 взламывает системы: единственная ИИ-модель с навыками хакера



Исследователи из Университета Иллинойса в Урбана-Шампейн (США) провели эксперимент, чтобы выяснить, насколько хорошо большие языковые модели (LLM) умеют взламывать системы.



Оказалось, что только GPT-4 способна не только использовать известные уязвимости (CVE), но и самостоятельно писать код для новых эксплойтов. Это открытие поднимает важные вопросы о безопасности и этичности использования таких мощных ИИ-моделей.



 HT | ChatGPT-4 Bot