Новый инструмент хакера: можно ли с помощью ChatGPT создать вредоносное ПО?
В настоящее время вокруг ChatGPT возник вал новостей. Например, пишут, что исследователи сумели использовать его для написания вредоносного кода. При этом, разбирая исходный отчет, мы видим, что “самообучающиеся” чат-боты находятся в самом начале своего пути в роли создателей кода, в том числе и вирусов,, и нет никаких гарантий, что в обозримом будущем они будут эффективно генерироваться без значимого участия человека.
Так может ли ChatGPT представлять угрозу и породить вирусы нового поколения? Возможно, но пока этого не произошло.
Новые технологии всегда привлекали интерес – особенно те из них, которые способны подменять собой человеческое сознание. ChatGPT, ставший знаменитый чат-бот от OpenAI – одна из таких технологий. Он уверенно прошел тест Тьюринга, и теперь используется для множества задач. Точнее, его пытаются использовать. Вот только … так ли он хорош во всем?
Например, пишут, что исследователи сумели использовать его для написания вредоносного кода. При этом, разбирая исходный отчет, мы видим, что “самообучающиеся” чат-боты находятся в самом начале своего пути в роли создателей кода, в том числе и вирусов,, и нет никаких гарантий, что в обозримом будущем они будут эффективно генерироваться без значимого участия человека.
Но самое интересное – в другом. Большая часть времени у создателей “вируса” ушла не на собственно процесс его создания или обучения бота – а на то, чтобы заставить этого самого бота обойти изначально заложенные в нем ограничения на создание “нелегального” контента. В конце концов, им это удалось, и сам этот факт уже можно считать важным результатом … только к применению ChatGPT для целей создания вредоносных программ он имеет очень опосредованное отношение.
В итоге, ChatGPT действительно может позволить “оптимизировать” работу хакера, или помочь начинающему злоумышленнику без серьезных навыков программирования начать что-то генерировать(пользуясь случаем, напоминаем о ст. 272 УК РФ). Он действительно может помочь создать код вредоносного ПО – правда есть большие сомнения, будет ли он так же эффективен как код, написанный профессионалами. А главное – отдельные участки кода все еще достаточно сложно заменить, и именно они могут привлечь внимание вирусных аналитиков.
И вот в этом – главный вопрос, касающийся “полиморфного” вируса, созданного в рамках ChatGPT. Судя по всему, никто из исследователей не проверял его на реальном антивирусном ПО, а оценивал именно теоретическую возможность создания такого рода программ. И да, такая возможность есть, только практической пользы от нее пока-что нет. Полиморфные вирусы существуют уже множество лет, их особенности известны, и способы защиты от них известны: если базы сигнатур и не работают, то есть HIPS, и эвристический анализ. А главное – полиморфный вирус в любом случае не обладает, например, ультимативностью уязвимостей 0-го дня, бороться с которыми зачастую невозможно.
Возможно, известные базы сигнатур ему удастся обойти. Но современное антивирусное ПО работает немного иначе, а подменить цели работы вредоносной программы никакой полиморфизм не позволяет.
Так что пока мы видим отличный инструмент – для прототипирования, для оптимизации привычных и тривиальных операций. В случае с IT-индустрией он наверняка станет отличным инструментом для помощи разработчику. А вот что касается ИБ – вопрос гораздо сложнее. В кибербезопасности многое зависит от умения видеть более сложные взаимосвязи и быть достаточно изобретательным – а “роботы” этому пока не научились.
Резюмируя: большинство уже имеющихся исследований ChatGPT посвящены в первую очередь оценке возможности создания с его помощью вирусов и различным механизмам “обхода” внутренних ограничений бота.Мы сомневаемся, что ChatGPT возможно будет эффективно использовать в ИБ-индустрии. Будем следить за развитием событий.
В настоящее время вокруг ChatGPT возник вал новостей. Например, пишут, что исследователи сумели использовать его для написания вредоносного кода. При этом, разбирая исходный отчет, мы видим, что “самообучающиеся” чат-боты находятся в самом начале своего пути в роли создателей кода, в том числе и вирусов,, и нет никаких гарантий, что в обозримом будущем они будут эффективно генерироваться без значимого участия человека.
Так может ли ChatGPT представлять угрозу и породить вирусы нового поколения? Возможно, но пока этого не произошло.
Новые технологии всегда привлекали интерес – особенно те из них, которые способны подменять собой человеческое сознание. ChatGPT, ставший знаменитый чат-бот от OpenAI – одна из таких технологий. Он уверенно прошел тест Тьюринга, и теперь используется для множества задач. Точнее, его пытаются использовать. Вот только … так ли он хорош во всем?
Например, пишут, что исследователи сумели использовать его для написания вредоносного кода. При этом, разбирая исходный отчет, мы видим, что “самообучающиеся” чат-боты находятся в самом начале своего пути в роли создателей кода, в том числе и вирусов,, и нет никаких гарантий, что в обозримом будущем они будут эффективно генерироваться без значимого участия человека.
Но самое интересное – в другом. Большая часть времени у создателей “вируса” ушла не на собственно процесс его создания или обучения бота – а на то, чтобы заставить этого самого бота обойти изначально заложенные в нем ограничения на создание “нелегального” контента. В конце концов, им это удалось, и сам этот факт уже можно считать важным результатом … только к применению ChatGPT для целей создания вредоносных программ он имеет очень опосредованное отношение.
В итоге, ChatGPT действительно может позволить “оптимизировать” работу хакера, или помочь начинающему злоумышленнику без серьезных навыков программирования начать что-то генерировать(пользуясь случаем, напоминаем о ст. 272 УК РФ). Он действительно может помочь создать код вредоносного ПО – правда есть большие сомнения, будет ли он так же эффективен как код, написанный профессионалами. А главное – отдельные участки кода все еще достаточно сложно заменить, и именно они могут привлечь внимание вирусных аналитиков.
И вот в этом – главный вопрос, касающийся “полиморфного” вируса, созданного в рамках ChatGPT. Судя по всему, никто из исследователей не проверял его на реальном антивирусном ПО, а оценивал именно теоретическую возможность создания такого рода программ. И да, такая возможность есть, только практической пользы от нее пока-что нет. Полиморфные вирусы существуют уже множество лет, их особенности известны, и способы защиты от них известны: если базы сигнатур и не работают, то есть HIPS, и эвристический анализ. А главное – полиморфный вирус в любом случае не обладает, например, ультимативностью уязвимостей 0-го дня, бороться с которыми зачастую невозможно.
Возможно, известные базы сигнатур ему удастся обойти. Но современное антивирусное ПО работает немного иначе, а подменить цели работы вредоносной программы никакой полиморфизм не позволяет.
Так что пока мы видим отличный инструмент – для прототипирования, для оптимизации привычных и тривиальных операций. В случае с IT-индустрией он наверняка станет отличным инструментом для помощи разработчику. А вот что касается ИБ – вопрос гораздо сложнее. В кибербезопасности многое зависит от умения видеть более сложные взаимосвязи и быть достаточно изобретательным – а “роботы” этому пока не научились.
Резюмируя: большинство уже имеющихся исследований ChatGPT посвящены в первую очередь оценке возможности создания с его помощью вирусов и различным механизмам “обхода” внутренних ограничений бота.Мы сомневаемся, что ChatGPT возможно будет эффективно использовать в ИБ-индустрии. Будем следить за развитием событий.