Мошенники использовали технологию deepfake, чтобы выдать себя за высокопоставленного сотрудника Binance во время онлайн-встреч с клиентами.
Binance претендует на звание крупнейшей в мире криптовалютной биржи по ежедневному объему торгов, что делает ее популярной целью для угроз.
Главный директор по коммуникациям (CCO) Патрик Хиллманн в своем блоге заявил, что он был шокирован "многоуровневыми протоколами безопасности", которые пришлось пройти новым сотрудникам во время введения в должность.
"Несмотря на то, что ранее я возглавлял одну из крупнейших в мире команд по кибербезопасности и руководил крупнейшими в истории утечками данных (US OPM, Ashley Madison и т.д.), я не был готов к натиску кибер-атак, фишинговых атак и мошенничества, которые регулярно нацелены на криптосообщество. Теперь я понимаю, почему Binance идет на такие меры", - объяснил он.
Однако преступники почти всегда найдут способ адаптироваться и обойти даже самую надежную систему". За последний месяц я получил несколько сообщений в Интернете с благодарностью за то, что я нашел время встретиться с проектными командами по поводу потенциальных возможностей для размещения их активов на Binance.com. Это было весьма странно, потому что я не имею никакого доступа к листингу на Binance и не встречался ни с кем из этих людей ранее".
Выяснилось, что мошенники выдавали себя за Хиллманна, используя технологию искусственного интеллекта, утверждает он.
"Оказалось, что опытная хакерская команда использовала предыдущие интервью в прессе и выступления по телевидению в течение определенного времени, чтобы создать "Дипфейк меня", - сказал он.
"Кроме заметного отсутствия 15 фунтов, которые я набрал во время COVID, эта deepfake модель была достаточно точной, чтобы одурачить нескольких представителей экспертной криптовалютной среды".
Эта афера, по-видимому, была одной из первых зарегистрированных попыток использования технологии deepfake для выдачи себя за человека с помощью видео. До сих пор большинство атак использовали аудио, чтобы обмануть своих жертв.
В начале этого года ФБР предупреждало о мошенниках, приглашавших участников корпоративного совещания к совместной работе в режиме онлайн. Когда они присоединялись, их встречало "замороженное" изображение их собеседника, сопровождаемое аудиозаписью deepfake, призывающей их перевести деньги на внешний банковский счет.
Какие ваши мысли на этот счёт?
Binance претендует на звание крупнейшей в мире криптовалютной биржи по ежедневному объему торгов, что делает ее популярной целью для угроз.
Главный директор по коммуникациям (CCO) Патрик Хиллманн в своем блоге заявил, что он был шокирован "многоуровневыми протоколами безопасности", которые пришлось пройти новым сотрудникам во время введения в должность.
"Несмотря на то, что ранее я возглавлял одну из крупнейших в мире команд по кибербезопасности и руководил крупнейшими в истории утечками данных (US OPM, Ashley Madison и т.д.), я не был готов к натиску кибер-атак, фишинговых атак и мошенничества, которые регулярно нацелены на криптосообщество. Теперь я понимаю, почему Binance идет на такие меры", - объяснил он.
Однако преступники почти всегда найдут способ адаптироваться и обойти даже самую надежную систему". За последний месяц я получил несколько сообщений в Интернете с благодарностью за то, что я нашел время встретиться с проектными командами по поводу потенциальных возможностей для размещения их активов на Binance.com. Это было весьма странно, потому что я не имею никакого доступа к листингу на Binance и не встречался ни с кем из этих людей ранее".
Выяснилось, что мошенники выдавали себя за Хиллманна, используя технологию искусственного интеллекта, утверждает он.
"Оказалось, что опытная хакерская команда использовала предыдущие интервью в прессе и выступления по телевидению в течение определенного времени, чтобы создать "Дипфейк меня", - сказал он.
"Кроме заметного отсутствия 15 фунтов, которые я набрал во время COVID, эта deepfake модель была достаточно точной, чтобы одурачить нескольких представителей экспертной криптовалютной среды".
Эта афера, по-видимому, была одной из первых зарегистрированных попыток использования технологии deepfake для выдачи себя за человека с помощью видео. До сих пор большинство атак использовали аудио, чтобы обмануть своих жертв.
В начале этого года ФБР предупреждало о мошенниках, приглашавших участников корпоративного совещания к совместной работе в режиме онлайн. Когда они присоединялись, их встречало "замороженное" изображение их собеседника, сопровождаемое аудиозаписью deepfake, призывающей их перевести деньги на внешний банковский счет.
Какие ваши мысли на этот счёт?