18+
  • Город
  • Общество
Общество

Поделиться:

Как искусственный интеллект вывел телефонных мошенников на новый уровень. И что сделать, чтобы самому не стать их жертвой?

В 2023 году количество преступлений с использованием технологии дипфейк участилось на 3000% — такую статистику опубликовала в своем докладе высокотехнологичная компания Onfido. По прогнозам авторов текста 2024-й станет «годом дипфейков». Предупреждают об опасности новых технологичных видов мошенничества и в российском Центробанке. Как злоумышленники используют нейросети, чтобы обмануть даже очень осторожных людей? И каким правилам следовать, чтобы минимизировать свои риски? 

В начале февраля 2024 года по мировым СМИ разлетелась новость — мошенники смогли украсть более 25 млн долларов, обманув сотрудника гонконгского офиса одной из транснациональных корпораций. Событием планетарного масштаба эта афера стала даже не из-за размера похищенной суммы, а благодаря использованию высоких технологий, которые смогли ввести в заблуждение профессионала в сфере финансов.

Как пишет CNN со ссылкой на гонконгскую полицию, сотрудник финансового отдела одной из крупных компаний получил на электронную почту письмо от финансового директора лондонского офиса корпорации. Однако реагировать на сообщение он не стал, сочтя его подозрительно похожим на фишинговую рассылку. Тогда его пригласили на рабочий созвон, на котором присутствовали сам финансовый директор и ряд других работников компании. Только после этого созвона работник из Гонконга согласился перевести деньги на указанные коллегами счета. Проблема в том, что высокопоставленный сотрудник из Лондона и другие участники созвона были фальшивками — образами, сгенерированными компьютером по технологии дипфейк. 

Сложность, продуманность и пугающая эффективность аферы, которая сработала, даже несмотря на то что жертва вела себя осторожно, привели к тому, что преступление стало сенсацией. Однако это далеко не первое мошенничество, провернутое с помощью технологии дипфейк. Более того, мошенничество с использованием возможностей нейросетей приходит и в Россию.  Так, в начале 2024 года стало известно, что злоумышленники звонили жителям и сотрудникам администрации уральского города Березовский. В трубке люди слышали голос мэра Березовского Евгения Писцова.

«Это сейчас популярные тренды — звонки в мессенджере, создание легенды, — приводит издание Е1.ru слова сотрудника «Лаборатории Касперского». — Даже у нас в компании время от времени ложный Евгений Касперский пишет сотрудникам, что сейчас им поступит звонок. Полностью схема выглядит так: сначала звонит известный номер и сбрасывает. Пишет, что связь плохая и, мол, сейчас запишу голосовое. Приходит аудиосообщение с очень похожим голосом. Единственное — у него интонация роботизирована».

Александра Мурзина

Руководитель отдела перспективных технологий Positive Technologies:

В 2022 году дипфейки, например, затронули Binance. Злоумышленники на основе записей Патрика Хиллмана, директора по коммуникациям Binance, сделали видео, где общались от его лица с различными проектами. Патрик начал получать благодарности за встречи, на которых не был и, собственно, начал разбираться в ситуации.

Таким образом, бурное развитие искусственного интеллекта создало мир, в котором мошенники спокойно могут не только представляться сотрудниками безопасности банка или менеджерами мобильного оператора, но в буквальном смысле использовать лицо и голос родственника жертвы, его начальника, школьной любви или старого приятеля. 

Впрочем на этом новые инструменты в аресенале мошенников не заканчиваются. Еще одно применение нейросетей — прокачка традиционных методов мошенничества вроде звонков от «сотрудников банка», предупреждает в беседе с «Собака.ru» Анатолий Сазонов, руководитель направления безопасности промышленных предприятий, Infosecurity a Softline Company. «ИИ может использоваться, чтобы точнее имитировать тональность и стиль речи сотрудников полиции, СК, банков, — поясняет он. — Если раньше ты часто мог понять, что на самом деле с тобой говорит человек явно не из банка, то технологии позволяют сделать такие звонки много правдоподобнее».

Также к мошенническим схемам все чаще привлекают чат-ботов на основе искусственного интеллекта. Хотя переписка всегда выглядит менее убедительно, чем разговор и уж тем более видеозвонок, такой вид мошенничества таит в себе особое коварство. Если хакерам удалось взломать страницу жертвы в соцсетях, то они могут выкачать оттуда массу очень личной информации за все годы присутствия в сети. «Во время разговора в реальном времени, если живой собеседник закрыт дипфейком вашего знакомого, это ему не особо поможет, он не сможет достаточно быстро ответить на неожиданный вопрос, а вот чат-боту, скорее, это удастся», — констатирует в беседе с «Собака.ru» Виталий Роговой, инженер факультета безопасности информационных технологий ИТМО.

Lightspring / Shutterstock

Вечное противостояние меча и щита 

Как поясняет «Собака.ru» Александра Мурзина, на самом деле мошенничеству с использованием дипфейков, генерации человеческой речи и других возможностей ИИ уже несколько лет. Первый на ее памяти подобный эпизод произошел в 2019 году, когда злоумышленники применили изменение голоса, чтобы выманить деньги. Однако сейчас технологии становятся все более доступны. 

«Подготовка материалов для атаки — создание качественного дипфейк-видео и голосового дипфейка — раньше были довольно трудоемким процессом. Сегодня технологии значительно продвинулись, но для хорошего качество все еще требуются большие вычислительные ресурсы, хотя получать реалистичный дипфейк уже возможно, но все еще дорого», — говорит она, отмечая также, что пока количество дипфейк-мошенничеств сравнительно невелико. Однако она признает, что механизмы защиты от таких угроз еще не выработаны до конца.   

Анатолий Сазонов из Infosecurity a Softline Company добавляет, что уже в ближайшие годы, а то и месяцы технологии еще существенно продвинутся вперед. Вероятно, в ближайшее время сгенерированные голоса избавятся от неестественной интонации, а дипфейки от так называемых «артефактов», когда сгенерированное изображение при движении начинает по краям идти пикселями или «отклеиваться» от человека, которого оно закрывает на видео. Тогда распознать мошенников станет еще сложнее. 

Впрочем, Виталий Роговой из университета ИТМО напоминает, что развиваются технологии не только мошенников, но и тех, кто с ними борется. «Это бесконечная битва меча и щита, специалисты по информационной безопасности не в первый раз сталкиваются с новыми технологиями», — объясняет он. Так, по его словам, сейчас в рамках гранта учеными ИТМО разрабатывается система распознавания дипфеков на видео, аудио и изображениях. 

Что делать?

Однако пока инициатива все же на стороне злоумышленников, поэтому специалисты рекомендуют быть максимально внимательными, а также соблюдать правила «цифровой гигиены».  

Во-первых, собеседники редакции советуют минимизировать свой «цифровой след»: закрыть аккаунты в социальных сетях, меньше выкладывать там личной и чувствительной информации. «Если ты, к примеру, записал голосовое, то после того, как собеседник его послушал, удали, — говорит Анатолий Сазонов из Infosecurity a Softline Company. — Чтобы в истории переписки не осталось образца твоего голоса. В противном случае если тебя или твоего собеседника взломают, то у мошенников окажется образец твоего голоса».

По этой же причине, добавляет Виталий Роговой из университета ИТМО, не стоит отвечать на звонки с незнакомых номеров. «В целом сейчас есть технологии, которым достаточно трех секунд записи речи, чтобы скопировать ваш голос», — говорит он. 

Если же с вами общается друг, родственник или знакомый и в беседе речь заходит о деньгах, то всегда следует проверять, правда ли вы общаетесь с тем, кого видите или слышите. Хотя у обычного человека пока вероятность столкнуться с продуманным и технически сложным мошенничеством сравнительно меньше, чем у сотрудника гонконгского офиса транснациональной корпорации. «Важно понимать, что такие инциденты возможны», — говорит Александра Мурзина из Positive Technologies.

Поэтому следует всегда задействовать альтернативный метод связи — к примеру, если разговор шел в Telegram, можно позвонить на мобильный номер, написать на электронную почту или созвониться в Skype и так далее. Также можно спросить у собеседника какую-то информацию, которую знаете только вы двое. При этом важно помнить, что даже это не является стопроцентной гарантией — важно спрашивать не просто об общих воспоминаниях, а о том, что ни вы, ни ваш собеседник никогда не рассказывали в соцсетях и личной переписке. 

«Еще один метод, — добавляет Анатолий Сазонов из Infosecurity a Softline Company, — я, к примеру, договорился со своей мамой о пароле, который нигде не должен светиться. О нем знаем только мы, он нигде не записан, его никто больше не знает. И если у нас возникают сомнения в том, что мы говорим друг с другом, то мы его говорим». 

Следите за нашими новостями в Telegram

Комментарии (0)