Осторожно, дипфейк: как злоумышленники наживаются на россиянах с помощью ИИ
Одним из самых технологичных методов обмана сегодня стал дипфейк. Слово «DeepFake» происходит от соединения двух английских слов: deep learning — «глубинное обучение», и fake — «подделка». Суть технологии заключается в том, что нейросеть накладывает фрагменты контента на исходное изображение. Таким образом подменяется лицо, мимика, жесты и голос в видео или звуковой дорожке.
Технология создания дипфейков не нова. Раньше ей владели исключительно эксперты по искусственному интеллекту и спецэффектам, применяли в фильмах или рекламных роликах. Теперь, благодаря специальным программам и распространению машинного обучения, процесс упростился и стал доступен широкому кругу пользователей.
Комментарий директора Координационного центра доменов .RU/.РФ Андрея Воробьева:
«Распространение deepfake сегодня активно обсуждается, потому что не менее активно входит в нашу жизнь. Мощности нейросетей растут, их возможности развиваются, а доступ к ним дешевеет. Мошенники же, которые всегда были на острие прогресса, все чаще используют новую возможность. Практически ежедневно мы узнаем о новых способах мошенничества или пострадавших от аудио- или видеодипфейков. И очень скоро доверять телефонным или видеозвонкам от знакомых можно будет не больше, чем письмам или сообщениям в мессенджерах. Такова, к сожалению, цена прогресса».
Какие схемы с дипфейками реализуют злоумышленники?
- Сообщение в мессенджере от знакомого с просьбой занять определенную сумму.
Аферисты получают доступ к аккаунту человека в мессенджере или соцсетях и пишут его списку контактов с просьбой перевести деньги под разными предлогами. Для большей убедительности дополняют текст аудио или видеосообщением с голосом или изображением владельца профиля. Файл генерируют с помощью искусственного интеллекта на основе старых реальных звуковых и видеосообщений.
- «Липовый босс»
Благодаря дипфейкам, злоумышленники выдают себя за руководителей компаний и пишут работникам, требуя связаться якобы с сотрудником службы безопасности или правоохранительных органов. Второй участник «спектакля» затем убеждает жертву перевести деньги на «безопасный счет».
- «Вам звонит Сергей Собянин»
Ради обмана россиян аферисты притворяются не только руководителями компаний, но и чиновниками. Например, мэром Москвы. Так, накануне в СМИ появилась информация, что преподавательница столичного вуза передала мошенникам более 2 млн рублей после разговора по видео с «градоначальником» и «заместителем министра внутренних дел России». Женщине сообщили, что через ее счета якобы выводят деньги на Украину. Чтобы остановить преступников, нужно сотрудничать. Еще одной жертвой мошенников стал экс-глава «Российской детской клинической больницы» и заслуженный врач РФ. Он отдал злоумышленникам 4 млн рублей.
- Фейковые свидания
Мошенники используют аудиосообщения со сгенерированным женским голосом и привлекательной аватаркой, чтобы повысить свои шансы на успех при онлайн-знакомствах. Под видом красивой девушки они предлагают ухажеру организовать «интересное свидание», например, поход в театр, на концерт и тому подобное. Для покупки билетов жертву заманивают на фишинговый сайт и крадут деньги.
- Шантаж.
Злоумышленники создают фото и видеодипфейки откровенного содержания и затем пишут в мессенджерах и социальных сетях россиянкам с требованием перевести деньги, чтобы этот контент не был разослан всем знакомым жертвы.
Важно: не вступайте в диалог с шантажистом и не соглашайтесь на его условия, иначе аппетиты преступника будут только расти. Соберите доказательства (скриншоты переписок, запись экрана, ссылки, медиафайлы) и обратитесь в полицию с заявлением. Если вам меньше 18 лет, обязательно сообщите родителям.
В адрес главы Лиги безопасного Интернета неоднократно поступали жалобы от пользователей на телеграм-боты, которые раздевают девушек с помощью ИИ по фото.
«Многие пишут по поводу ботов, которые раздевают людей. После ваших писем на один из них наши волонтеры уже накидали жалоб, и он был заблокирован в Telegram. Но они множатся со страшной силой. Действительно, тут есть риски. Основной – эти боты могут использоваться для травли, шантажа, вымогательства денег. Причем, для полиции в данном случае будет загвоздка: ведь шантажируют распространением не настоящих фотографий, а образов, сделанных с помощью искусственного интеллекта. Травли и так много, а таким образом ее количество может возрасти, эти боты продвигают в основном среди подростков и молодежи. Еще одна проблема — таким образом увеличивается распространение порнографии, причем среди совсем маленьких детей», – написала Екатерина Мизулина в своем телеграм-канале.
Директор Лиги также отметила, что нужно думать над решением, так как уже очевидно, что процесс развития таких технологий сложно контролировать.
Защищает ли нас закон?
Комментарий эксперта Лиги безопасного Интернета Станислава Алексеева:
«С появлением дипфейков возник общедоступный и в то же время мощный механизм влияния на общественное мнение. Если раньше создание профессионального фальшивого видео было уделом немногих, то теперь произвести фейковое, но вполне убедительное в глазах обычного человека видео, может почти любой обычный пользователь компьютера. С учетом перспектив возможного использования подобного контента необходимы безотлагательные меры законодательного закрепления понятия «дипфейк», а также определение четких сфер его применения».
В Государственной Думе России уже работают над законопроектом об уголовной ответственности за использование искусственного интеллекта в преступных целях. Авторы инициативы предложили поправки в статьи о клевете, краже, мошенничестве и вымогательстве Уголовного кодекса РФ.
Как же распознать дипфейк?
- Обратите внимание на глаза. Бликов в них или нет, или они тусклые. Цвет правого и левого глаза может не совпадать.
- На сгенерированном видео человек моргает странно или не моргает вообще.
- Дипфейк могут выдать зубы. Они или плохо прорисованы, или выглядят как белая пустота.
- О том, что перед вами дипфейк, могут говорить наличие мест склейки фрагментов, разница в качестве, присутствие размытия, разное освещение в соседних кадрах и различия в оттенках кожи.
- Видеодипфейк может выдать и плохая синхронизация между речью и движением губ.
- Обращайте внимание на качество звучания, неестественную монотонность голоса, неразборчивость речи, шумы.
- Если разговор происходит в реальном времени по видеосвязи, чтобы распознать дипфейк, нужно попросить собеседника покрутить головой, поднести руки к лицу.
Как себя обезопасить:
- Всегда сохраняйте критическое мышление. Помните, что злоумышленники могут притворяться кем угодно.
- Если вы получили сообщения от «начальника» или «друга», в которых вас просят занять денег, выполнить срочно какие-то действия, сообщают о проблемах или ваших «преступлениях», возьмите паузу. Не принимайте поспешных решений. Обязательно перезвоните отправителю сами и уточните достоверность информации. Задайте вопрос, ответ на который знает только ваш реальный знакомый.
- Установите настройки конфиденциальности в аккаунтах в соцсетях и мессенджерах. Ограничьте круг пользователей, которые могут видеть вашу информацию или связываться с вами.
- Подключите двухфакторную аутентификацию и не авторизуйтесь на незнакомых сайтах через соцсети и мессенджеры, не переходите по сомнительным ссылкам.
- Не рассказывайте много о себе в Интернете. Не публикуйте в социальных сетях слишком много личных фотографий и видео и не отправляйте их в личных сообщениях без необходимости. Чем меньше контента вы публикуете, тем сложнее будет создать дипфейк с вашим участием.
- Будьте осторожны при звонках с незнакомых номеров. Если есть возможность, лучше совсем на них не отвечать.
Предупредите близких, особенно старшего возраста, о существовании такой технологии и о том, как она может использоваться злоумышленниками!