Игры с нейросетью и создание шуточных видео прочно вошли в нашу жизнь. Даже бывшая первая леди Кузбасса Анна Цивилева два года назад поздравляла мужа с Днем святого Валентина роликом, созданным искусственным интеллектом. На сгенерированном видео супруги якобы исполнили песню «Незаконченный роман». При этом дипфейки прошлого поколения, например, с использованием лиц знаменитых людей, которыми пользователи обменивались в праздники, были скорее смешны, чем реалистичны: неестественная мимика, дергающееся изображение. Сегодня возможно создать картинку, которую от реальности отличит только специалист. Новые технологии тут же взяли на вооружение злоумышленники всех мастей. Какую угрозу несут в себе дипфейки и как себя защитить — об этом корреспондент NGS42.RU Елена Гуськова поговорила с руководителем группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владиславом Тушкановым.
Здравствуйте, я ваша тетя!
По словам эксперта, в 2024 году в России новые технологии взяли на вооружение мошенники: старым избитым схемам добавили убедительности. Пользователи получают аудио и даже видео сообщения от друзей, коллег или родственников с просьбой о помощи. Знакомый голос усыпляет бдительность, и вот деньги отправляются в карман преступнику. Однако сделать качественный фейк дорого: согласно анализу рынка предложений в даркнете, стоимость создания одной минуты хорошей фальшивки составляет от 300 до 20 тысяч долларов. Поэтому разглядеть, что с изображением или звуком что-то не так, большинство жертв всё же может. Другое дело, что в стрессовой ситуации сложно мыслить трезво.
— Есть определенные признаки, которые позволяют заметить, что видео было создано с помощью дипфейк-технологии. Производство подразумевает, что мы должны взять уже существующее видео, дорезать овал лица и вложить лицо другого человека. При этом нужно сохранить изначальную мимику с помощью специальных нейросетевых технологий. Поэтому при резких движениях головы в сторону маска может пропадать, проступает изначальное лицо. Присмотритесь, может отличаться освещение, теплота и цветовая насыщенность на разных участках изображения. Свет может менять направление, — советует Тушканов.
В аудиоформатах следует обратить внимание на внезапные паузы, нехарактерные интонации собеседника и обороты речи. Также Тушканов пояснил, что важно не столько распознавание, сколько критическое мышление.
— Если мы говорим про сценарии, связанные с мошенничеством, то дипфейк это лишь один небольшой кирпичик в какой-то общей схеме. И при этом схема стандартная. Пользователя стараются убедить перевести деньги, криптовалюту, перейти по подозрительной ссылке, оставить личные данные, скачать программное обеспечение. Значимо соблюдать правила безопасности в интернете и цифровой гигиены, которые актуальны всегда, — говорит эксперт.
Как бы ни убедительно выглядело сообщение, не следует переходить ни по каким ссылкам и ни в коем случае не переводить средства. Свяжитесь с человеком другими способами и удостоверьтесь в личном общении, что это он.
Подмена реальности
Дипфейки могут использоваться в злонамеренных целях не только для вымогательства денег напрямую. Злоумышленники создают достаточно убедительные видео, чтобы сформировать у общественности нужное мнение или нагнать паники.
— Технологии дипфейков сильно влияют на то, как люди воспринимают информацию. Если раньше графические материалы, изображения и видео были относительно надежными свидетельствами того, что произошло, то теперь это перестало работать. Любое видео, любое изображение может быть сгенерировано. Помните, в прошлом году было страшное землетрясение в Турции? Недобросовестные люди генерировали фотографии этих событий для постов в соцсетях, где просили переводить криптовалюту для помощи пострадавшим. В последствии выяснилось, что это не настоящие фотографии, а деньги собирали мошенники, — рассказывает эксперт.
Тушканов также подчеркнул, что возможность ретушировать фотографии, делать монтаж была всегда, только сейчас процесс упростился. Важно проводить фактчекинг, сверять данные в нескольких независимых друг от друга источниках, попытаться найти автора фото и видео, реального человека. Когда имеешь дело с фальшивой информацией, невозможно проследить, откуда она взялась и кто первоисточник.
Если же говорить о техническом решении по распознаванию дипфейков, то такие попытки уже предпринимаются. Два месяца назад Минцифры объявило, что разрабатывает специализированную платформу, которая также с помощью искусственного интеллекта сможет проанализировать, является ли изображение подлинным. Однако и здесь есть подводные камни.
— Это похоже на игру в кошки-мышки. На дипфейках первого поколения люди не моргали. Когда это было замечено, люди, которые занимаются созданием технологий для генерации видео, это исправили. И каждая новая возможность распознавания дипфейка ведет к их эволюции. Сейчас детектировать изображение можно только с некоторой степенью точности, далеко не стопроцентной. Но такая платформа по крайней мере могла бы указывать на вероятность обмана. Это было бы полезным инструментом, но только в совокупности с проверкой информации в разных источниках и критическим мышлением, — отмечает Тушканов.
Неуловимые мстители
Дипфейки используют и в качестве инструментов порномести или репутационного оружия. От этого вида кибернасилия чаще страдают известные люди. Один из самых громких случаев сегодня — иск премьер-министра Италии Джорджи Мелони к двум мужчинам, которые создали и распространили интимное видео с участием политика. Решение по этому делу еще не принято. В России пока не было подобных громких историй, но это вопрос времени.
По мере упрощения механики работы с нейросетью такой рычаг влияния становится всё более доступным. И вот уже любой сталкер может решить отравить жизнь отвергнувшей его женщине, создав компромат своими руками. Также создание непристойных видео на руку и шантажистам.
— Эта проблема была с самого начала. Изначально слово Deepfake обозначало программный пакет, который в достаточно доступном виде давал возможность сгенерировать видео с заменой лиц. И он был размещен на одном из форумов, как раз для создания порнографических видео, в которых можно поменять лицо актрисы на то, которое пользователю хотелось видеть. Но, чем больше растет осведомленность о том, что не любому видео можно верить, тем меньший репутационный ущерб такая атака может нанести, — говорит Тушканов.
Заметаем следы
Для того чтобы изготовить дипфейк, необходимо множество фотографий человека, видео и образцы голоса (не краткие ответы да / нет, а развернутый спич, чтобы было с чего взять «пробы»). Чем больше на руках у автора данных, тем качественнее и правдоподобнее получится результат. Чтобы оставить злоумышленников с носом, обычному гражданину достаточно настроить приватность в соцсетях, публиковать в интернете минимум снимков и какой-либо информации о себе. В случае, когда речь идет о публичном человеке, риск стать жертвой дипфейка выше.
Между тем многие государства уже отреагировали на вызов времени и разработали соответствующие законодательства: Китай запрещает распространять дипфейки без указания на то, что контент был создан искусственно. Великобритания установила уголовную ответственность за распространение непристойного искусственно созданного видео. В Индии ответственность за обманный контент, порочащий репутацию, также внесен в уголовный кодекс.
В России для защиты может использоваться статья Гражданского кодекса о защите чести и достоинства, а также 242 статья Уголовного кодекса. За незаконное изготовление и оборот порнографических материалов, при этом неважно каким способом они были изготовлены (с помощью съемок или сгенерированы нейросетью), грозит до двух лет лишения свободы.