Наука Не верь глазам! Как преступники с помощью дипфейков залезают в ваш карман и как себя обезопасить

Не верь глазам! Как преступники с помощью дипфейков залезают в ваш карман и как себя обезопасить

Эксперт по технологиям машинного обучения рассказал, что это такое

Мошенники идут на разные уловки, чтобы выудить все деньги

Игры с нейросетью и создание шуточных видео прочно вошли в нашу жизнь. Даже бывшая первая леди Кузбасса Анна Цивилева два года назад поздравляла мужа с Днем святого Валентина роликом, созданным искусственным интеллектом. На сгенерированном видео супруги якобы исполнили песню «Незаконченный роман». При этом дипфейки прошлого поколения, например, с использованием лиц знаменитых людей, которыми пользователи обменивались в праздники, были скорее смешны, чем реалистичны: неестественная мимика, дергающееся изображение. Сегодня возможно создать картинку, которую от реальности отличит только специалист. Новые технологии тут же взяли на вооружение злоумышленники всех мастей. Какую угрозу несут в себе дипфейки и как себя защитить — об этом корреспондент NGS42.RU Елена Гуськова поговорила с руководителем группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владиславом Тушкановым.

Здравствуйте, я ваша тетя!

По словам эксперта, в 2024 году в России новые технологии взяли на вооружение мошенники: старым избитым схемам добавили убедительности. Пользователи получают аудио и даже видео сообщения от друзей, коллег или родственников с просьбой о помощи. Знакомый голос усыпляет бдительность, и вот деньги отправляются в карман преступнику. Однако сделать качественный фейк дорого: согласно анализу рынка предложений в даркнете, стоимость создания одной минуты хорошей фальшивки составляет от 300 до 20 тысяч долларов. Поэтому разглядеть, что с изображением или звуком что-то не так, большинство жертв всё же может. Другое дело, что в стрессовой ситуации сложно мыслить трезво.

— Есть определенные признаки, которые позволяют заметить, что видео было создано с помощью дипфейк-технологии. Производство подразумевает, что мы должны взять уже существующее видео, дорезать овал лица и вложить лицо другого человека. При этом нужно сохранить изначальную мимику с помощью специальных нейросетевых технологий. Поэтому при резких движениях головы в сторону маска может пропадать, проступает изначальное лицо. Присмотритесь, может отличаться освещение, теплота и цветовая насыщенность на разных участках изображения. Свет может менять направление, — советует Тушканов.

В аудиоформатах следует обратить внимание на внезапные паузы, нехарактерные интонации собеседника и обороты речи. Также Тушканов пояснил, что важно не столько распознавание, сколько критическое мышление.

— Если мы говорим про сценарии, связанные с мошенничеством, то дипфейк это лишь один небольшой кирпичик в какой-то общей схеме. И при этом схема стандартная. Пользователя стараются убедить перевести деньги, криптовалюту, перейти по подозрительной ссылке, оставить личные данные, скачать программное обеспечение. Значимо соблюдать правила безопасности в интернете и цифровой гигиены, которые актуальны всегда, — говорит эксперт.

Как бы ни убедительно выглядело сообщение, не следует переходить ни по каким ссылкам и ни в коем случае не переводить средства. Свяжитесь с человеком другими способами и удостоверьтесь в личном общении, что это он.

Графические материалы больше не являются надежными свидетельствами

Подмена реальности

Дипфейки могут использоваться в злонамеренных целях не только для вымогательства денег напрямую. Злоумышленники создают достаточно убедительные видео, чтобы сформировать у общественности нужное мнение или нагнать паники.

— Технологии дипфейков сильно влияют на то, как люди воспринимают информацию. Если раньше графические материалы, изображения и видео были относительно надежными свидетельствами того, что произошло, то теперь это перестало работать. Любое видео, любое изображение может быть сгенерировано. Помните, в прошлом году было страшное землетрясение в Турции? Недобросовестные люди генерировали фотографии этих событий для постов в соцсетях, где просили переводить криптовалюту для помощи пострадавшим. В последствии выяснилось, что это не настоящие фотографии, а деньги собирали мошенники, — рассказывает эксперт.

Тушканов также подчеркнул, что возможность ретушировать фотографии, делать монтаж была всегда, только сейчас процесс упростился. Важно проводить фактчекинг, сверять данные в нескольких независимых друг от друга источниках, попытаться найти автора фото и видео, реального человека. Когда имеешь дело с фальшивой информацией, невозможно проследить, откуда она взялась и кто первоисточник.

Если же говорить о техническом решении по распознаванию дипфейков, то такие попытки уже предпринимаются. Два месяца назад Минцифры объявило, что разрабатывает специализированную платформу, которая также с помощью искусственного интеллекта сможет проанализировать, является ли изображение подлинным. Однако и здесь есть подводные камни.

— Это похоже на игру в кошки-мышки. На дипфейках первого поколения люди не моргали. Когда это было замечено, люди, которые занимаются созданием технологий для генерации видео, это исправили. И каждая новая возможность распознавания дипфейка ведет к их эволюции. Сейчас детектировать изображение можно только с некоторой степенью точности, далеко не стопроцентной. Но такая платформа по крайней мере могла бы указывать на вероятность обмана. Это было бы полезным инструментом, но только в совокупности с проверкой информации в разных источниках и критическим мышлением, — отмечает Тушканов.

Борьба с дипфейками приводит к их эволюции

Неуловимые мстители

Дипфейки используют и в качестве инструментов порномести или репутационного оружия. От этого вида кибернасилия чаще страдают известные люди. Один из самых громких случаев сегодня — иск премьер-министра Италии Джорджи Мелони к двум мужчинам, которые создали и распространили интимное видео с участием политика. Решение по этому делу еще не принято. В России пока не было подобных громких историй, но это вопрос времени.

По мере упрощения механики работы с нейросетью такой рычаг влияния становится всё более доступным. И вот уже любой сталкер может решить отравить жизнь отвергнувшей его женщине, создав компромат своими руками. Также создание непристойных видео на руку и шантажистам.

— Эта проблема была с самого начала. Изначально слово Deepfake обозначало программный пакет, который в достаточно доступном виде давал возможность сгенерировать видео с заменой лиц. И он был размещен на одном из форумов, как раз для создания порнографических видео, в которых можно поменять лицо актрисы на то, которое пользователю хотелось видеть. Но, чем больше растет осведомленность о том, что не любому видео можно верить, тем меньший репутационный ущерб такая атака может нанести, — говорит Тушканов.

Заметаем следы

Для того чтобы изготовить дипфейк, необходимо множество фотографий человека, видео и образцы голоса (не краткие ответы да / нет, а развернутый спич, чтобы было с чего взять «пробы»). Чем больше на руках у автора данных, тем качественнее и правдоподобнее получится результат. Чтобы оставить злоумышленников с носом, обычному гражданину достаточно настроить приватность в соцсетях, публиковать в интернете минимум снимков и какой-либо информации о себе. В случае, когда речь идет о публичном человеке, риск стать жертвой дипфейка выше.

Между тем многие государства уже отреагировали на вызов времени и разработали соответствующие законодательства: Китай запрещает распространять дипфейки без указания на то, что контент был создан искусственно. Великобритания установила уголовную ответственность за распространение непристойного искусственно созданного видео. В Индии ответственность за обманный контент, порочащий репутацию, также внесен в уголовный кодекс.

В России для защиты может использоваться статья Гражданского кодекса о защите чести и достоинства, а также 242 статья Уголовного кодекса. За незаконное изготовление и оборот порнографических материалов, при этом неважно каким способом они были изготовлены (с помощью съемок или сгенерированы нейросетью), грозит до двух лет лишения свободы.

ПО ТЕМЕ
Лайк
LIKE0
Смех
HAPPY0
Удивление
SURPRISED0
Гнев
ANGRY0
Печаль
SAD0
Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter
Комментарии
0
Пока нет ни одного комментария.
Начните обсуждение первым!
ТОП 5
Мнение
«Волдыри были даже во рту»: журналистка рассказала, как ее дочь перенесла жуткий вирус Коксаки
Анонимное мнение
Мнение
«Думают, я пытаюсь самоутвердиться»: мама ученицы объяснила, зачем заваливает прокуратуру жалобами на школу
Анонимное мнение
Мнение
Туриста возмутили цены на отдых в Турции. Он поехал в «будущий Дубай» — и вот почему
Владимир Богоделов
Мнение
«Любителям „всё включено“ такой отдых не понравится»: почему отдых в Южной Корее лучше надоевшей Турции
Анонимное мнение
Мнение
«Супервкусная еда забирает энергию»: психолог рассказала, как кузбассовцам набраться сил за выходные
Анонимное мнение
Рекомендуем
Знакомства
Объявления