Айтишкин труд: мошенники используют дипфейки для устройства на работу
Многие люди обеспокоены перспективой конкуренции с искусственным интеллектом за рабочие места, но вряд ли они могли представить такой сценарий: ФБР предупредило о ряде случаев, когда дипфейки использовались для прохождения видеособеседования при устройстве на работу. Подделки оказалось нетрудно распознать, но инцидент вновь разжег дискуссию об опасности фейк-контента. Ранее Европол выразил опасение, что дипфейки могут стать «основным инструментом организованной преступности». Успокаивает лишь то, что вместе с развитием дипфейков совершенствуются и механизмы их обнаружения. На что смотреть, чтобы распознать подделку, и есть ли место дипфейк-мошенничеству в России — разбирались «Известия».
Маска соискателя
Злоумышленники стали использовать дипфейки на онлайн-собеседованиях при устройстве на удаленную работу. О волне таких случаев предупредил Центр жалоб на интернет-преступления ФБР. Согласно отчету, в ход идут не только голосовые, но и видеоподделки, представляющие некоего человека в ложном свете. Кроме того, злоумышленники используют чужие имена, адреса и другую личную информацию, которую удалось получить в результате взлома или утечек данных.
Между тем созданные дипфейки оказались несовершенны. ФБР отмечает, что движения губ «соискателя» не совпадали с произносимой им речью. Кроме того, некоторые звуки, такие как кашель и чихание, также не соответствовали действиям «кандидата».
Прикрываясь дипфейками, мошенники выбирали должности, связанные с информационными технологиями и программным обеспечением. Примечательно, что некоторые посты включают доступ к персональным данным клиентов и корпоративным ИТ-базам.
В целом описанный метод может быть эффективен в силу своей новизны, полагает начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд.
— Люди привыкли верить тому, что они видят своими глазами. Но нужно понимать, что есть ограничения, касающиеся «естественности». Можно вспомнить те же «роботизированные» звонки: сперва люди буквально с первых секунд отличали «робота» от человека. Однако сегодня некоторые уже начинают путаться и вступают в диалог с машиной, будучи уверенными, что разговаривают с оператором, — говорит эксперт.
Из-за существующих недочетов дипфейк-технология пока не позволяет эффективно вести онлайн-встречи на протяжении длительного времени, отмечает руководитель центра экспертизы компании R-Vision Григорий Ревенко. По его словам, часть искажений злоумышленник может нивелировать «плохим» качеством картинки, но неестественность эмоций такое изображение уже скрыть не сможет.
Схожая ситуация с аудиодипфейками — голосовыми имитациями и подделками. По словам Алексея Дрозда, пока нет инструментов, которые в режиме реального времени позволили бы злоумышленнику свободно говорить клонированным голосом конкретного человека — люди используют паузы во время разговора, слова-паразиты, у некоторых есть специфические речевые дефекты и т. д. Однако отдельные инциденты всё же встречаются.
— Пожалуй, наиболее яркая история произошла пару лет назад, когда дипфейк-мошенники выманили у гендиректора британской энергетической компании $243 тыс., подделав голос и акцент руководителя немецкого офиса, — привел пример Григорий Ревенко.
Масштаб обмана
Дипфейки и прежде использовались в злонамеренных целях. Изначально технология применялась для создания порнографии. Осенью 2017 года на Reddit появились ролики, в которых лица порноактрис были изменены на лица известных женщин. Анонимный пользователь с ником deepfake вывел новую технологию в мейнстрим. Спустя пару лет порнодипфейки составили 96% от всех поддельных видео в интернете, следует из отчета за 2019 год под названием «Состояние дипфейков».
В дальнейшем пользователи могли наблюдать манипуляции на другие темы — «зеленый» политик Константин фон Нотц считает «климатическую истерию» преувеличением, а спикер конгресса США Нэнси Пелоси едва справляется с выговариванием слов.
Кроме смуты и неразберихи в обществе, поддельные ролики способны нанести вред целым корпорациям. Исследователи обнаружили, что биометрические тесты, используемые банками и криптобиржами для проверки пользователей, можно обмануть при помощи дипфейков. 9 из 10 ведущих поставщиков KYC (сервисов идентификации клиентов) оказались уязвимы для таких атак. Более того, Европол выразил опасение, что дипфейки могут стать «основным инструментом организованной преступности».
В Китае видеоподделки оказались также востребованы: злоумышленники обманули госсистему на $76 млн. Они создавали от лица ненастоящих людей компании-пустышки и выдавали поддельные налоговые накладные.
— В России пока нет таких технологий, которые позволяли бы что-то оформить дистанционно, моргнув в камеру. А раз нет вариантов для монетизации, то и незачем ставить схему на коммерческие рельсы, — отметил Алексей Дрозд из «СерчИнформ».
По статистике, наибольшее количество дипфейков приходится на регионы, где имеется переизбыток свободных вычислительных мощностей, говорит директор по развитию направления «Киберграмотность населения» компании «РТК-Солар» Олег Седов.
— До последнего времени в этом плане лидировала Юго-Восточная Азия, но я думаю, что в ближайшее время можно ожидать всплеска дипфейков в Африканском регионе, — прогнозирует он. — У дипфейк-технологий есть большой «потенциал». Вспомните, как часто мы слышим об утечках информации, взломах аккаунтов в социальных сетях. Цифровые копии смогут подтвердить свою личность украденными профилями, а скомпрометирован будет человек по эту сторону экрана.
Мошенники действительно применяют дипфейки, но сегодня это не массовая история, считает ведущий исследователь данных «Лаборатории Касперского» Владислав Тушканов. По его словам, известны отдельные случаи, когда аферисты заимствовали образы популярных предпринимателей с целью выманить деньги пользователей. Например, героем дипфейка, завлекающего на мошеннический сайт, недавно стал Илон Маск — миллиардер сам обратил на это внимание.
Беда в том, что не каждая манипуляция различима на глаз. Более того, люди склонны доверять фейковым лицам больше, чем реальным. Недавний эксперимент, проводимый исследователями из Великобритании и США, поставил для участников следующие условие: 223 человека должны были оценить фотографии разных людей по «шкале надежности» — кому они доверяют больше, а кому меньше. В подборку входили как реальные портреты, так и искусственные, сгенерированные ИИ, о чем испытуемым не сообщалось. В итоге люди оценивали фальшивые лица как чуть более заслуживающие доверия, чем настоящие. По мнению исследователей, это происходит потому, что сгенерированные портреты представляют собой комбинацию «обычного лица». К слову, в другой части эксперимента новым участникам предстояло отличить реальное лицо от поддельного — точность составила 48,2%.
КАРТИНКА 1
Как распознать дипфейк
Несмотря на внешнюю убедительность, дипфейки довольно легко отличить от реальных видео, если знать, на что обращать внимание. Массачусетский технологический институт запустил проект под названием Detect Fakes, который позволяет людям тренироваться в обнаружении дипфейков. Пользователям предлагается задать восемь вопросов, которые помогут определить, является ли видео дипфейком. Процесс отдаленно напоминает вымышленный тест Войта-Кампфа из фильма «Бегущий по лезвию».
Присмотритесь к лицу, не трансформируется ли оно при движении?
Обратите внимание на щеки и лоб. Кожа не кажется слишком гладкой или слишком морщинистой? Схоже ли старение кожи со старением волос и глаз?
Глаза и брови. Появляются ли тени в ожидаемых местах? Дипфейк часто не может полностью передать естественную физику освещения.
Есть ли блики на очках? Не слишком ли их много? Изменяется ли угол бликов при движении человека?
Натурально ли выглядит растительность на лице? Искусственный интеллект может добавлять и удалять усы, бороду и бакенбарды, но зачастую не может передать волосы предельно естественно.
Обратите внимание на родинки на лице — они выглядит настоящими?
Достаточно ли моргает человек? Не делает ли он это слишком часто?
Обратите внимание на размер и цвет губ. Соответствуют ли они остальной части лица?
В целом наиболее явные артефакты дипфейков — это дефекты звука, неуклюжие тени и несовпадающие оттенки кожи. Мягкие или размытые области, особенно вокруг рта, — еще один признак подделки. Вирусный дипфейк с Томом Крузом, набравший более 100 млн просмотров в TikTok, показывает «актера» с множества убедительных ракурсов, но если присмотреться внимательно, можно увидеть мягкие, размытые области вокруг подбородка, которые становятся наиболее заметными во время смены выражения лица и движения.
Разумеется, не всегда специалисты полагаются только на зоркий глаз. Для более точного определения есть машинные помощники. Конкуренция между технологиями создания и обнаружения дипфейков в будущем станет только жестче, ожидают эксперты.
Впрочем, современные разработки обнадеживают. Программисты из Калифорнийского университета гарантируют, что дипфейк можно распознать с вероятностью 99% — причем речь идет не о подмене одного человека другим (что сама по себе посильная задача для машины), а о подмене выражения лица. Исследователи делят задачу на два компонента. Сначала нейросеть обнаруживает изменение мимики (эмоцию) и передает информацию об областях изображения с этой мимикой. Затем кодер-декодер пытается найти и локализировать манипуляции, благодаря чему можно обнаружить все области, которые были подвергнуты изменению. Основные манипуляции происходят в области вокруг бровей и рта, которые в большей степени отвечают за выражения лица.
Со временем и сами разработчики стали брать ответственность за распространение подделок. Ранее Google запретила использовать свою платформу Colaboratory для создания дипфейков. В свою очередь автор видео с Томом Крузом стал соучредителем «этичной» компании Metaphysic по созданию ИИ-контента.
О распознании аудиодипфейков «Известия» подробно писали ранее. Наглядно сравнить реальные изображения и поддержку можно еще в одном материале издания.