В России создана программа для выявления поддельного видеоконтента: разработчики надеются, что она поможет журналистам обнаруживать дипфейки, а обычным пользователям — оперативно проверять подозрительные ролики. Такие видео мошенники порой рассылают от лиц дальних родственников потенциальных жертв, которые якобы просят о помощи. Подробности о том, как злоумышленники используют дипфейки и какие механизмы защиты от них существуют сегодня, — в материале «Известий».
Инструмент против подделок
О разработке программы для выявления поддельного видеоконтента сообщили специалисты Донского государственного технического университета (ДГТУ), расположенного в Ростове-на-Дону. Как рассказал автор программы, аспирант кафедры «Кибербезопасность информационных систем» ДГТУ Александр Джуров, сегодня существует множество нейросетей, позволяющих всего за пару кликов сделать необычную картинку, написать стихотворение или мелодию.
«По такому же принципу с помощью искусственного интеллекта (ИИ) можно легко создать и поддельное видео, — рассказал Джуров. — При этом интеллектуальные системы с каждым днем становятся умнее: продукт их работы всё сложнее отличить от настоящего контента даже с помощью специальных программ».
Программа, разработанная специалистами ДГТУ, выявляет поддельные видеоролики, созданные с помощью технологии DeepFake алгоритма Generative Adversarial Network (GAN). Этот инструмент может с приемлемой точностью обнаруживать на видеокадрах признаки синтезирования лица человека с помощью нейросетей.
Создатели программы отмечают, что для использования их инструмента, направленного на борьбу с фейками, достаточно скачать подозрительное видео, а затем запустить его проверку через командную строку. В результате вначале выявляются все кадры с лицами в видеоряде, а затем каждый из них анализируется по многочисленным визуальным признакам подделки. В частности, дипфейки выдает натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.
Риски дипфейков
Как говорит в беседе с «Известиями» руководитель Студии искусственного интеллекта, преподаватель ИИ для бизнеса в Product University и НИУ ВШЭ Дарья Фокина, сегодня злоумышленники могут использовать поддельный видеоконтент в нескольких сценариях. Первый из них — это сообщения от мошенников. Они могут сгенерировать видео якобы с изображением родственников потенциальной жертвы, которые просят о денежном переводе, а потом отправить ей.
— Такое видео выступает будто бы доказательством, что проситель «реальный» и действительно нуждается в помощи, — говорит эксперт. — Однако пока технология создания дипфейков еще находится на раннем этапе своего развития, поэтому сгенерировать реалистичные видео мошенникам пока сложнее, чем голос или фото.
Другой вариант использования дипфейков — это создание фальшивого «компромата» ради дальнейшего шантажа жертвы. По словам Дарьи Фокиной, это, в частности, могут быть видео с высказываниями, порочащие честь и репутацию публичного человека. Другой, более распространенный вариант — дипфейк с обнаженными фото и видео потенциальной жертвы.
Впрочем, помимо очевидных рисков мошеннических схем, распространения дезинформации, введения в заблуждение общественности и даже потенциальных политических кризисов, у использования дипфейков есть и другая сторона — снятие ответственности с человека за свои действия.
— Допустим, публичная личность совершила какой-то поступок, выходящий за рамки общественных норм или даже закона: видео распространилось в сети, общество призывает к ответственности, — объясняет Фокина. — Но без технологий распознавания дипфейков, человек может скинуть на них всю ответственность и не признавать свою вину.
При этом, как отмечает разработчик сервисов машинного обучения и Senior Data Scientist в компании Tutu Виталий Куделя, создатели дипфейков постоянно улучшают методы их разработки, чтобы избежать обнаружения. Они, в частности, могут использовать новые алгоритмы или применять техники, которые затрудняют идентификацию фейковых материалов.
Сложности выявления
По словам Дарьи Фокиной, сегодня выявление дипфейков — это объемная задача, поскольку подделки создаются при помощи современных алгоритмов машинного и глубокого обучения. Эти алгоритмы позволяют делать реалистичные видеозаписи, которые трудно отличить от настоящих без помощи специалистов. Сложность заключается в том, что традиционные методы анализа исходного видео могут быть неэффективными против современных технологий.
— Злоумышленники также могут использовать специальные методы обработки данных, чтобы скрыть следы манипуляций с контентом, — отмечает заместитель руководителя Центра практической информационной безопасности Innostage Ксения Рысаева.
По ее словам, сегодня существует несколько инструментов для борьбы с дипфейками: это алгоритмы машинного обучения, которые могут обнаруживать аномалии в видео, программное обеспечение для анализа цифровой подписи и проверки подлинности видео, а также технологии блокчейн для обеспечения безопасности данных. Однако все эти инструменты нуждаются в постоянном развитии для получения наиболее точных результатов.
Поэтому разработка ученых из ДГТУ — важный и логичный шаг в сфере развития методов выявления дипфейков, считает Дарья Фокина. В обществе уже созрел запрос на проверку контента, созданного при помощи ИИ. Со временем таких инициатив будет всё больше — и, если технологии по распознаванию будут обгонять или хотя бы идти в ногу с технологиями по созданию контента при помощи ИИ, это пойдет на пользу обществу.
— Разработка ДГТУ отечественного аналога системы обнаружения дипфейков может быть применена в тех областях, где, по соображениям безопасности, сегодня нет возможности использовать иностранные программы, — отмечает Виталий Куделя. — Весьма вероятно, что в будущем такая потребность будет только возрастать.
Цифровые перспективы
Сегодня будущее дипфейков и борьбы с ними зависит от того, как будет развиваться эта технология. Дарья Фокина объясняет: с одной стороны, злоумышленники могут пытаться улучшить свои методы создания фейков, что сделает их более сложными для выявления. С другой — развитие ИИ и алгоритмов для обнаружения подделок также будет продвигаться вперед, что повысит шансы на борьбу с дипфейками.
В свою очередь, Виталий Куделя указывает на то, что технически выявление дипфейков может быть реализовано при помощи внедрения специальных алгоритмов на популярных площадках распространения видео. Такие алгоритмы могут сообщать пользователям, что то или иное видео является подозрительным. Другой путь решения проблемы — это использование криптографии для защиты данных и предотвращения создания дипфейков.
— Например, можно использовать цифровые подписи или хеширование для проверки подлинности изображений или голосовых записей, — говорит собеседник «Известий».
По словам Дарьи Фокиной, ключевым фактором в эффективной борьбе с угрозой распространения дипфейков в будущем станет сотрудничество между IT-индустрией, академическими институтами и правительствами разных стран мира. К примеру, некоторые страны уже приняли законы, направленные на борьбу с дипфейками.
Они могут включать уголовную ответственность за создание и распространение поддельных видео, а также возможности для жертв дипфейков обжаловать их использование. Наконец, по словам Виталия Кудели, важным инструментом в борьбе с дипфейками является образование пользователей и их информирование о рисках возможной фальсификации данных. Сегодня разные организации уже проводят кампании по просвещению, а также предоставляют рекомендации по проверке подлинности материалов.
— Качество дипфейков будет лишь улучшаться со временем, — заключает эксперт. — Поэтому комбинация различных способов борьбы с ними — от законодательных до алгоритмических и образовательных — может сильно уменьшить их эффективность.