Перейти к основному содержанию
Реклама
Прямой эфир
Интернет и технологии
Эксперты оценили сообщения о способности Apple Watch «предсказывать» болезни
Политика
Лидеры стран СНГ подписали пакет документов по итогам саммита
Мир
Лавров отреагировал на слова Фицо о ракетном ударе по Брюсселю
Спорт
Завершивший карьеру Агуэро потребовал от «Барселоны» €3 млн
Мир
Нетаньяху заявил о ликвидации преемника Насраллы
Мир
Сийярто отверг возможность вступления Украины в НАТО
Мир
Генсек НАТО Рютте призвал страны альянса больше тратить на оборону
Политика
В Госдуме высказались об отношении Запада к переговорам Киева и Москвы
Общество
Матвиенко заявила о внимании саммита СНГ к подготовке к 80-летию Победы
Общество
Суд в Москве оштрафовал Microsoft на 3,5 млн рублей
Мир
Лавров заявил о потере интереса к западным обсуждениям переговоров по Украине
Мир
Байден отложил поездку в Германию и Анголу из-за урагана «Милтон»
Мир
«Левые» внесут в бундестаг резолюцию против размещения ракет США в Германии
Мир
Президент Азербайджана Алиев раскритиковал проводимую США политику санкций
Мир
Посольство РФ заявило о замалчивании Лондоном фактов применения химвеществ Киевом
Спорт
ЦСКА обыграл «Салават Юлаев» со счетом 2:0 в матче КХЛ
Мир
ВС Израиля нанесли удар по жилому зданию в Дамаске
Общество
Губернатор Белгородской области сообщил о закрытии двух сел

Безличный опыт: появился способ обходить распознавание лиц

Фотографию перед размещением в интернете можно обработать так, чтобы ее не находили системы поиска по изображениям
0
Фото: РИА Новости/Владимир Песня
Озвучить текст
Выделить главное
Вкл
Выкл

Появились программы для обработки фотографий, которые позволяют сделать людей на снимке неузнаваемыми для системы распознавания лиц в интернете. При этом на изображении не видно изменений внешности человека. Обработка фотографий сводится к добавлению на фото комбинации пикселей, которые воспринимаются алгоритмами глубинного машинного обучения как характерные шаблоны и приводят к искажению признаков, применяемых для классификации. Подобные изменения чрезвычайно трудно обнаружить и удалить. Опрошенные «Известиями» эксперты считают, что эти программы пока несовершенны и не окажут никакого влияния на распознание лиц госорганами. А вот сбор данных частными структурами может быть пресечен.

Новые шаблоны

В даркнете, а затем и в общедоступной Сети появились программы, которые позволяют защитить фотографию от системы распознавания лиц в интернете. Один из таких сервисов называется Fawkes, он есть в открытом доступе. Разработчики дислоцируются в лаборатории SAND Чикагского университета.

— С некоторого времени такие программы стали появляться для всеобщего пользования, то есть ими может воспользоваться каждый, — отметил в беседе с «Известиями» независимый исследователь даркнета Олег Бахтадзе-Карнаухов. — Речь идет не о том, чтобы испортить уже существующую фотографию, а о том, чтобы загружать их уже с изменениями. Кроме Fawkes, есть еще алгоритм EqualAIs, который разработали сотрудники Гарварда. Концептуально их продукт работает идентично. Их код также находится в открытом доступе.

По словам Олега Бахтадзе-Карнаухова, созданием подобных алгоритмов занимается также коллектив с факультета прикладных наук и инженерии Университета Торонто.

Обработка фотографий сводится к добавлению в изображение комбинации пикселей, которые воспринимаются алгоритмами глубинного машинного обучения как характерные для изображаемого объекта шаблоны. В результате происходит искажение признаков, применяемых для классификации. Эти изменения не выделяются из общего набора и их чрезвычайно трудно обнаружить и удалить.

Как пишут на странице лаборатории разработчики Fawkes, «программа берет личные изображения и вносит крошечные изменения на уровне пикселей, невидимые человеческому глазу, в процессе, который мы называем маскировкой изображения. Затем вы можете использовать эти «замаскированные» фотографии как обычно: делиться ими в социальных сетях, отправлять друзьям, распечатывать их или отображать на цифровых устройствах, как любую другую фотографию. Однако если кто-то попытается использовать эти фотографии для построения модели распознавания лиц, «замаскированные» изображения «научат» модель сильно искаженной версии того, что делает вас похожими на вас».

Проверка показала

Fawkes «на 100% эффективен против современных моделей распознавания лиц (Microsoft Azure Face API, Amazon Rekognition и Face ++», указали разработчики в своей научной статье.

Алгоритм Fawkes проверяли и в Центре технологий искусственного интеллекта национального исследовательского центра «Институт им. Н.Е. Жуковского», выяснили «Известия». Он не сработал ни разу, рассказал доктор физико-математических наук, профессор РАН, начальник подразделения ФГУП «ГосНИИАС» Юрий Вильзитер.

— Мы пробовали этот алгоритм на нашей системе распознавания лиц (речь идет о Biometric Access Control (BAC), распространяется дочерней компанией ЦТИИ. — «Известия») и на официальном демо NtechLab у них на сайте. Обработанные Fawkes изображения распознавались точно так же, как и не обработанные, — отметил Юрий Вильзитер.

Авторы разработки озабочены тем, что сегодня кто угодно может запустить бота для сбора снимков в интернете и скачать с разных сайтов фотографии пользователей без их ведома. Это создает угрозу тайне частной жизни, заметил Юрий Вильзитер. Программа Fawkes и ей подобные — один из вариантов «отравления данных» при обучении или в более широком смысле «атак» на распознающие нейронные сети, указал эксперт.

По словам Юрия Вильзитера, алгоритм неприменим к фото, которые используются, например, для камер с распознаванием лиц, которые установлены в Москве на подъездах. Ведь базы изображений для распознавания берут не из интернета, а из легальных баз — паспортных и других.

Будущее за фейками

Хотя сейчас алгоритмы несовершенны, в дальнейшем они будут развиваться и совершенствоваться, уверен Юрий Вильзитер. С ним согласен эксперт по кибербезопасности в «Лаборатории Касперского» Дмитрий Галов. По его мнению, алгоритмы типа Fawkes уже включились в предсказуемую гонку, которая в результате приведет к усовершенствованию как систем искажения фото, так и систем их поиска.

— Между исследователями, которые создают алгоритмы deepfake, и теми, кто анализирует способы их обнаружения, идет своего рода гонка. Когда обнаруживается несовершенство deepfake, на его основе создают способ обнаружения, но следующее поколение алгоритмов уже исправляет эти недостатки. Например, в 2018 году исследователи обнаружили, что deepfake-видео можно определять по тому, что люди в них очень редко моргают. В современных deepfake-видео «проблем» с морганием уже может не наблюдаться, — пояснил Дмитрий Галов.

Он подчеркнул, что сами по себе технологии deepfake не несут вреда: важно, с какой целью их используют.

Читайте также
Прямой эфир