Смотри куда платишь: за дипфейки предлагают наказывать по УК

Почему депутаты и эксперты считают новую технологию опасной для общества
Наталья Башлыкова, Наталья Ильина
Фото: РИА Новости/Виталий Белоусов

В России хотят ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Как выяснили «Известия», такой законопроект будет внесен в Госдуму в весеннюю сессию. Его поддерживают в профильных комитетах по информационной и по экономической политике. В российских банках намерены создать свою систему защиты. По мнению экспертов, вопрос регулирования использования дипфейков просто необходим.

Нуждается в регулировании

Фракция ЛДПР готовит к внесению в Госдуму законопроект, который предполагает введение уголовной ответственности за использование технологии дипфейки в мошеннических целях. Речь идет о поправках в ст. 63 «Обстоятельства, отягчающие наказание», ст. 159 «Мошенничество», ст. 158 «Кража», ст. 163 «Вымогательство», ст. 160 «Присвоение или растрата чужого имущества» УК РФ.

— Мы предлагаем добавить к отягчающим обстоятельствам использование технологии дипфейки, то есть подмены лица и голоса на фото, видео или во время виртуального общения в интернете. Это дает право вынести максимальное наказание по видам преступлений, которых оно касается, — пояснил «Известиям» один из авторов законопроекта, зампред фракции ЛДПР Ярослав Нилов.

Фото: РИА Новости/Алексей Майшев

Он добавил, что, например, по статье «Мошенничество» виновному будет грозить лишение свободы до пяти лет или штраф, «Кража» — до двух лет, «Вымогательство» — до четырех лет, «Присвоение или растрата чужого имущества» — до двух лет.

— Мы живем в мире, который всё больше погружается в виртуальное пространство. Общаемся в мессенджерах, соцсетях, по видеосвязи, смотрим ролики на видеохостингах, пересылаем друг другу документы, фотографии и видео. Дипфейк позволяет влезть в этот рутинный процесс, и обманом или через страх отобрать деньги, заставить что-то сделать или передать информацию, — пояснил депутат.

В пример он привел ситуацию, когда с украденного аккаунта в мессенджере рассылался ролик, на котором человек с лицом и голосом владельца аккаунта просит деньги в долг. Другой способ — мошенник звонит по телефону и голосом известного публичного человека предлагает сделать пожертвование или что-то купить.

— Вариаций может быть очень много, а с развитием технологии будет еще больше. Мы должны сделать упреждающий шаг, — подчеркнул Ярослав Нилов.

Фото: РИА Новости/Владимир Трефилов

«Известия» направили запрос в Минцифры с предложением оценить перспективу поддержки законопроекта.

В комитете Госдумы по информационной политике считают, что такой документ заслуживает внимания и поддержки.

— Прогресс не стоит на месте, благодаря ему человечество получает новые инструменты. Дипфейки — потрясающая технология, которая, например, позволяет «оживлять» давно умерших людей, делает разнообразнее развлекательный контент, может помочь в психотерапии. Но, к сожалению, ее осваивают и преступные элементы для того, чтобы обманывать, красть и вымогать деньги у добропорядочных граждан, — отметил зампред комитета Андрей Свинцов.

По его словам, законодатели должны дать ответ, так как сегодня наказания за это преступление не существует.

— Применение такой технологии должно усиливать ответственность. Так что законопроект правильный и своевременный, действует на опережение, — пояснил он «Известиям».

Фото: ИЗВЕСТИЯ/Михаил Терещенко

Первый зампред комитета по экономической политике Госдумы Николай Арефьев считает, что поддержать такой проект закона можно, но всей проблемы он не решит.

— У нас слишком торопятся с цифровизацией, которая действительно открывает неограниченные возможности, но не очень беспокоятся о защите персональных данных граждан. Россияне сегодня очень плохо защищены от всякого рода мошенников, — отметил депутат.

Подмена существует

«Известия» направили запрос в ЦБ, а также в крупнейшие российские банки.

— Мы ежедневно отслеживаем новые способы мошенничества, чтобы эффективно им противодействовать. Клиенты могут быть уверены, что данные, в том числе те, которые хранятся в единой биометрической системе, находятся в безопасности, — сообщили в пресс-службе Уральского банка реконструкции и развития.

В ВТБ считают, что в данный момент нет рисков применения дипфейков для финансового мошенничества путем подмены голоса или изображения человека, поскольку есть технологии, которые проверяют их аутентичность.

Фото: РИА Новости/Алексей Куденко

В ЦБ на запрос «Известий» не ответили, хотя ранее там увидели угрозу в идентификации банковских клиентов по видео. Об этом регулятор сообщил в отзыве на законопроект Ассоциации банков России. Новыми нормами предлагалось предоставить финансовым организациям возможность удаленно открывать счета гражданам для выдачи ипотечных кредитов.

В Сбербанке планируют создать свою технологию распознавания дипфейков. Об этом СМИ ранее сообщал зампред председателя правления финансовой организации Станислав Кузнецов. Он также поделился информацией о произошедшем инциденте: бухгалтер одного из предприятий получила сообщение от своего директора, чтобы та срочно с ним связалась по видеосвязи. При этом в момент звонка она общалась не с реальным руководителем, а использовалась технология дипфейков. В результате по поручению липового руководителя бухгалтер сделала перевод на $100 тыс.

По словам главы Ассоциации профессиональных пользователей социальных сетей и мессенджеров Владимира Зыкова, такая технология появилась давно, однако сейчас она стала более широко применяться.

— Идет в ход всё: звук, видео, изображение. При этом с каждым годом она становится всё доступней. Теперь ее могут использовать обычные люди на своих компьютерах. Это вызывает опасение. Например, в США и Китае уже обсуждают возможности ограничения дипфейков, хотя до сих пор никакого регулирования по использованию этой технологии нет, — пояснил он «Известиям».

Фото: ИЗВЕСТИЯ/Алексей Майшев

По его словам, очевидно, что вопрос регулирования использования дипфейков необходим. Если вам звонят мошенники, которые представляются сотрудниками банка или правоохранительных органов, зная о вас большое количество информации, эта технология позволит сделать этот обман еще более убедительным. Например, использовать для этого голос родственников или их видеоизображение.

Бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий оценил проблему дипфейков неоднозначно.

— С одной стороны, она не критична, так как банки массово не используют биометрическую систему. С другой — с помощью этой технологии возможно организовывать различные звонки якобы от близких людей, от имени которых мошенники просят перевести им деньги. В этом случае дипфейки играют опасную роль, особенно если они совмещены с подменой телефонного номера, — пояснил он «Известиям».

При этом эксперт считает, что отдельно ужесточать законодательство по этому поводу не стоит, так как мошенники могут найти и другие способы обмана граждан.