Дайте слово: кто уговаривает россиян сдать образцы голоса

Преступники научились использовать синтезированную речь
Иван Петров
Фото: Global Look Press

В интернете появились предложения предоставить запись своего голоса якобы для коммерческого использования. Авторы объявлений обещают пристроить речь в рекламные проекты, а взамен сулят пассивный доход в виде отчислений. Почему опасны такие предложения и как злоумышленники могут использовать скомпилированные фразы, выясняли «Известия».

Зачем собирают

Компании начали активно собирать записанные в цифровой форме голоса россиян под различными предлогами. В частности, одна американская компания — разработчик софта разместила в русскоязычном сегменте Telegram предложения для русскоговорящих прислать им свое 30-минутное аудио, а также анкету и платежные реквизиты. «При использовании вашего голоса на баланс будет капать пассивный доход. Но будьте готовы услышать свой голос в рекламе или где-нибудь поинтересней», — говорится в сообщении. Заокеанские бизнесмены прозрачно намекают, что голоса могут быть использованы самым неожиданным (и не факт, что законным в РФ) способом. Другой ресурс вовсю торгует записями чужих голосов через популярный мессенджер, предлагая на выбор свыше 400 образцов. Правовая сторона такого бизнеса вызывает массу вопросов, так как большинство компаний, собирающих чужую речь, находятся вне юрисдикции России.

Фото: Global Look Press/dpa/Andreas Arnold

Проба пера

Между тем мошенники уже освоили ряд фишинговых схем с использованием технологий синтеза речи.

— Они активно используют ботов для прозвона граждан, и, разумеется, «говорилку» озвучивают не сами мошенники — голоса берут из открытого доступа в Сети, — сообщил источник «Известий» в правоохранительных органах.

Прошлым летом эксперты обеспокоились тем, что жулики начали клонировать аудиосообщения из мессенджеров, которые им удавалось взломать. Вместе со стандартной текстовой рассылкой «срочно пришли денег» контактам взломанного пользователя направлялись короткие аудиозаписи, синтезированные, предположительно, с использованием «похищенной» речи. Об одном из таких преступлений ранее рассказывали «Известия».

Фото: Global Look Press/dpa/Annette Riedl

Особую опасность представляют нейросети, способные генерировать чужой голос — такие попытки обмана уже зафиксированы в Астраханской области. Схема «мама, помоги, я в беде» становится всё более адресной, отметили в ярославском отделении Банка России.

Преступники уже синтезируют голоса представителей региональной власти и бизнес-элиты. Реплики с требованием помочь силовикам или перевести куда-либо деньги генерируются на основе публичных выступлений. Затем проводится веерная рассылка аудиосообщений. Тех, кто клюет на удочку, передают уже другим «специалистам».

Насколько это реально

— Подделать голос легко, — считает руководитель отдела аналитических систем компании «Первый Бит» Петр Иванов. — В 2022 году компания Silero проводила эксперимент еще на старом своем движке. Они взяли два часа [записи] речи человека и пытались пройти систему аутентификации по голосу для своего заказчика. Только 10% попыток оказались неудачными. Прошло два года, и на третьей версии программы уже 0% попыток были неудачными. Причем для эксперимента понадобилось лишь 15 минут записи голоса. В их Telegram-боте можно, например, озвучить любой текст голосами из популярной компьютерной игры уже сейчас.

Фото: Global Look Press/dpa/Soeren Stache

По словам эксперта, 15-минутную аудиозапись можно с легкостью сделать во время публичного выступления известного человека, а у обычных пользователей Сети скомпилировать из голосовых сообщений.

— Гипотетически мошенники могут прислать голосовое сообщение ребенку, чтобы сфотографировал вашу платежную карту со всех сторон, например. Однако если для обычного мошенничества нужно просто взять телефон и позвонить, то тут придется создавать свой «научный центр» с серьезного уровня сотрудниками. Порог входа будет высокий, и эти центры легче будет выявлять и уничтожать.

Почему это легально

Само по себе использование чужого голоса без согласия обладателя этого голоса в России не запрещено, говорит адвокат, управляющий партнер AVG Legal Алексей Гавришев.

— Голос, безусловно, относится к биометрическим персональным данным. Однако если он используется не для установления личности его обладателя, то согласие на использование речи даже в дипфейках не требуется.

В качестве обоснования своего мнения адвокат приводит положения ст. 11 закона «О персональных данных». Там указано, что письменное согласие субъекта ПД требуется на обработку сведений, «которые характеризуют физиологические и биологические особенности человека, на основании которых можно установить его личность (биометрические персональные данные) и которые используются оператором для установления личности».

Фото: Global Look Press/Ilya Galakhov

— Вот это «и» является ключевым. Многие ошибочно думают, что забирать чужой голос без согласия для использования, например, в творческой деятельности незаконно. Однако в случае создания дипфейков голос используется не для установления личности (как, например, в случае прохода в какое-нибудь охраняемое помещение или разговора с банком). Кроме того, при использовании чужого голоса в творчестве не происходит автоматизированной обработки персональных данных, а закон о персональных данных регулирует их обработку только с использованием средств автоматизации или для целей поиска в каких-либо картотеках.

Юрист, основатель и СЕО консалтинговой группы vvCube Вадим Ткаченко говорит, что биометрия может включать и голос тоже, но сейчас законодательно это в достаточной степени не регулируется, хотя голос и становится сейчас одним из основных способов для идентификации человека.

— Если лица, передающие права на свой голос, подписали соответствующие документы и договор, то он может использоваться где-то, в том числе в публичных пространствах, здесь не будет каких-то нарушений, — считает Ткаченко. — То есть такое использование должно быть правильно оформлено документально.

Фото: Global Look Press/Ingram Images

Проблема не только у нас

Что касается зарубежных стран, то в США этот вопрос также не урегулирован, говорит адвокат Гавришев.

— Пробел пытаются восполнить. Пока что выдвинут законопроект в конгрессе, и известно недавно инициированное наследниками Джорджа Карлина судебное дело, поводом к которому стало использование видеоблогерами голоса покойного комика. Чем всё закончится, узнаем скоро. Поэтому даже ответственность за «кражу» вашего голоса иностранцами пока что тоже под большим вопросом.