Роскомнадзор приветствует ужесточение ответственности за распространение потенциально опасных дипфейков вроде ложных заявлений официальных должностных лиц, сообщили «Известиям» в службе. Ранее депутаты Госдумы заявили о намерении закрепить в правовом полем понятие «дипфейк». Как могут работать мошеннические схемы с их использованием и что власти могут предложить для борьбы с ними — в материале «Известий».
Соразмерное наказание
Растущий интерес пользователей к работе с нейросетью в развлекательных целях в ближайшие три-пять лет может привести к появлению новых мошеннических схем, рассказали «Известиям» политики и эксперты. На этом фоне парламентарии как раз и намерены закрепить в правовом поле понятие «дипфейк». При этом в профильном ведомстве отдельно обратили внимание на риски создания фейковых заявлений чиновников, которые могут привести к общественной угрозе.
— Роскомнадзор поддерживает инициативу по ужесточению ответственности за распространение дипфейков под видом достоверных сообщений и имеющих потенциально высокую социальную или экономическую опасность, например недостоверных политических и социально значимых публичных выступлений и высказываний якобы официальных должностных лиц, — сказали «Известиям» в Роскомнадзоре, комментируя инициативу о введении термина «дипфейк».
При разработке законопроекта о введении официального понятия «дипфейк» необходимо не только дать определение подобному явлению, но и убедиться в наличии технологий и технических решений, способных оперативно и эффективно его выявлять, добавили в службе. Там напомнили, что действующее российское законодательство, в свою очередь, уже предусматривает порядок ограничения доступа к подобной недостоверной общественно значимой информации.
Справка «Известий»Среди примеров использования дипфейков — случай, произошедший в марте 2023 года. Тогда в Сети стали активно распространяться снимки «силового ареста» бывшего хозяина Белого дома Дональда Трампа. На фальшивых фотографиях республиканец убегает от полицейских, сопротивляется задержанию. Впрочем, позднее стало известно, что эти снимки подготовила нейросеть.
Самое время
Ранее «Известия» со ссылкой на комитет Госдумы по информационной политике, информационным технологиям и связи сообщали, что в российском законодательстве появится официальное понятие «дипфейк». По словам главы комитета Александра Хинштейна, сейчас всё чаще используются нейросети для создания контента с реалистичной подменой фото-, видео- и аудиоматериалов. Он добавил, что отличить их от достоверного изображения становится всё труднее. По его словам, отдельного закона для них сегодня не требуется, поэтому инициатива будет предполагать изменение в уже действующее законодательство.
— Главная задача законопроекта, которую, надеемся, удастся решить, — это дать правовое определение явлению под названием «дипфейки», которые сегодня стали уже не уникальными, — сказал он.
Зампред комитета Олег Матвейчев добавил, что сегодня люди всё чаще используют нейросеть для развлечения, поместив фото в интересные декорации, чтобы увидеть себя или близких в новом образе. Однако подобный механизм разрастется, и к его использованию обратятся мошенники.
— Сперва бесконтрольное использование дипфейков может привести к новым способам мошенничества, потому что с помощью нейросети можно легко сгенерировать голос, фразы любого человека. И, например, телефонные мошенники могут использовать голос родственника даже с присущими конкретно ему фразами. Когда второй человек убедится, что на проводе его близкий, злоумышленник или сама нейросеть может начать вымогать деньги или просить перевести на какой-то счет. Поэтому если фантазию применить, то это действительно опасное явление, которое могут использовать недобросовестные люди, чтобы наживаться на доверии тех или иных лиц, — сказал депутат Сергей Леонов, который ранее также выступал с подобной инициативой о законодательном регулировании подобных явлений.
Депутат также прогнозирует риски обычной дискредитации: злоумышленники могут взять фотографии человека, «приписав» ему какие-либо неприятные обстоятельства на фото или видео. Их достоверность, по словам политика, будет сложно оперативно определить.
Член комитета Госдумы по обороне Дмитрий Кузнецов обратил внимание на то, что само понятие «deepfake» многим людям ни о чем не говорит. Поэтому стоит использовать понятное российское выражение и вести активную просветительскую работу для граждан относительно серьезных последствий этого явления.
Эксперты предупреждают, что даже специалистам сложно отличить достоверную картинку от ложной и компании уже ведут исследования по противостоянию дипфейкам. Подобные нейросети создают качественные изображения, потому что объекты не добавляются друг на друга по отдельности, а создаются вместе единой картинкой на основе представленных составляющих, пояснил специалист в области обработки данных Дмитрий Каплун. Более того, сегодня используются сильные вычислительные мощности, которые также позволяют успешно генерировать контент от звуков до правдоподобных видео. Впрочем, технология остается достаточно дорогостоящей и трудозатратной и пока что уступает более простым способам мошенничества, считает старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. На этом фоне необходимо повышать осведомленность людей о новых возможных способах отъема денег у них, считает он.