Перейти к основному содержанию
Реклама
Прямой эфир
Происшествия
В Костроме двенадцатилетний школьник погиб под колесами иномарки
Армия
ВСУ за сутки потеряли до 320 боевиков на курском направлении
Общество
Госдума разрешила инспекторам Росрыболовства проводить постоянные рейды
Мир
Рютте призвал страны НАТО тратить на оборону больше 2% ВВП
Мир
Нетаньяху приехал в Газу и предложил по $5 млн за каждого освобожденного заложника
Мир
Россия согласилась с пунктом декларации G20 об урегулировании конфликта на Украине
Армия
В Воронежской области после атаки пяти беспилотников загорелось предприятие
Авто
Глава АвтоВАЗа допустил подорожание автомобилей Lada в 2025 году
Мир
Признавшийся в убийстве американец пробил стену и сбежал с допроса
Экономика
Эксперт предрек рост цен на уран в США при ограничениях на его поставки из РФ
Мир
Зеленский заявил о намерении использовать ракеты ATACMS
Авто
Кроссовер Jaecoo J5 появится в России в начале 2025 года
Мир
Фон дер Ляйен перелезла через ограждение на саммите G20 в Рио
Мир
Сийярто назвал решения Байдена ведущими к мировой войне
Мир
В Германии у возвращающихся в Россию двух женщин конфисковали одежду
Экономика
Курс доллара превысил 100 рублей впервые с октября 2023 года
Мир
Эрдоган призвал НАТО задуматься после обновления Россией ядерной доктрины
Армия
Вертолеты ВС РФ нанесли удар по бронетехнике ВСУ в курском приграничье
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

В Госдуме начали разработку закона о маркировке контента, созданного с помощью искусственного интеллекта. Как сообщил член комитета по информационной политике Антон Немкин, без контроля распространения такой информации развитие ИИ может нести опасность. «Известия» выясняли, как будет работать нововведение и почему оно необходимо.

Разработка закона

В Госдуме начали разработку закона о маркировке контента, созданного нейросетями. Об этом сообщил член комитета Госдумы по информационной политике Антон Немкин.

Он отметил, что без контроля распространения информации развитие искусственного интеллекта (ИИ) в России может быть опасным.

«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», — сказал Немкин.

мужчина смотрит в компьютер на компьютере текст
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

По словам депутата, маркировка может осуществляться при помощи графических или водяных знаков. Она должна выглядеть ненавязчиво, но при этом быть заметной читателю. Если закон примут, в будущем российские ИИ-сервисы обяжут автоматически маркировать сгенерированные тексты. Так что задуматься о технологии маркировки крупным компаниям стоит уже сейчас.

Какая экспертиза позволит распознать степень участия нейросети и человека в одном тексте, пока неясно. Однако Немкин предложил наделить новыми полномочиями Роскомнадзор: ведомство могло бы заниматься выявлением деструктивного контента, сгенерированного ИИ.

Необходимость закона

Как объясняет «Известиям» начальник отдела по информационной безопасности компании «Код безопасности» Алексей Коробченко, маркировка ИИ-контента имеет две главные цели.

— Во-первых, любому ИИ-сервису на данном этапе развития свойственны так называемые галлюцинации, то есть нейросети могут выдавать ложную информацию. Соответствующая маркировка должна дать понять пользователям, что данные сгенерированы искусственным интеллектом и их необходимо перепроверять, — рассказывает эксперт.

Мужчина смотрит видео на телефоне
Фото: Getty Images/fotostorm

Во-вторых, возможности ИИ сегодня значительно выросли. Отличить видео, фото, не говоря уже про текст, сгенерированные нейросетью от созданных человеком практически нереально. И это дает широкий простор для обмана пользователей, манипуляции их мнением и так далее.

— Например, недобросовестные производители могут генерировать ИИ-ролики, рекламируя какой-либо товар. С помощью маркировки пользователи будут понимать, что возможности продукта в рекламе могут отличаться от действительности, — говорит Коробченко.

Механизм маркировки

Как именно будет исполняться новый закон в случае принятия, пока неизвестно. Но, по мнению Алексея Коробченко, вероятно, будет реализовано два основных механизма маркировки и контроля ИИ-контента. Первый — обязательство всех ИИ-сервисов автоматически маркировать контент, а второй — «ручной» контроль силами специалистов Роскомнадзора.

— По большому счету, такой принцип действует и при выявлении, например, мошеннических ресурсов: автоматические системы регуляторов прочесывают интернет, а в особых случаях проверку проводят специалисты, — говорит собеседник «Известий».

Еще один похожий пример — российский опыт по маркировке интернет-рекламы, не имеющий аналогов в мире, добавляет партнер Лиги цифровой экономики Александр Данилов. Участники рынка уже два года маркируют весь контент, создаваемый и публикуемый в интернете в рекламных целях.

парни смотрят в ноутбук за работой
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

— Здесь реализована как организационная, так и техническая платформа для взаимодействия всех участников, полностью цифровизованы процессы, связанные с маркировкой рекламы, а Роскомнадзор успешно справляется с административной функцией. На мой взгляд, все условия уже есть и для маркировки информации, созданной с использованием ИИ. Однако прежде всего необходимо определить какой тип контента, созданного с помощью ИИ, будет подлежать маркировке, — отмечает Данилов.

По этой причине, объясняет он, сначала необходимо описать и типизировать этот контент. Например, ответы различных чатов с технологией генеративных сетей (GPT) в интересах одного конкретного гражданина, возможно, и не требуется маркировать.

— Но если же создаваемый с использованием ИИ контент (видео, аудио, тексты) предназначается для массового распространения через интернет, то здесь маркировка вполне уместна. Она позволит урегулировать этические вопросы тиражирования информации, в том числе с использованием визуальных образов или голосов известных личностей, лидеров мнений, и сформирует ожидания у аудитории, для которой предназначается контент, — заключает Александр Данилов.

Важное нововведение

По мнению экспертов «Известий», необходимость в законе о маркировке контента, созданного нейросетями, назрела давно. Главная опасность его отсутствия заключается в том, что неконтролируемое распространение любого контента, не только созданного ИИ, может дезинформировать людей и дестабилизировать общество, считает Алексей Коробченко.

— Сейчас ИИ-сервисы доступны практически каждому, и при желании хактивисты или просто хулиганы могут распространять фейковый контент, который будет влиять на социальную обстановку. Кроме того, нейросети совершают фактические ошибки могут вводить пользователей в заблуждение, нести негативный эффект, например, панику, — говорит эксперт.

Главную пользу от нововведения, по его словам, получат именно пользователи сети — они будут знать, какие материалы созданы с помощью ИИ, и относиться к ним соответственно.

Кроме того, введение обязательной маркировки сможет повлиять и на уровень мошенничества и «психологических операций» с дипфейками.

Мужчина смотрит на компьютер, на котором замок
Фото: ИЗВЕСТИЯ/Александр Казаков

Понятно, что хакеры высокой квалификации пользуются собственными ИИ-инструментами, однако если общедоступные ИИ-сервисы будут всегда маркировать свой контент, то различные хактивисты и хулиганы не смогут выдавать фейковые новости за настоящие и влиять на общество, — отмечает собеседник «Известий».

По словам руководителя ИТ-подразделения агентства «Полилог» Людмилы Богатыревой, Россия — не первая страна, которая инициирует законодательное регулирование ИИ-контента. Маркировка в виде водяных знаков для аудио и видеоконтента уже существует в Китае, странах Евросоюза и США.

— Но в рамках этого важно внимательно проработать, кто, как и в каких случаях будет маркировать контент. К примеру, это будет касаться только контента, распространяемого СМИ, или же используемого в личных сообщениях. Кто должен нести ответственность — тот, кто генерирует контент, или кто распространяет его. Все эти вопросы нужно аккуратно проработать, иначе данная инициатива как минимум «не взлетит», а как максимум — затормозит развитие технологий искусственного интеллекта в стране, — заключает собеседница «Известий».

Читайте также
Прямой эфир