Превентивная безопасность: как российские компании маркируют сгенерированный контент

И почему ответственность отрасли особенно важна с развитием технологий
Кристина Сумская
Фото: ИЗВЕСТИЯ/Александр Казаков

Технологии искусственного интеллекта стремительно развиваются в России. Сгенерированный контент всё чаще применяется в самых разных сферах, и вместе с этим острее встает вопрос его идентификации. Осознавая риски, разработчики активно включены в вопросы маркировки сгенерированного контента. «Известия» уже рассказывали, как подходят к этому процессу в ЕС, США и Китае, а в новом материале редакция разбиралась в российских особенностях маркировки созданного ИИ контента.

История вопроса

Отечественные компании начали работать в направлении безопасности и этики использования ИИ превентивно. Еще в 2019 году крупнейшие разработчики, в числе которых «Сбер», «Яндекс» и VK, основали Альянс в сфере искусственного интеллекта. Организация объединяет технологические компании для развития ИИ в России. Среди вопросов, которыми занимается Альянс, — этика применения и техническая стандартизация ИИ.

В рамках совершенствования этики применения и защиты пользователей Альянс участвовал в создании «Декларации об ответственном использовании и разработке сервисов на основе генеративного ИИ». Подписанты договорились о принципах безопасности и прозрачности, этичном отношении к чувствительным темам и мерах для предотвращения злоупотреблений при работе с информацией.

В частности, участники предлагают маркировать сгенерированный контент в случаях, когда это необходимо. Кроме того, компании планируют разработать инструменты маркировки, которые невидимы для человеческого глаза.

В экспертном сообществе в пользу маркировки такого контента приводят два основных аргумента. Во-первых, на сегодняшнем этапе развития ИИ-сервисы могут генерировать ошибочную информацию, и пользователь должен понимать, что она нуждается в дополнительной верификации. Во-вторых, зачастую отличить сгенерированные тексты и изображения от тех, что были созданы человеком, практически нереально, что, например, дает недобросовестным лицам возможность совершения мошенничества.

Работа с изображениями

Так как же сегодня устроен процесс маркировки в России? С развитием технологий искусственного интеллекта особенно популярными стали инструменты для генерации изображений и видео на основе нейросетей. За 2023—2024 годы сервисы создания изображений и видео (например, «Шедеврум» от «Яндекса» и Kandinsky от «Сбера») стали самыми упоминаемыми нейросетями в России.

В сервисе «Шедеврум» контент генерируется с помощью нейросети YandexART. В качестве маркировки используется подпись, которая появляется в правом нижнем углу изображения, а при попытке переслать ссылку на него из мобильного приложения появляется упоминание о том, с помощью какой программы оно было создано.

Также «Яндекс» начал маркировать рекламные объявления с изображениями, автоматически созданными нейросетью YandexART. Маркировка появляется при нажатии на три точки в верхнем правом углу объявления — так как маркеры интегрированы в интерфейс объявления, их крайне сложно удалить.

«Сбер» создал нейросеть Kandinsky для генерации изображений и коротких видео. Создавать изображения можно на сайте fusionbrain.ai, в Telegram-боте или в VK-боте, а генерация видео пока доступна только через сайт fusionbrain.ai. Маркировку можно увидеть, например, при использовании VK-бота: на нижней части сгенерированного изображения появляется надпись Kandinsky c логотипом нейросети.

Маркировка текста

Текстовые нейросети также пользуются большой популярностью — они используются в приложениях, на веб-сайтах, в чатах, в социальных сетях. Несмотря на то, что текстовые нейросети постоянно совершенствуются, они могут ошибаться, поэтому некоторые компании считают важным информировать пользователей о том, что они взаимодействуют с нейросетью.

Например, Алиса от «Яндекса» работает на основе нейросети YandexGPT — с нею можно общаться не только голосом, но и текстом. При общении с Алисой в чате в нижней части интерфейса появляется предупреждающая надпись: «Алиса старается, но может ошибаться. Проверяйте важную информацию». Если же пользователь общается голосом, Алиса предупредит о том, что генерирует ответы на основе нейросети, если ее об этом спросить.

YandexGPT также участвует в составлении ответов сервиса «Нейро», в которой после каждого ответа появляется пометка о том, что контент сформирован нейросетью на основе текстов отдельных сайтов. Кроме того, нейросеть используют продавцы на «Яндекс Маркете» — она помогает составить описание товара и генерирует краткую сводку по отзывам для покупателей. В этом случае маркировка отображается при генерации отзыва.

В сервисе «Сбера» GigaChat можно создавать текстовый контент и генерировать идеи. Генерация доступна на официальном сайте после авторизации через Сбер ID и в Telegram-боте. При использовании виртуальных помощников сервиса, таких, как «Хваленушка», «Контент Мейкер» и «Кот Баюн», сервис показывает плашку «Помните, что вы разговариваете с вымышленным персонажем», а сам GigaChat называет себя «ваш AI-помощник».

Перспективы технологий маркировки

Отметим, что еще до популяризации нейросетей российские компании разрабатывали первые решения, направленные на выявление сгенерированного контента. Так, в августе 2022 года «Сбер» представил технологию распознавания дипфейка с точностью работы до 98%. Система позволяет обрабатывать видеоконтент сразу с несколькими лицами в кадре.

Как рассказали «Известиям» в Альянсе в сфере искусственного интеллекта, сегодня разработчики по всему миру работают над технологией невидимых маркировок.

— Ряд компаний смотрит в сторону разработки технологий для маркировки и определения контента, сгенерированного нейросетями. В том числе способов «невидимой» маркировки. Это общемировой тренд, к которому двигаются все разработчики, в том числе и в России, — отметили там.

Речь в данном случае может идти о неслышимых звуковых дорожках в аудио- и видеоконтенте. А для изображений могут использоваться невидимые водяные знаки, которые нельзя будет удалить, не повредив сам контент.

Важно, что сами участники отрасли ответственно подходят к вопросу: уделяют большое внимание генерируемому ИИ контенту и превентивно разрабатывают меры по предотвращению возможных рисков для пользователей.