Как и в случае с любой новой технологией, генеративный искусственный интеллект привлекает внимание самой разной аудитории: одни используют его для работы, другие для учебы или развлечений. При этом существуют люди, которые не всегда применяют новые технологии во благо. В том числе для борьбы с такими недобросовестными пользователями, ИИ-разработчики в разных странах маркируют контент, который сгенерирован нейросетями. В том, как работает такая маркировка за рубежом, разбирались «Известия».
Две стороны медали
Генеративный искусственный интеллект (ГИИ) быстро стал инструментом, который всё больше применяют на практике. По данным Hubspot, 48% маркетологов, SEO-специалистов и менеджеров по продажам уже используют ИИ для генерации контента. Более 80% маркетологов отмечают, что нейросети помогают создавать значительно больше материала, чем в прошлом.
При этом помимо очевидной пользы есть и риски. В их числе неэтичное использование генеративного контента. Некоторые пользователи уже научились создавать с помощью ИИ дипфейки известных личностей или представителей бизнеса. Существуют и злоумышленники, которые используют подделки для шантажа или получения прямого доступа к средствам компаний. Компании-разработчики в США, Китае и странах Евросоюза пришли к выводу, что одним из средств в борьбе с этим может стать маркировка ИИ-контента.
Как работает маркировка
В большинстве случаев разработчики рассматривают вариант маркировки контента, созданного с помощью ИИ, видимыми маркерами, например водяными знаками. При этом на практике одного метода маркировки недостаточно: злоумышленники уже научились обрезать или удалять водяные знаки.Именно поэтому для полноценной маркировки требуется больше опознавательных элементов, включая также невидимые для человеческого глаза, например метаданные и метки, считываемые только машинными методами. При этом комплексная маркировка контента разного формата хоть и требует от отрасли намного большего вложения ресурсов, однако именно она, вероятно, будет развиваться в ближайшее время, как наиболее эффективный на данный момент способ борьбы с недобросовестным использованием технологии.
Европейский опыт
В некоторых странах регуляторы настолько опасаются возможных рисков, связанных с ИИ, что ставят чрезмерные требования к использованию и защите сгенерированного контента. Исполнение этих стандартов отнимает много ресурсов у разработчиков, что создает реальные препятствия для развития ИИ как технологии.
Так, исследование «Яков и партнеры» показало, что подобная ситуация сложилась в странах Евросоюза. С этим подходом не согласны правительства Франции и Германии, а также представители крупных компаний. Так, руководители Renault, Siemens, Heineken, Airbus и Ubisoft заявили, что разработчикам придется нести непомерные риски и тратить несоразмерно много денег, чтобы отвечать всем требованиям регулятора.
Эти ограничения также уже оказали влияние на деятельность международных компаний на европейском рынке. Meta (признана в РФ экстремистской организацией) ограничила доступ к своей мультимодальной модели ИИ в Европе и сообщила, что не планирует предоставлять там свои новые языковые модели в ЕС. Среди причин такого решения упоминался непредсказуемый характер европейской нормативной среды в области регулирования ИИ. На аналогичный шаг пошли и в Apple, ограничив функции Apple Intelligence в Европе из-за требований Закона о цифровых услугах (DMA).
Несмотря на протесты отрасли, первый комплексный закон о регулировании ИИ приняли в марте этого года. Провайдеры и разработчики должны будут следовать требованиям регулятора не только в Европе — правила также распространяются на ИИ-продукты, доступные для европейцев вне ЕС. Один из важных пунктов в новом законе — требование об обязательной маркировке текстов, аудио- видео-, фотоматериалов и любого другого контента, сгенерированного ИИ. По задумке регулятора ИИ-контент будет маркироваться машиночитаемыми метками, а сами методы маркировки могут включать водяные знаки, метаданные, криптографические методы, цифровые отпечатки и др.
Пример Китая
В КНР в 2019 году власти ввели первые правила, которые требовали маркировать «фейковые новости» и дипфейки. С развитием технологии генеративных нейросетей регулятор решил не разрабатывать отдельное законодательство, посвященное ИИ-контенту. Вместо этого в Китае адаптировали нормативную базу с учетом новых вызовов. В 2023 году разработчиков и провайдеров ИИ-сервисов обязали маркировать весь контент, сгенерированный нейросетями. Такие компании, как Baidu, ByteDance и Alibaba Group, уже разработали свою маркировку.
Контент необходимо маркировать видимыми водяными знаками для пользователей, а также невидимыми символами, содержащими название ИИ-сервиса — их считывают машинными методами. Также в маркировку входят текстовые метаданные, включающие, в частности, имя ИИ-сервиса, время создания контента. В сценариях, где пользователь может запутаться, кто предоставляет услугу — человек или ИИ, должна добавляться текстовая подсказка «услуга предоставляется ИИ».
Альтернативный путь
В Китае и странах Евросоюза инициаторами маркировки контента выступает регулятор, но существует и альтернативный подход. Например, в США разработчики договорились добровольно маркировать контент своими силами, чтобы минимизировать возможные риски от недобросовестного использования их технологий и повысить доверие к генеративному ИИ со стороны пользователей. Летом 2023 года семь IT-компаний, включая OpenAI, Microsoft, Google, Meta, Amazon, Anthropic и Inflection, взяли на себя обязательство разработать технологию маркировки ИИ-контента. Планируется, что для этого будут использоваться метаданные и водяные знаки.Первые результаты уже есть. Например, нейросеть Meta AI научили добавлять в изображения видимые маркеры, невидимые водяные знаки и метаданные. По этим признакам сторонние платформы могут определять, сгенерирован ли контент нейросетью IT-гиганта. О добавлении водяных знаков и метаданных также объявила Open AI.
В целом в большинстве стран, включая Россию, разработчики уже пробуют создавать средства защиты от дипфейков и другого вредоносного контента, генерируемого с помощью ИИ. Компании осознают свою ответственность, объединяют силы и нередко действуют проактивно — решения, направленные на безопасность пользователей, появляются довольно быстро.