Заинтересованные в лицах: в России обсуждается закон о дипфейках
Из-за внедрения дипфейков в культурное поле люди могут забыть, что такое утрата, а молодые артисты — остаться невостребованными, раз можно сгенерировать кого угодно. На это обратили внимание во время заседания комитета ГД по культуре. Сейчас ведется разработка законопроекта, который бы мог регулировать понятие «дипфейк» в российском правовом поле, рассказали «Известиям» в Госдуме. Пока что возникающие споры можно регулировать авторским правом, если речь о кино или рекламе, но в законе нужно учесть этический аспект. В США проблему дипфейков в кино обсуждают уже давно — в прошлом году она послужила одной из причин для забастовки Гильдии актеров.
Сгенерировать Шульженко
На презентации «НМГ Кинопрокат», которая состоялась 26 марта в рамках программы Московского международного кинорынка и форума «Российский кинобизнес – 2024», продюсер Гевонд Андреасян заявил, что одним из героев ленты «Манюня: Приключения в Москве» станет дипфейк Юрия Никулина, скончавшегося в 1997 году. Эта новость совпала с заседанием комитета ГД по культуре с участием министра культуры РФ Ольги Любимовой — оно состоялось 28 марта.
Помимо других вопросов, на нем обсуждали и дипфейки. На этот вопрос обратила внимание председатель комитета ГД по культуре Елена Ямпольская, назвав идею снять Никулина в таком формате «тревожной». По ее мнению, дипфейки как явление могут привести к тому, что ныне живущие таланты окажутся не востребованы, а покойные артисты потеряют свою ценность, потому что ощущение утраты смажется.
— Появится странное чувство, что у нас нет потерь. Какие потери? Кого мы оплакиваем? Сейчас на сцену выйдет Клавдия Шульженко, сгенерированная, и споет нам, а до чего мы дойдем завтра? Завтра мы скажем, пускай Георгий Жуков принимает Парад Победы? Или пусть Иосиф Виссарионович выйдет к Мавзолею? Надо вовремя остановиться, мне кажется. Надо очень серьезно продумать эту тему, — сказала Ямпольская в ходе заседания.
Она отметила, что в комитете появилась идея не выдавать прокатное удостоверение (ПУ) фильмам, в которых ключевые роли отданы дипфейкам, и предположила, что качество задумки в результате будет «нижайшим». По словам главы комитета ГД по информполитике, информационным технологиям и связи Александра Хинштейна, не совсем корректно называть цифровое изображение в кино или компьютерной графике дипфейком, потому что слово «фейк» априори несет в себе негативное содержание.
— Фейк — это противоправное действие. Но не любое многомерное изображение человека является противоправным. И в творческих целях вполне себе может существовать. Однако так мы подходим к другой сфере законодательства — к авторскому праву, — объяснил «Известиям» Хинштейн.
Министр культуры РФ Ольга Любимова в ходе заседания согласилась с Ямпольской, напомнив, что семья Юрия Гагарина «запатентовала всё, что можно было запатентовать, чтобы защитить наследие». Она отметила, что каждый фильм, снятый по реальным событиям, «вызывал очень разную реакцию».
— Я с вами очень согласна! В этом смысле и я почувствовала себя каким-то ретроградом, когда увидела, что Никулина сыграет кукла. Не знаю, не говорила с Максимом Юрьевичем (сыном Юрия Никулина. — «Известия»), как он к этому относится, насколько он планирует следить за качеством этого проекта, — сказала Ольга Любимова.
Дипфейки в кино
Уже почти 40 лет кинематографисты всего мира используют ИИ. Сначала он был нужен для спецэффектов, но сейчас нейросеть может написать сценарий или омолодить актера — через эту процедуру «прошли» Патрик Стюарт и Иэн Маккаллен в третьих «Людях Икс», Уилл Смит в «Гемини» и Шон Янг в «Бегущем по лезвию 2049».
В США эта проблема уже давно обсуждается: в прошлом году одной из претензий Гильдии киноактеров и Американской федерации артистов телевидения и радио, устроивших забастовку, стало использование ИИ. Актеры требовали уважать их право на собственные образы, а звезда сериала «Во все тяжкие» Брайан Крэнстон, возглавивший бунт в Нью-Йорке, заявил: «Мы не позволим вам лишить нас права работать и зарабатывать на достойную жизнь».
В ходе заседания в ГД Ольга Любимова, говоря о Никулине, отметила, что «вряд ли нынешние технологии способны близко состязаться с тем даром, который был у него». Но дело в том, что нейросеть всё равно генерирует то, как актер мог бы исполнить роль, на основе исходных данных, например, видеоматериалов или того же кино. Кинокритик и телеведущий Давид Шнейдеров объясняет: это будет «Никулин в представлении нейросети — то, как предполагает она, он бы сыграл свою роль, будь он жив».
— Это ужасно. Если эта история не будет урегулирована, в мире просто может случиться кризис кинематографии. Будет гораздо проще взять на главную роль ушедшую легенду, чем искать реально существующего актера, — поделился мнением с «Известиями» Шнейдеров.
«Манюня» — не первый российский киноопыт работы с дипфейками. В 2022 году Первый канал с помощью искусственного интеллекта «оживил» Владислава Галкина ради восьмиминутной роли Григория Калтыгина в «Диверсанте». Продюсер и сценарист Андрей Золотарев отмечает, что смазывание восприятия смерти или невостребованности артистов не исключено, но это точно произойдет не завтра.
— Технически для продюсеров пока что не дешевле взять покойного Никулина в каст вместо реального актера. Это даже дороже. Но со временем технология, конечно, подешевеет. Так что это не проблема сегодняшнего дня. Это то, что нас может ждать в будущем, — сказал собеседник «Известий».
Согласно российскому Гражданскому кодексу, в случае смерти гражданина согласие на использование его изображения должны дать жена и дети. А если их нет — родители покойного. Именно поэтому для «Диверсанта» и для «Манюни» создатели обязаны заручиться согласием наследников образа — тогда всё будет законно. Но термина «дипфейк» в норме, конечно, не предусмотрено, и это становится еще одной проблемой.
«Известия» направили запросы в Минкультуры РФ и комитет ГД по культуре, а также продюсеру новой «Манюни» Сарику Андреасяну.
Буква закона
Дипфейк — проблема не только кинематографа, но и раздолье для мошенников. По словам управляющего партнера экспертной группы Veta Ильи Жарского, число видеодипфейков в интернете в 2023 году выросло в три раза, а аудиодипфейков — в восемь раз. В 2017 году число таких преступлений фиксировалось на уровне чуть менее 100 тыс. случаев, а в 2023 году юристы получили свыше 650 тыс. подобных кейсов. Их доля от общего числа преступлений составляет уже более 34%, отметил эксперт.
Летом «Известия» писали, что в российском правовом поле появится официальное понятие «дипфейк», а законопроект планировали внести в нижнюю палату в осеннюю сессию. Но прошел почти год с этого заявления, а закона еще нет.
— Законопроект находится на стадии предварительной подготовки. Говорить о сроках его внесения пока преждевременно. Это слишком тонкая, деликатная материя, которая с точки зрения законодательной никак не описана. Это целина, которую нам надо пройти, — сказал «Известиям» Александр Хинштейн.
В США после забастовок законопроект придумали быстро, но пока не приняли, — он называется No Fakes. В его основе лежит запрет на создание цифровой копии человека без его согласия. Во многом он подготовлен для актеров и певцов, потому что в нем есть исключения для новостей, рекламы и байопиков. По задумке, закон действует на протяжении всей жизни человека, а также 70 лет после его смерти. После истечения этого срока использовать образ будет нельзя — и даже у родственника не будет права это разрешить.
В России же привлекать к ответственности за дипфейки можно по статье 152.1 ГК РФ о незаконном использовании изображения гражданина (опять же если не было согласия со стороны человека или его родственников). А если говорить об уголовной ответственности, то есть статьи о мошенничестве (ст. 159 УК РФ) и о вымогательстве (ст. 163 УК РФ). Потерпевшими будут лица, понесшие материальный ущерб, — те, кто перевел деньги или взял кредит, комментирует юрист в области интеллектуальной собственности и авторского права Юлия Алехина.
— Если при изготовлении дипфейка использованы ваши фотографии из соцсетей, можно говорить о нарушении авторских прав. А конкретно — о переработке фотографии и ее воспроизведении: доведении до всеобщего сведения, например, через публикацию в интернете. За каждое из этих действий можно взыскать компенсацию от 10 тыс. до 5 млн рублей, — сказала юрист.
Глава компании «Онлайн Патент» Алина Акиншина подтвердила: использование в процессе обучения нейросети фото без разрешения автора и изображенного на ней человека — это нарушение авторских прав на снимок и незаконное использование изображения. То есть если для обучения нейросети была использована речь определенного диктора, а на ее основе был сгенерирован аналогичный голос, — это нарушение прав исполнителя.
— Разовое взыскание компенсации за нарушение прав не возместит артисту утрату будущих доходов от озвучивания, а новые записи, сделанные нейросетью, не могут быть напрямую признаны производными произведениями. Одним из путей борьбы может стать защита голоса и изображения человека в контексте законодательства о персональных данных, которое предусматривает намного более жесткие меры ответственности. Но пока таких прецедентов в российской практике не было, — сказала эксперт.
Вот и получается, что в случае с Галкиным и Никулиным (и потенциальными будущими кейсами в кино) необходимо согласие на использование, так как образ покойного становится предметом авторского права. Создатели обоих проектов уверяют, что получили согласие на использование образа, а значит, ничего нелегального здесь нет.
Хорошо, что в ГД в принципе задались этим вопросом и обсуждают регулировку понятия «дипфейк» как в повседневном, так и в культурном правовом поле, отмечают кинематографисты. Но всё же руководствоваться исключительно запретительными методами и отрекаться от всего нового вряд ли будет продуктивно для развития российского кино, считают эксперты.