Перейти к основному содержанию
Реклама
Прямой эфир
Экономика
Уровень безработицы в Москве достиг исторического минимума в 0,9%
Армия
ВСУ за сутки потеряли до 320 боевиков на курском направлении
Происшествия
Губернатор Брянской области сообщил об уничтожении 11 дронов ВСУ над регионом
Мир
Рютте призвал страны НАТО тратить на оборону больше 2% ВВП
Мир
Парламент Абхазии принял отставку Бжании с поста президента
Мир
Россия согласилась с пунктом декларации G20 об урегулировании конфликта на Украине
Общество
Суд продлил арест обвиняемым в исполнении теракта в «Крокусе» до 22 февраля 
Авто
Глава АвтоВАЗа допустил подорожание автомобилей Lada в 2025 году
Армия
ВС России поразили пункт управления дронами и подстанцию в Херсонской области
Экономика
Эксперт предрек рост цен на уран в США при ограничениях на его поставки из РФ
Мир
Лавров назвал решение Шольца об отказе от поставок Taurus Украине ответственным
Авто
Кроссовер Jaecoo J5 появится в России в начале 2025 года
Экономика
Набиуллина допустила начало периода снижения ключевой ставки в 2025 году
Мир
Сийярто назвал решения Байдена ведущими к мировой войне
Экономика
Транспортный коридор Север – Юг пройдет через Афганистан в Пакистан и Китай
Экономика
Курс доллара превысил 100 рублей впервые с октября 2023 года
Мир
Лавров заявил о строгой приверженности РФ недопущению ядерной войны
Армия
Вертолеты ВС РФ нанесли удар по бронетехнике ВСУ в курском приграничье
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

В Совфеде обсудили законодательное регулирование искусственного интеллекта в России. Вопрос, как относиться к ИИ, что именно загонять в законодательные рамки и насколько жесткие нормы принимать в отношении искусственного интеллекта, пока не изведан и требует новых решений. Поэтому законодатели призывают одновременно вносить главные принципы работы с ИИ в Цифровой кодекс и постепенно регулировать особенно чувствительные моменты, связанные с нейросетями. А разработчики призывают использовать возможности саморегулирования отрасли. Подробности — в материале «Известий».

Какие опасности несет ИИ

Председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков на заседании в Совфеде подчеркнул, что не совсем правильно говорить о «законодательном регулировании искусственного интеллекта». Скорее речь идет о регулировании применения ИИ и его последствиях.

ИИ
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

Говоря о рисках использования ИИ, Алексей Пушков указал на различные противоправные действия на нейросетевой технологической основе, например телефонное мошенничество. Кроме того, искусственный интеллект становится идеологическим инструментом — с его помощью искажается информация, в том числе историческая правда, продолжает сенатор.

— Надо понимать, что ИИ работает в рамках запроса, который делается человеком, на основе заложенных в него данных и реагирует в первую очередь на общественный запрос, — подчеркнул он. — Поэтому, например, недавно Gemini 1.5 от Google в ответ на поиск изображения Людовика XIV продемонстрировал короля Франции чернокожим — просто потому, что такова сейчас повестка в западном обществе.

По его словам, в генеративные модели западных компаний заложено мировоззрение, которое отличается от российского.

Мужчина
Фото: ИЗВЕСТИЯ/Павел Волков

Третий большой блок, который выделяет Алексей Пушков, — это тема соблюдения прав человека: наблюдение за ним, распознавание лица, причем следят за человеком те, кто на это вовсе не уполномочен.

Как регулируют ИИ в других странах

Алексей Пушков призвал изучить опыт других стран по регулированию нейросетевых технологий, в том числе ЕС, где недавно вышел акт об использовании искусственного интеллекта.

Первый зампред комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова на заседании отметила, что ЕС продемонстрировал жесткий подход к регулированию ИИ: фактически это централизованный контроль всех стадий разработки и применения генеративных нейросетей с тщательным их тестированием перед использованием.

Провода
Фото: ИЗВЕСТИЯ/Анна Селина

В США, Великобритании и Японии, напротив, предусмотрен минимальный контроль ИИ, говорит она. Нейтральное регулирование, когда законодатель находит баланс между развитием и безопасностью с точечным характером ограничений, использует Китай. Ирина Рукавишникова считает, что именно этот вариант будет лучшим для России.

Как предлагают регулировать ИИ в России

Ирина Рукавишникова призывает к применению риск-ориентированного подхода к генерированию искусственного интеллекта. Для этого все сферы, в которых нейросети могут применяться, предлагается разделить на четыре группы.

Первая группа — с недопустимым риском применения ИИ: например, невозможно выставление искусственным интеллектом окончательных медицинских диагнозов, вынесение судебных решений и т.д. Вторая группа — с высоким риском. Сюда отнесены образование, инфраструктура транспорта и т.д. Третья группа — сферы с ограниченным риском, где использование ИИ возможно при условии, что люди будут знать, что они взаимодействуют с нейросетью. И четвертая группа — это минимальный риск и свободное использование ИИ: например, в видеоиграх, в программах для фильтрации спама и т.д.

Клавиатура
Фото: ИЗВЕСТИЯ/Артем Коротаев

Такой подход, сообщила Рукавишникова, будет отражен в проекте будущего Цифрового кодекса, который сейчас разрабатывается.

Сенатор также полагает, что нужно обязательно принимать закон о маркировке контента, произведенного с помощью искусственного интеллекта, но с условием введения ответственности за его неисполнение.

При этом Рукавишникова подчеркивает, что одновременно необходимо стимулировать отечественных разработчиков систем ИИ.

Юридический консультант, создатель LegalTech-решений Виктор Наумов на заседании подчеркнул, что важно отразить возможность отказа человека от цифровых технологий — например, чтобы на портале «Госуслуг» можно было воспользоваться не роботом, а услугами живого специалиста.

ИИ
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

— Нам нужно право на коммуникацию человека с человеком, — заметил он. — Мы же сейчас привыкаем к тому, что человек человеку не нужен.

Какие точечные изменения могут внести

В свою очередь, сенатор Артем Шейкин заметил, что Цифровой кодекс — это фундаментальный документ, но важно выделить несколько сфер с самыми очевидными злоупотреблениями искусственным интеллектом и реагировать на эти вызовы.

— С помощью поправок мы можем ограничить какие-то потенциальные злоупотребления: например, ограничить продажу сим-карт, чтобы пресечь огромное количество мошеннических звонков, — сказал он.

Управляющий партнер юридической компании «Воин-групп», сертифицированный специалист в области правового регулирования ИИ Полина Толкунова в беседе с «Известиями» заметила, что уже сейчас есть судебная практика по ряду ситуаций со злоупотреблением нейросетевыми технологиями. Например, в суде определялась принадлежность авторских прав на произведения, созданных с использованием технологии ИИ, на основании существующих норм Гражданского кодекса РФ.

— Но технологии ИИ применяются и в таких серьезных направлениях, как здравоохранение, медицина, при ведении военных действий и т.д., — заметила юрист. — Поэтому наиболее оптимальным вариантом правового регулирования считаю внесение соответствующих изменений в существующие федеральные законы и постепенное создание отраслевого федерального законодательства. В первую очередь необходимо регулировать механизмы и разграничение ответственности при использовании технологий ИИ в различных сферах и направлениях, а также вопросы конфиденциальности и защиты данных.

При этом создание рамочного закона она называет невозможным, так как технологии ИИ развиваются беспрецедентно быстро. Полина Толкунова добавила, что сейчас уже есть закрепленное в федеральном законодательстве понятие ИИ: в законе 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в Москве...», однако назвала его не очень удачным.

Руководитель юридической практики Научно-технического центра Роскомнадзора Станислав Махортов на заседании также отметил, что уже сейчас важно работать с действующим законодательством, причем не все его правки будут прямо связаны с нейросетями. В этом контексте на заседании говорили о законе о защите персональных данных, который подразумевает большие штрафы за утечку информации о гражданах страны, используемой затем в мошеннических целях. ИИ в этой ситуации выступает лишь механизмом, который используют злоумышленники.

Робот
Фото: ИЗВЕСТИЯ/Павел Бедняков

— Безусловно, есть зоны регулирования, которые могут быть напрямую не связаны с искусственным интеллектом, — сказал сенатор Алексей Пушков «Известиям». — Однако, понимая, что заблокировать всё незаконное распространение персональных данных невозможно, мы должны одновременно вводить ответственность, например, и для операторов искусственного интеллекта, создавая таким образом несколько «фильтров» для минимизации злоупотребления ИИ.

Главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ Роман Душкин на заседании подчеркнул, что для этих целей важнее даже не принятие того или иного закона, а цифровой ликбез для граждан страны, чтобы каждый человек знал, что такое ИИ, и мог определять, что перед ним робот, дипфейк и т.д.

Отрасль — за саморегулирование

В отрасли настороженно относятся к вопросу законодательного ограничения сферы искусственного интеллекта. Роман Душкин в разговоре с «Известиями» признался, что является сторонником мягкого подхода в регулировании.

Клавиатура
Фото: ИЗВЕСТИЯ/Алексей Майшев

— На разработку такого мощного нормативного документа, как Цифровой кодекс, уйдут годы, а за это время технологии шагнут далеко вперед, — сказал он. — Либо кодекс станет документом с совершенно общими формулировками, но пустым с точки зрения правоприменительной практики. Он должен будет обрастать огромным количеством подзаконных актов. В то же время добропорядочным гражданам закон, по сути, и так не нужен, а злоумышленникам на него плевать. Запрещать же или сильно ограничивать сам инструмент ИИ при этом нельзя: это будет выстрел себе в ногу.

В «Яндексе» также заявили «Известиям», что в законодательном регулировании ИИ важно «не опережать действительность и отвечать на реальные риски, а не на фобии».

— Как и в любой другой сфере, нужно опираться на практику применения технологий, которая только начинает накапливаться, — отметили в пресс-службе компании. — Основные вопросы, которые сейчас предъявляются к ИИ, касаются этики и ответственного использования технологий — как разработчиками, так и пользователями. Бизнес осознает это и предлагает меры саморегулирования — инициирует кодексы, декларации и отраслевые стандарты.

В компании рассказали, что недавно «Яндекс» вместе с другими участниками Альянса в сфере искусственного интеллекта подписал декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Такой подход, уверены в компании, позволит продолжать развивать технологии в благоприятной и безопасной среде, а пользователям — получать максимально полезные сервисы.

Президент ассоциации разработчиков программного обеспечения «Руссофт» Валентин Макаров также предостерегает от чрезмерного регулирования этой технологической отрасли.

Телефон
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

— Опыт ЕС показывает, что принятие сейчас строгого нормативного регулирования ИИ, когда мы еще не знаем, как и куда он развивается, не будет правильным, — сказал он «Известиям». — Думать о вопросах безопасности при применении ИИ, конечно, нужно. И нужно запускать процесс саморегулирования. Важно эффективно работать над техническим регулированием, формируя стандарты, а этот процесс поневоле будет приводить к соответствующему нормативному регулированию.

В то же время технический директор DIS Group Олег Гиацинтов поддерживает мнение о том, что оптимальный подход заключается в сочетании рамочного закона с точечными мерами. Он считает, что в законодательстве должно появиться четкое и универсальное определение искусственного интеллекта, а также основные принципы его использования, обеспечивающие ответственное и безопасное использование ИИ с учетом этических и правовых норм: прозрачности, отчетности, недискриминации, защиты конфиденциальности и т.д.

Вице-президент «Лаборатории Касперского» по связям с государственными органами Юлия Шлычкова в беседе с «Известиями» называла важным разработку и утверждение стандарта по безопасной разработке систем с использованием ИИ, на основании которого впоследствии можно выработать требования к сертификации процессов безопасной разработки. Она также называет эффективным инструментом маркировку контента и нормативное регулирование в области персональных данных.

В «Лаборатории Касперского» также выступили за создание Единого центра мониторинга угроз развития технологий искусственного интеллекта, который не только будет изучать угрозы, но и оповещать о них всех разработчиков ПО, создаст единую базу знаний об угрозах в области ИИ с методологическими описаниями.

Читайте также
Прямой эфир