Автомат на службе закона: суды привлекли к работе искусственный интеллект

Использование ИИ в сфере госуправления в России законодательно пока не регламентируется
Дмитрий Алексеев
Фото: ИЗВЕСТИЯ/Константин Кокошкин

В России к процессу подготовки и вынесения судебных решений начали привлекать искусственный интеллект. Конечно, система не выносит судебных приказов: она готовит документы и проверяет реквизиты, экономя время судей. Эксперты уверены: использование систем алгоритмизированного принятия решений, в том числе в сфере государственного управления, — это шаг в будущее, который позволит разгрузить органы власти, снизить бюджетные затраты и минимизировать вероятность ошибки. Подробности — в материале «Известий».

Белгородский пилот

В России к работе над вынесением судебных решений стали привлекать искусственный интеллект (ИИ). Пилотный проект заработал в Белгородской области: там к нескольким участкам мировых судей подключили ИИ для формирования судебных приказов по взысканию задолженностей по имущественным, земельным и транспортным налогам, рассказали «Известиям» в Совете судей России (ССР). Разумеется, система не выносит судебный приказ сама, а лишь готовит документы и проверяет реквизиты, чтобы экономить время людей. Применение технологии слабого искусственного интеллекта в организационной деятельности суда позволяет облегчить рутинную работу судей и работников аппарата, говорят в ССР.

Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

В Совете судей России осознают, что задачи, которые можно делегировать искусственному разуму, имеют свои границы. ИИ может оценивать обстоятельства дела только с точки зрения формальной логики, и именно поэтому он никогда до конца не сможет понять фабулу дела: во многих делах, например семейных или уголовных, очень много иррационального, а не формально-логического. По мнению ССР, искусственный интеллект не будет способен применять аналогию закона или аналогию права. У ИИ есть свои законы и свой язык, и без их понимания решения нейросетей оказались бы непредсказуемыми, признают в ССР, поэтому достойной заменой судье робот не станет.

— В белгородском эксперименте речь идет о взыскании денежных средств путем вынесения судебных приказов — это так называемый бесспорный порядок взыскания, — разъясняет декан Высшей школы правоведения Института государственной службы и управления РАНХиГС Олег Зайцев. — Это экономия времени, бюджетных средств и в конечном счете интеллектуальных ресурсов судьи для вынесения других решений. Что же до применения ИИ в спорных правоотношениях, то пока мы к этому еще не готовы. Хотя технологии вполне могут использоваться судом при обобщении правоприменительной практики по конкретным статьям. В этом отношении искусственный интеллект можно расценивать как замену помощника юриста. И было бы неплохо, если бы стороны (не суд) использовали искусственный интеллект для участия в состязательном процессе.

По мнению руководителя аппарата Ассоциации юристов России (АЮР) Дмитрия Липина, пилотный проект в Белгородской области ни в коем случае не скажется на качестве и законности судопроизводства. При этом он позволит мировым судьям не тратить львиную долю рабочего времени на рутину, что может в перспективе серьезно разгрузить судебную систему в общенациональном масштабе.

— На сегодняшний день в РФ использование искусственного интеллекта в государственной сфере пока еще находится за рамками действующего законодательства, поэтому очень важно обратить внимание на то, что органы государственной власти, в том числе судебной, пока не применяют системы полного автоматического принятия решений, — уточняет представитель АЮР.

Завлабораторией искусственного интеллекта, нейротехнологий и бизнес-аналитики РЭУ им. Г.В. Плеханова Тимур Садыков добавляет, что сюжет использования технологий искусственного интеллекта в судебном делопроизводстве уже на протяжении длительного времени будоражит воображение общественности.

— Но судебная практика использования интеллектуальных компьютерных технологий для анализа данных — в первую очередь финансовых — бесконечно далека от антиутопической картинки, когда бесстрастный синтетический разум хладнокровно выносит приговоры подсудимым, — говорит Садыков. — Пока что ИИ в интересах государства берет на себя рутинную работу по сопоставлению числовых данных о налогах, задолженностях и вычетах, а результатом его деятельности в большинстве случаев является комплект текстовых файлов с проектами документов, которые в дальнейшем читаются, при необходимости исправляются и подписываются сотрудниками судов.

Фото: Depositphotos.com/AndreyPopov

Член правления «Экопси Текнолоджис» Юрий Шатров отмечает, что кейс в Белгородской области пока еще рано называть чистым ИИ, а подобные разработки используются во многих отраслях — в HR, в управлении проектами, в бухгалтерии.

— А то, что автоматизация добралась до судов — позитивный знак. Это говорит о том, что юридическая система интересуется новыми технологиями и стремится сделать работу судов более эффективной, — подчеркнул эксперт.

— Пока же судьи не позволят ИИ принимать или даже предлагать решения, — говорит Шатров. — Судебные дела нагружены этически, а люди готовы доверять в таких вопросах другим людям, но не машине. Увы, но до ИИ, разум которого по сложности подобен человеческому, нам еще очень далеко. Плюс эта сфера постепенно регламентируется. Общество не даст появиться слишком умному и свободному ИИ.

На данном этапе эволюции ИИ допускает промахи, потому в таких областях, как суды, медицина и т.д., применять эту технологию бесконтрольно не рекомендуется из-за высокой цены ошибки, подчеркивает руководитель отдела роботизации компании «Т1 Интеграция» Михаил Соболев.

— Сегодня применение ИИ возможно либо только под контролем, в качестве инструмента для анализа и поддержки принятия решения человеком, либо в областях, в которых ошибки легко исправляются. Как и при любой другой автоматизации, существует риск отказа какой-то части системы, но эти вопросы можно решить при помощи продуманного резервирования, — отмечает Соболев.

«В ближайшие десятилетия машина не научится думать за нас»

В настоящее время пока еще не существует искусственного интеллекта в том виде, в котором его предсказывали ученые прошлого, объясняет президент и CEO компании «ВС Лаб» Дмитрий Васильев. Он полагает, что настоящий и где-то даже угрожающий людям «сильный искусственный интеллект», возникнет только тогда, когда ИИ сможет самостоятельно идентифицировать себя.

— Пока что роботизация организационных процессов имеет очень мало общего с искусственным интеллектом в умных устройствах, — говорит глава «ВС Лаб». — В случае с белгородским проектом робот способен зайти в одну информационную систему, найти должника по транспортному налогу, в другой системе уточнить его ИНН и адрес прописки, проверить необходимую информацию в третьей системе, открыть шаблон судебного приказа и вставить в него реквизиты должника, после чего отправить по электронной почте сформированный приказ сотруднику суда. Вместо ручного формирования одного файла приказа, вместо условных 40 минут, сотрудник тратит лишь пять минут на его проверку. Также это сильно сокращает возможность ошибки сотрудника, например, с неправильным написанием фамилии или адреса.

Сегодня, продолжает президент «ВС Лаб», специалисты учатся иметь дело только со «слабым ИИ». По его мнению, в ближайшие десятилетия машина не научится думать за нас. Однако алгоритмы в «умных устройствах» с каждым годом становятся всё сложнее, а сами они получают всё большее распространение, отмечает ИТ-инженер.

— Развитие ИИ также поднимет и новые этические и правовые вопросы, — говорит Васильев. — Например, кто будет нести ответственность за ДТП с участием беспилотного участника дорожного движения? Или, например, что делать с дроном, который по ошибке причинил вред человеку? Уничтожить? Разобрать его на запчасти? А если это будет «Робопес», которого обожают ваши дети? В любом случае можно с уверенностью констатировать, что нас ждет очень интересное будущее.

По прогнозам исследовательской компании Gartner, к 2022 году результаты работы 85% ИИ-проектов будут содержать ошибки из-за некачественных данных, погрешностей в алгоритмах или предубеждений разработчиков. Но, несмотря на определенную степень автономности систем ИИ, именно человек является основой для безопасного функционирования ИИ, подчеркивает директор РАЭК, руководитель проектной команды хакатонов по ИИ Сергей Плуготаренко.

— Иными словами, «слабый ИИ» не сам восстанет против человека, а алгоритмы, заложенные разработчиками, могут приводить к негативным последствиям для личности, общества и государства, — отмечает Плуготаренко. — Для предотвращения ошибок необходимы применение технических средств, поощрение этичного поведения внутри компаний, создание корпоративных органов контроля за реализацией принципов ответственного ИИ, осознание разработчиками собственной ответственности за работу созданных ими ИИ-систем.

Фото: Depositphotos.com/HayDmitriy

В сфере применения ИИ чрезвычайно важны правовые и этические аспекты, в том числе вопросы с ответственностью за принятые решения, предотвращением дискриминационных решений и так далее, акцентирует директор РАЭК.

Не случайно принятие полностью автоматизированных решений в отношении физических лиц запрещено положениями Федерального закона о персональных данных 152-ФЗ. Аналогичные меры есть и за рубежом. К примеру, в ЕС принята Хартия об использовании ИИ в судебных системах, где прописан целый комплекс мер, которые необходимо предпринять, чтобы минимизировать риски такого использования. А в проекте подхода к регулированию ИИ, представленном Еврокомиссией в апреле 2021 года, использование систем ИИ в судебной деятельности отнесено к числу высокорисковых, и на такое использование налагается ряд достаточно жестких требований.

Плюсы ИИ очевидны — рабочие процессы будут быстрее и станут дешевле. Систему с ИИ можно так настроить, что она будет среди всего потока случаев выбирать те, в которых «всё очевидно», и по таким делам формировать комплект документов, отмечает сооснователь и директор по развитию RDL by red_mad_robot Юрий Чайников.

— Например, крупные банки в РФ уже несколько лет экспериментируют с системами автоматического генерирования претензий к неплательщикам, — рассказывает он.

— Со временем качество решений, текстов, которые порождают системы с ИИ, растет, и, как уже было со многими областями, например в шахматах и игре в го, оно станет лучше человеческого, — убежден Чайников. — Растет «качество» — в обычном, человеческом смысле, уменьшается доля решений, которые подвергаются обжалованию и пересмотру при повторном рассмотрении.

О недочетах в работе ИИ не понаслышке знают автомобилисты, которые подчас по ошибке получают штрафы с камер: в системе для распознавания госномеров тоже используются технологии ИИ, уточняет директор «Сеуслаб» Евгений Рабчевский. Общество относится к этому спокойно, ошибки обжалуются гражданами в ГИБДД при наличии оснований. В любом случае необходим определенный баланс между функциями, которые может исполнять машина, и задачами, которые пока по плечу только человеку.

— Пока системы ИИ не собираются наделить правами и обязанностями граждан, общественных или государственных институтов, мы можем спать спокойно, — заключил Рабчевский.