Преступление ИИ наказание: нейросети научились предсказывать нападения
Ученые создали модель искусственного интеллекта (ИИ), которая может предсказывать преступления, — точность ее прогнозов превышает 82%. Система учится на основе ранних видеозаписей, набора поведенческих факторов и статистики, однако специалисты отмечают, что цена ошибок подобных нейросетей может быть очень высока. Подробности о том, какие перспективы и риски есть у ИИ, способного предсказывать преступления, читайте в материале «Известий».
Игра на опережение
О том, что ученые из Южнокорейского научно-исследовательского института электроники и телекоммуникаций (ETRI) создали модель ИИ, способную предсказывать преступления, сообщило издание Tech Xplore. Новая система, названная Dejaview, обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики.
Она способна анализировать видеозаписи и в реальном времени оценивать риски совершения преступлений, а также прогнозировать рост уровня преступности, оценивая множество факторов. В частности, нейросеть изучает поведение людей в общественных местах, сравнивая его с поведением преступников. При этом Dejaview различает виды проступков и нарушений закона.
Как заявили специалисты ETRI, в ходе испытаний новая модель предсказала несколько преступлений с точностью более 82%. При этом одна из ее особенностей — это способность глубоко анализировать поведение конкретного человека и контролировать его действия для предотвращения рецидивов. Запустить коммерческую версию Dejaview разработчики системы намерены уже в конце 2025 года.
— Систему, в основе которой лежит ИИ, стоит рассматривать как средство автоматизации рутинных действий сотрудника правопорядка, — говорит в беседе с «Известиями» разработчик технологий машинного обучения R-Vision Анастасия Перкова. — Работа такого инструмента, к примеру, могла бы помочь в оперативном наблюдении за бывшими заключенными или людьми, находящимися под надзором, для снижения процента рецидивов преступлений.
Российские перспективы
Сегодня в России технологии на основе ИИ уже используются для того, чтобы обеспечивать безопасность в общественных местах. По словам руководителя направления Т1 ИИ (Холдинг Т1) Сергея Голицына, такие системы умеют распознавать оружие и опасные объекты, а затем отправляют оповещения ответственным лицам.
— Умные системы видеоаналитики могут распознавать опасное поведение людей и оценивать риски совершения хулиганских или преступных действий, — рассказывает собеседник «Известий». — Однако при созданиях комплексных сетей контроля должны соблюдаться два важных фактора.
К этим факторам Сергей Голицын относит, во-первых, соблюдение законодательства о персональных данных, которое регулирует сбор, хранение и обработку информации, а во-вторых — эффективность подобных систем, которые должны применяться в общественно важных местах. При этом максимальный эффект можно получить от так называемой мультимодальности — когда проводится анализ не только видеопотока, но и других аспектов, в том числе поведения объекта наблюдения в соцсетях.
По мнению Анастасии Перковой, системы, аналогичные разработке ETRI, в России должны применяться лишь при наличии проработанной нормативно-правовой базы. Кроме того, как отмечает эксперт, важно учитывать, что на данный момент безопасность систем на основе ИИ всё еще является «серой» зоной с точки зрения правового регулирования.
— Тем не менее системы распознавания лиц в общественных местах с каждым годом внедряются в большем количестве регионов, и в ближайшем будущем их могут ждать подобные пути развития, — считает специалист.
Средства обучения
Как показывает опыт южнокорейских ученых, для создания систем, способных прогнозировать преступления, необходимо большое количество учебных материалов. Как отмечает в беседе с «Известиями» специалист по информационной безопасности компании F.A.C.C.T. Николай Степанов, сегодня в них нет недостатка: в больших городах каждый шаг человека между домом и работой попадает на камеры, каждый запрос в интернете сначала проходит через провайдера, а каждая покупка в магазине остается записью в банке.
— Сложность кроется в разном уровне цифровизации: к примеру, в малых городах может не быть камер с распознаванием лиц, а также множества поставщиков услуг, что затрудняет выстраивание единой системы мониторинга, — говорит эксперт.
Анастасия Перкова дополняет, что важным источником данных для систем прогнозирования преступлений могут стать исторические данные о нарушениях закона: архивы медиафайлов (например, записи видеокамер), а также отчеты с описанием инцидентов, включая информацию о раскрытых и нераскрытых преступлениях.
Впрочем, встает важный вопрос, насколько правоохранительные органы захотят делиться подобной информацией с разработчиками. Кроме того, любые нейросети требуют обязательного сопровождения квалифицированных специалистов для проверки и поддержания корректной работы, а также дополнительного обучения для повышения качества распознавания.
— В случае с прогнозированием преступлений модели обучаются и работают с чувствительной информацией, включая персональные данные подозреваемых или злоумышленников, записи видеокамер с лицами и голосовые сообщения, — рассказывает специалист. — Исходя из этого, все связанные процессы должны быть защищены не только с помощью специализированных технических средств и организационных мер защиты, но и со стороны правоохранительных органов.
Николай Степанов указывает на то, что главные вопросы при работе подобных систем — кто именно будет их обучать и что следует считать опасным поведением. Такой механизм в любом случае потребует большой юридической работы и обновления законодательства. При этом, как и на любой платформе, в нем могут быть ошибки.
Обратная сторона
Главным вызовом при внедрении систем прогнозирования преступлений могут стать не сами технологии, а чрезмерное доверие к ним людей, считает Сергей Голицын. По словам эксперта, важно понимать, что камеры могут затрагивать только часть поведенческих паттернов человека. Также следует обратить внимание на датасеты, на которых обучаются подобные модели искусственного интеллекта.
— Есть некоторые примеры асоциального поведения, которые являются не признаком преступления, а особенностью [личности], — говорит в беседе с «Известиями» директор по управлению сервисами Angara Security Павел Покровский. — Тут можно вспомнить такое состояние, как синдром Туретта, когда человек ведет себя асоциально: к примеру, публично выражается нецензурно, что само по себе является административным правонарушением.
Как отмечает специалист, синдром Туретта — это психиатрический диагноз, заболевание. Действия больного не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе. В свою очередь, Анастасия Перкова указывает на такую проблему, как риск предвзятости данных для обучения.
Дело в том, что исторические данные о преступлениях могут быть распределены неравномерно по характеру или какому-либо признаку участников, что может привести к нарушениям правовых и этических норм. Другая опасность — так называемые adversarial attacks, вид злоумышленного воздействия на входные данные моделей на основе ИИ.
— Это критично при работе с данными о преступлениях — злоумышленник может повлиять на ход расследования инцидента путем манипуляций с входными данными ИИ-системы, — подчеркивает Анастасия Перкова.
По мнению Павла Покровского, сегодня технологии прогнозирования преступлений на основе ИИ опережают организационную и юридическую стороны вопроса. И хотя технически такое прогнозирование уже становится реальностью, пока остаются без ответа вопросы о том, кто, как и каким образом будет интерпретировать заключения нейросетей. А это очень важно, поскольку от выводов ИИ в контексте правоохранительной работы порой могут зависеть судьбы людей.