Чужим умом: как хакеры используют искусственный интеллект для киберпреступлений

Нейросети способны автоматизировать процессы взлома в Сети
Дмитрий Булгаков
Фото: Getty Images

Стремительное развитие искусственного интеллекта (ИИ) несет в себе потенциальные опасности для интернет-пользователей — об этом предупредили эксперты. В частности, при помощи ИИ киберпреступники могут создавать специальные программы, в автоматическом режиме подбирающие пароли к чужим аккаунтам. Подробности о том, как хакеры используют искусственный интеллект и какие риски несет в себе их союз, — в материале «Известий».

Опасный инструмент

Сегодня искусственный интеллект является ценным подспорьем в любой работе: он использует готовые данные и решения, а при условии правильного обучения может быть хорошим консультантом. Однако сам по себе ИИ абсолютно беспомощен — он становится мощным инструментом только в умелых руках, говорит в беседе с «Известиями» главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников.

— Как именно применять искусственный интеллект, всецело зависит от опыта и знаний хакера, — объясняет эксперт. — Чем умнее хакер, тем большее пространство возможностей он себе создает.

По словам руководителя направления компьютерной криминалистики Angara Security Никиты Леокумовича, многие специалисты в области кибербезопасности считают, что использование нейросетей позволит снизить минимальный порог вхождения по знаниям в сферу киберпреступлений. Якобы хакерам больше не будет нужно использовать сторонние продукты и обладать специальными знаниями.

Впрочем, эксперт отмечает, что это не совсем так: обеспечение «правильной работы» вредоносного программного обеспечения (ПО) в любом случае потребует знаний от оператора — а значит, учиться всё равно придется. Тем не менее использование ИИ действительно позволяет киберпреступникам проводить атаки с меньшими затратами.

— Хакеры могут использовать ИИ для автоматизации процессов взлома, анализа уязвимостей или поиска новых целей для атак, — объясняет эксперт в сфере кибербезопасности компании «Вебмониторэкс» Екатерина Старостина. — Интеллектуальные алгоритмы и машинное обучение позволяют хакерам работать более эффективно и быстро обнаруживать уязвимости или проникать в системы.

Автоматизация взлома

Не исключено, что в обозримом будущем благодаря использованию ИИ станет возможен взлом части сервисов путем нажатия всего одной кнопки — такой прогноз в беседе с «Известиями» дает Дмитрий Овчинников. По словам эксперта, уже сейчас существует дистрибутив ОС Kali Linux, который содержит в себе множество инструментов для взлома паролей и проведения пентестов (тестирования на проникновение).

— Часть из этих инструментов не требует особой подготовки или специальных навыков, а потому может применяться даже начинающими хакерами, — отмечает эксперт.

Наибольший интерес для киберпреступников ИИ представляет именно как средство автоматизации процессов взлома. Сегодня хакеры сами проводят разведку по открытым источникам информации и составляют таблицы паролей, которые могли применять пользователи. Но применение нейросетей открывает для киберпреступников совершенно новые перспективы.

Фото: Global Look Press/ZB/Jens Büttner

Дмитрий Овчинников приводит пример: хакер дает искусственному интеллекту адрес сайта и имя пользователя, а тот начинает вести самостоятельный сбор данных в Сети. Среди прочего ИИ ищет почтовые ящики пользователя, номера его автомобилей, проверяет личные данные в социальных сетях, устанавливает родственные связи, выясняет даты рождения детей и супругов — и на основе этой информации предлагает данные для перебора пароля.

— Такое использование искусственного интеллекта будет создавать очень большие риски для пользователей, — отмечает специалист.

Впрочем, Никита Леокумович объясняет, что нейросеть действительно может ускорить процесс взлома, но только если выполнены два условия: во-первых, она хорошо обучена, а во-вторых, пароль простой — то есть состоит только из цифр или букв, содержит менее 10 символов, а также включает персональные данные самого пользователя или его близких. Если же пароль по-настоящему сложный, состоящий из строчных и заглавных букв, цифр и символов, то даже обученная нейросеть потратит на его взлом несколько миллиардов лет.

Индивидуальный подход

Между тем еще один важный аспект применения ИИ киберпреступниками связан с индивидуальным подходом к потенциальным жертвам. По словам Никиты Леокумовича, благодаря нейросетям хакерам больше не нужно привлекать OSINT-специалистов и психологов для разведки и разбора аудитории, единичной персоны или компании, которые являются целью атак. С этим легко справится нейросеть, просканировав социальные сети и поисковые выдачи.

— Результатом сканирования будет персонализированное фишинговое письмо, которое в том числе может содержать смонтированные фото- и видеоматериалы (дипфейки), кажущиеся настоящими непрофессионалам, — рассказывает собеседник «Известий».

Фото: ИЗВЕСТИЯ/Павел Волков

Руководитель направления мониторинга и аналитики Innostage Ксения Рысаева согласна с тем, что нейросети позволяют модернизировать способы проведения DDoS-атак или фишинговых рассылок. К примеру, при помощи искусственного интеллекта можно анализировать новостные повестки различных регионов и затем использовать их при генерации текстов для фишинговой рассылки.

ИИ также помогает хакерам создавать привлекательный контент для жертв, используя методы персонализации и анализа данных. Кроме того, искусственный интеллект может использоваться для конструирования поддельных профилей в социальных сетях — при помощи них киберпреступники обманывают пользователей и получают доступ к их конфиденциальным данным.

Впрочем, Дмитрий Овчинников подчеркивает, что привлекательность контента зависит только от вкусовых особенностей пользователей, которые формируются масс-медиа, а лучше всего человеческие эмоции и «крючки» может понять только живой человек. Что касается искусственного интеллекта, то он способен только компоновать и переделывать уже созданное, но не творить что-то новое.

— На мой взгляд, такой творческий процесс, как создание привлекательного контента для пользователей, в средней перспективе будет недоступен для ИИ, — считает специалист. — Но в будущем, по мере роста обучения и снижения общего вкусового уровня пользователей, искусственный интеллект может быть использован для этого, в том числе и киберпреступниками.

Цифровое отравление

Третье направление, в котором киберпреступники могут использовать ИИ, — это атаки типа «отравление данных» (data poisoning). По словам Дмитрия Овчинникова, они нацелены на разрушение целостности данных, создание подлогов и другие манипуляции. Подобные атаки используются в ситуациях, когда есть некий массив данных, который можно быстро обработать, выявить зависимости, а затем сгенерировать новые подложные данные, в которых будет трудно обнаружить аномалии.

Фото: ИЗВЕСТИЯ/Александр Казаков

— Например, при взломе хранилища данных, аккумулирующего персональные данные клиентов банков, возникают угрозы манипуляций с кредитными обязательствами или вывода денег на счета кибермошенников, — объясняет Никита Леокумович.

Как говорит в беседе с «Известиями» Екатерина Старостина, «отравление данных» опасно тем, что негативно влияет на их достоверность и целостность. Это, в свою очередь, создает риски неправильных решений или ошибочных выводов. Хакеры могут использовать такие атаки для манипулирования информацией или дезориентации систем, что может нанести значительный ущерб, особенно в области финансов, политики или информационной безопасности.

В целом, по мнению экспертов, сегодня киберпреступность развивается вместе с эволюцией нейросетей. По словам Дмитрия Овчинникова, весьма вероятно, что в перспективе модели ИИ, обученные опытными хакерами, будут продаваться. При этом степень их опасности для окружающего мира будет зависеть от того, насколько хорошо они обучены. Эксперт отмечает, что искусственный интеллект способен использоваться как для атаки, так и для защиты — это инструмент, который приспосабливают к решению тех или иных задач. Главным образом эти задачи сводятся к работе с данными: их сбору, обработке и первичной интерпретации.

— ИИ будет активно использоваться для автоматизации задач, что существенно расширит арсенал противоборствующих сторон, — заключает Дмитрий Овчинников. — Как только киберпреступники найдут способ применять его во вред, спустя короткое время специалисты придумают ответные меры. И такое соревнование меча и щита будет длиться еще очень долго.