Перейти к основному содержанию
Реклама
Прямой эфир
Экономика
Путин заявил о намерении властей РФ замедлить инфляцию к 2025 году
Общество
Глава МЧС исключил проблемы с курортным сезоном на Кубани из-за разлива мазута
Мир
В НАТО заявили об отсталости ЕС в технологиях и создании устаревшего вооружения
Мир
Лавров призвал к надежным договоренностям по вопросу мира на Украине
Экономика
Взаимная торговля между странами ЕАЭС за девять месяцев выросла на 12%
Экономика
ЦБ предостерег от массовой раздачи денег россиянам
Политика
Путин заявил о правиле РФ всегда отвечать зеркально на удары по ее территории
Мир
Лавров заявил о заинтересованности РФ в диалоге с Сирией по региональным вопросам
Общество
Режим ЧС федерального уровня ввели в Краснодарском крае после крушения танкеров
Политика
Лидеры ЕАЭС утвердили работу соглашения о свободной торговле с Ираном
Политика
Путин рассказал о предложении Байдена в 2021 году отложить принятие Украины в НАТО
Интернет и технологии
В ГД высказались о возможном введении штрафов за использование VPN
Политика
В Госдуме напомнили о налоговой льготе для пенсионеров
Мир
Пашинян допустил возможность Армении не участвовать в заседаниях ЕАЭС в Белоруссии
Мир
МИД РФ обвинил США в срыве выплаты российского взноса в бюджет МККК
Экономика
Патрушев заявил о сохранении в 2025 году объемов льготного кредитования аграриев
Общество
Судовладелец «Волгонефть-212» оштрафован за нарушения трудового законодательства
Общество
Кириенко назвал российские семьи настоящей гордостью страны
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект (ИИ) может стать эффективным оружием в руках хакеров при составлении фишинговых писем — об этом предупредили эксперты. Уже сегодня ИИ может всего за пять минут создать максимально убедительное фишинговое послание, в то время как людям требуется на выполнение аналогичного задания целых 16 часов. Подробности о том, как хакеры могут использовать искусственный интеллект в социальной инженерии и как защититься от подобных угроз, — в материале «Известий».

Игра на скорость

Выяснить, может ли ИИ превзойти человека в искусстве обмана и манипуляций, недавно решили исследователи из команды IBM X-Force. Специалисты задумали сравнить навыки искусственного интеллекта (ChatGPT) и людей в написании фишинговых писем.

Перед обеими сторонами поставили одну и ту же задачу: создать максимально убедительное послание, которое с высокой долей вероятности подтолкнет пользователя кликнуть на вредоносную ссылку. В итоге ChatGPT справилась всего за пять минут, в то время как людям потребовалось для выполнения аналогичного задания целых 16 часов.

компьютер
Фото: ИЗВЕСТИЯ/Анна Селина

Правда, итоговые результаты оказались не в пользу нейросети — созданное людьми письмо показало большую эффективность. Оно продемонстрировало кликабельность на уровне в 14%, в то время как у ChatGPT этот показатель оказался на 3% ниже. Как считают эксперты, выиграть людям помогли эмоциональный подход и тщательный анализ целевой аудитории.

Кроме того, сыграло свою роль и грамотное построение текста. Пускай сегодня по скорости работы человек сильно уступает ИИ, он всё еще опережает его в психологических тонкостях. В то же время специалисты прогнозируют, что в перспективе искусственный интеллект сначала сравняется, а затем и превзойдет хакеров в социальной инженерии, что станет новым вызовом для специалистов по кибербезопасности.

Механика фишинга

Основная задача злоумышленников, составляющих фишинговые письма, — это придумать текст, который будет интересным, лаконичным и правдоподобным, чтобы завлечь потенциальную жертву. Как говорит в беседе с «Известиями» главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников, для этого нужно знать актуальный информационный повод и желательно, чтобы он был локализован под регион, по которому будут распространяться фишинговые сообщения.

Человеку для этого надо зайти на страницы справочников, посмотреть ближайшие даты событий, проанализировать, какие из них популярны или какие акции и с какой частотой проводятся крупными магазинами, — говорит эксперт. — Но ИИ делает всё это намного быстрее.

телефон
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

По словам Овчинникова, главное для злоумышленников — правильно задать критерии составления сообщения, а также иметь готовую и обученную модель поведения искусственного интеллекта. Сегодня спрос на такого рода услуги постепенно растет: пример тому — модель Cybercrime-as-a-serviсe со встроенными конструкторами фишинговых писем.

Как говорит эксперт, подобные услуги можно с легкостью найти в даркнете, что неудивительно: сейчас свой собственный ИИ может развернуть любой специалист после небольшой подготовки. Но развернуть мало — его еще нужно обучить. Пока мощность преступных ИИ упирается лишь в то, что на подобное обучение надо потратить очень много человеко-часов.

— ChatGPT в течение долгого времени тренируют миллионы пользователей, а сотня IT-специалистов настраивает его поведение на правильную модель, — объясняет Овчинников. — У преступников таких ресурсов нет, поэтому нет и предложений, сопоставимых с качеством ChatGPT.

Кроме того, эксперт указывает на то, что человек лучше продумывает иррациональную, психологическую составляющую сообщений, а потому результаты составления фишинговых писем у живого преступника будут выше, чем у машины. Впрочем, на этот счет есть и альтернативные мнения.

ии
Фото: ТАСС/Zuma

Перспективные угрозы

По мнению основателя и СЕО Mirey Robotics, эксперта по ИИ и нейросетям Андрея Наташкина, эксперимент, проведенный командой IBM X-Force, показал, что ChatGPT в целом неплохо и очень быстро справляется с задачей составления фишинговых писем. При этом стоит учитывать, что исследователи тестировали одну из самых умных нейросетей на сегодняшний день, но подобные задачи — это не ее специализация.

— Поэтому логично предположить, что нейросеть, обученная написанию фишинговых писем, сделает это намного эффективнее, — отмечает собеседник «Известий».

По мнению Дмитрия Овчинникова, в ближайшем будущем киберпреступники будут неизбежно активно пытаться применять ИИ в своих схемах. Поэтому рано или поздно ИИ будет обучен умению составлять фишинговые письма. А их эффективность (количество переходов) не будет уступать фишинговому письму, составленному живым человеком.

Как объясняет backend-разработчик и руководитель продукта факультета программирования университета «Синергия» Николай Щербатенко, в перспективе хакерские ИИ-инструменты станут точнее анализировать контекст, в котором находятся их потенциальные жертвы. С помощью искусственного интеллекта хакеры будут получать доступы к профилям пользователей и очень точечно на них давить, используя многофакторный анализ.

телефон
Фото: ИЗВЕСТИЯ/Александр Казаков

— Например, человек публикует в соцсети пост о том, что он прямо сейчас отдыхает на Мальдивах, — рассказывает эксперт. — Используя ИИ-инструменты, хакер отправляет туристу сообщение от имени туроператора или менеджмента гостиницы.

Так, туристу могут сообщить, что ему дарят бесплатный коктейль в баре, и предложить перейти по ссылке, которая на самом деле является вредоносной. А поскольку потенциальная жертва доверяет той гостинице, в которой отдыхает, она с большой долей вероятности перейдет по этой ссылке. В итоге пользователь не только не получит бесплатный коктейль, но и, сам того не желая, передаст свои персональные данные (а возможно, и деньги) злоумышленнику.

Механизмы защиты

Сегодня владельцы законопослушных ИИ активно борются с проблемой использования нейросетей злоумышленниками. К примеру, как говорит Дмитрий Овчинников, совсем недавно была закрыта лазейка с использованием языка зулусов для выполнения нелегитимных запросов в нейросетях.

— Над решением подобных задач работает отдельная команда IT-специалистов, поскольку это входит в общие работы по обслуживанию и обучению ИИ, — отмечает собеседник «Известий».

касперский
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

В свою очередь, Андрей Наташкин указывает на то, что в настоящее время искусственный интеллект активно внедряется в различные сферы для борьбы с мошеннической деятельностью. Например, идентификация мошеннических действий — это одна из перспективных задач для нейросетей в разрезе банковской отрасли.

Уже сегодня ИИ осуществляет финансовый мониторинг, сканирует в режиме нон-стоп огромный массив данных, выявляя при этом нехарактерное поведение физических и юридических лиц. Кроме того, нейросети идентифицируют факты кибератак. По мнению Дмитрия Овчинникова, к тому моменту, когда хакеры научатся по-настоящему эффективно использовать их для составления фишинговых писем, ИИ в антиспам-системах уже научится распознавать подобные угрозы.

— Конечно, ИИ облегчит проведение атак и упростит работу злоумышленников, но он не станет тем ультимативным оружием, которое перевернет игровую доску и полностью поменяет правила игры на рынке информационной безопасности, — подчеркивает специалист.

Как объясняет Андрей Наташкин, именно перспективность использования решений на основе искусственного интеллекта для обмана пользователей актуализирует необходимость регулирования систем ИИ. Одним из позитивных примеров такого регулирования является закон Европейского союза об искусственном интеллекте. В соответствии с этим документом любой искусственный интеллект оценивается с точки зрения рисков. Всего есть четыре группы подобных рисков: минимальный, ограниченный, высокий и неприемлемый.

ноутбук
Фото: ИЗВЕСТИЯ/Анна Селина

— Использование нейросетей с неприемлемым риском запрещено, а к системам с высоким риском предъявляются особые требования по оценке, — заключает эксперт. — Соответственно, любая нейросеть, способная на обман пользователей с помощью фишинговых писем, должна автоматически относиться к категории неприемлемых.

Читайте также
Прямой эфир