- Статьи
- Интернет и технологии
- Дело бремени: частые сбои в работе ChatGPT могут привести к утечкам личных данных
Дело бремени: частые сбои в работе ChatGPT могут привести к утечкам личных данных
Масштабные сбои в работе продуктов компании OpenAI могут привести к утечкам пользовательских данных, считают эксперты. Вечером 26 декабря компания, создавшая ChatGPT, пережила массовое падение всех сервисов — его еще называют блэкаутом. На устранение проблем потребовалось более пяти часов, и это уже третий подобный случай в декабре. Всего за последние два года было 11 подтвержденных случаев утечек информации. Почему персональные данные уязвимы для хакеров и как они могут быть скомпрометированы — в материале «Известий».
Сбои в ChatGPT
Пользователи рискуют потерять свои личные данные в ходе очередного краха OpenAI. Все сервисы, в число которых входят чат-бот ChatGPT, программный модуль API, нейросеть для создания роликов Sora и другие, сломались вечером 26 декабря. Реальная причина сбоя не установлена, но она может повлечь за собой утечку пользовательских данных и репутационные проблемы для бизнеса, рассказал «Известиям» руководитель департамента расследований T.Hunter Игорь Бедеров.
— Как следствие, возможны потеря доступа к данным и документам, поломки сетевого и иного оборудования. В результате — сорванные поставки, конфликты с клиентами и репутационные издержки для бизнеса, а вдобавок ко всему пользовательские данные во время таких сбоев могут украсть хакерские группировки для последующей перепродажи, — добавил он.
По данным авторизованного сервиса уведомлений OpenAI Status, этот сбой стал третьим масштабным блэкаутом в декабре 2024 года. Предыдущие сбои произошли 4-го и 11-го числа, их общая длительность превышает 5,5 часа. Продолжительность отключения сервисов и продуктов 26 декабря составила пять часов четыре минуты. Масштаб проблемы пока не изучен полностью, на форуме Reddit пользователи жалуются, что часть истории их запросов и ранее созданных паттернов исчезла и не была восстановлена.
Ранее, в феврале этого же года, произошла масштабная утечка данных из сервисов OpenAI — у пользователей украли персональную информацию, данные о логинах и паролях, а также переписки. Эксперты полагают, что этот сценарий мог повториться, хотя сам сервис не комментирует причину сбоя, ссылаясь на внутреннего поставщика интернет-услуг (ISP-провайдера). Насколько этот сбой критичен для бизнеса, зависит от глубины интеграции ChatGPT в процессы конкретной компании, которая его использует, считает вице-президент по исследованиям, разработке и сервисам ГК InfoWatch Андрей Бирюков.
— При работе с нейросетью пользователь передает ей свои данные — в форме вопросов, текста, документов. Что происходит с этими данными, мы не знаем. Например, на основе предоставленного пользователем коммерческого документа нейросеть может пройти обучение и впоследствии использовать фрагменты этого документа при работе с другими запросами, — указал риски для бизнеса эксперт InfoWatch.
Только в 2022–2023 годах было зафиксировано десять случаев утечек, а в октябре 2024-го хакеры воспользовались одним из блэкаутов и добыли свыше 225 тыс. приватных данных от пользовательских аккаунтов. Все они были выставлены на продажу в даркнете, популярным инструментом для кражи стало вредоносное ПО LummaC2, рассказал IT-эксперт компании GG Tech Сергей Поморцев.
Как защититься от утечек информации
Самым логичным результатом таких поломок могут быть риски, связанные с кибербезопасностью: утечка данных и иная деятельность хакеров, сказал генеральный директор TelecomDaily Денис Кусков. По его словам, в РФ функционируют альтернативы продуктам OpenAI, среди крупнейших — YandexGPT от «Яндекса», MTS AI GPT от МТС и GigaChat от «Сбера». Они ничем не уступают западным аналогам и не нуждаются в регулярном уходе на профилактические и технические работы.
— Продукты OpenAI недоступны из России, в основном они применяются через специальные сервисы-прокси, например в мессенджерах. К чат-ботам нужно относиться как к незнакомцам в интернете — не загружать в них конфиденциальную информацию или персональные данные, не только о себе, но и о других людях, — отметил руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов.
По словам генерального директора компании Phishman Алексея Горелкина, злоумышленники уже давно используют различные инструменты на базе ИИ для своих целей, но на данном этапе они имеют ограниченную применяемость. Модели могут находить взаимосвязи, но естественный интеллект в киберпреступлениях и вопросах инфобезопасности показывает себя намного эффективнее. При этом нейросеть может куда быстрее и разнообразнее, чем человек, подготовить тексты фишингового письма на разных языках.
— Функционал продуктов от OpenAI способен упрощать создание фишинговых писем и других видов вредоносного программного обеспечения. Частичное написание кода для таких программ возможно с помощью ChatGPT, — уточнил Игорь Бедеров.
Сейчас киберпреступники активно используют возможности искусственного интеллекта для автоматизации и увеличения количества атак. Они прогнозируют увеличение роли нейросетей в таких атаках, включая создание с помощью ChatGPT и его аналогов более убедительных дипфейков, автоматизацию фишинга, а также совершенствование методов поиска уязвимостей в системах и приложениях, считают специалисты компании F.A.C.C.T. Впрочем, самостоятельно спланировать и осуществить успешную атаку ИИ пока не может, сказал руководитель BI.ZONE Threat Intelligence Олег Скулкин.
Опрошенные эксперты сходятся во мнении, что нужен более тщательный контроль за инфраструктурой чат-ботов, так как содержащиеся в пользовательских запросах данные могут нанести серьезный урон, попав в руки мошенников. Особенно в тех случаях, когда потребители ChatGPT работают в интересах бизнеса и формируют запросы на базе информации, составляющей коммерческую тайну. Как это уже было в апреле 2023-го, когда инженеры Samsung «слили» чат-боту закрытые данные, включая заметки с внутренних совещаний и данные, связанные с производством и доходностью компании, резюмировали они.