Эксперт объяснил опасность чат-ботов с искусственным интеллектом
Опасность чат-ботов с искусственным интеллектом связана с тем, что сгенерированные ими ответы на вопросы могут быть недостоверными. На это в беседе с «Известиями» указал старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов во вторник, 14 февраля.
«Чат-боты, использующие для генерации текста нейросети, по определению не являются ни плохими, ни хорошими. Важно то, как этой технологией будут распоряжаться люди. Хотя уже есть сообщения о том, что злоумышленники исследуют потенциал чат-ботов для зловредных целей — например, автоматизации фишинговых рассылок, пока этот риск выглядит скорее гипотетическим. Для людей сейчас опасность скорее кроется в том, что если они используют чат-боты для поиска ответов на вопросы, то тексты, которые создают подобные технологии, могут выглядеть крайне убедительно, но при этом содержать фактические ошибки», — отметил эксперт.
Исходя из этого, сейчас основное правило для пользователей — развивать критическое мышление и перепроверять информацию, с которой они сталкиваются в Сети, резюмировал Тушканов.
3 февраля обозреватель «Известий» по технологиям Иван Черноусов раскрыл особенность нашумевшей нейросети ChatGPT. По его словам, ChatGPT — это нейросеть, которая анализирует запрос пользователя и выдает наиболее релевантный ответ. Как подчеркнул эксперт, эта разработка представляет опасность для бизнеса не только всех поисковиков, но и голосовых помощников.
В свою очередь, специалист в области кибербезопасности Арсений Щельцин назвал главной опасностью ChatGPT безальтернативность ответов. Он указал на способность нейросети генерировать разные ответы на один и тот же запрос, однако они будут очень схожи. По словам эксперта, пользователи, полагаясь на эти ответы в своих программах и материалах, будут вкладывать не до конца проверенную информацию.