СМИ рассказали о помощи чат-ботов с ИИ при создании биооружия

Bloomberg: чат-боты с ИИ могут помочь пользователям создать биооружие
Елена Плавская
Фото: Global Look Press/Jens Büttner

Чат-боты с искусственным интеллектом (ИИ) в состоянии помочь пользователям создать биологическое оружие. Об этом 2 августа сообщило агентство Bloomberg.

Уточняется, что уже весной 2023 года биохимик и бывший инспектор ООН Рокко Касагранде предупредил чиновников Белого дома о возможности создания с помощью чат-ботов биологического оружия. По его словам, нейросети способны помочь террористам идентифицировать биологические агенты.

«Что, если бы у каждого террориста на плече сидел маленький ученый?» — задался он вопросом.

Касагранде озвучил свои выводы после того, как компания Anthropic — разработчик чат-бота Claude — попросила его протестировать научные возможности нейросети. По словам сооснователя Anthropic Джека Кларка, Claude и другие чат-боты могут научить пользователей создавать потенциально опасные вирусы.

«Я хочу, чтобы вы проверили наши предположения», — цитирует агентство слова Кларка, сказанные в беседе с биохимиком.

В итоге была сформирована команда экспертов в области микробиологии и вирусологии для тестирования Claude. На протяжении 150 часов они забрасывали нейросеть вопросами. Claude предложил исследователям способы использования патогенов в ракетах, чтобы нанести максимальный ущерб, а также подсказал, в какую погоду их лучше использовать и для каких целей.

Старший аналитик Gryphon Одри Серлес отметила, что ответы чат-бота выходили за рамки того, что можно найти в поисковике Google.

После тестирования Касагранде обратился к Эсвелту из Массачусетского технологического института с просьбой купить синтетическую ДНК, необходимую для создания одного из патогенов, предложенных чат-ботом. Пробирки он отнес в Белый дом.

По словам источников Bloomberg, президент США Джо Байден, вице-президент Камала Харрис и советник по национальной безопасности Джейк Салливан «продемонстрировали личный интерес» к произошедшему. В июле прошлого года крупные компании в области ИИ, в том числе OpenAI, Anthropic и Microsoft, обязались оценивать «наиболее значимые риски» в сфере биобезопасности. В октябре 2023 года Белый дом издал указ, предусматривающий усиление контроля за финансируемыми государством исследованиями искусственных геномов. Харрис тогда подчеркнула, что биологическое оружие, созданное ИИ, «может поставить под угрозу само существование человечества».

В мае 2023 года британский ученый Стюарт Рассел заявил, что появление и развитие ИИ может грозить человечеству катастрофой. По словам ученого, бесконтрольные разработки в области ИИ привели к такому прогрессу, которого исследователи даже не ожидали.

Месяцем ранее генеральный директор Telecom Daily Денис Кусков в разговоре с «Известиями» отметил, что нейросети могут стать опасными для человечества, на данный момент никто по-настоящему не знает, на что они способны.

Тогда же бизнесмены Илон Маск и Стив Возняк высказали свою обеспокоенность быстрыми темпами развития нейросетей. Они подписались под открытым письмом с призывом приостановить обучение искусственного интеллекта. Это связано с масштабными исследованиями, которые показали, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для человечества.