Песков выступил за продолжение работы над созданием ИИ

Песков: технологии ИИ должны развиваться, регулировка понадобится по мере их внедрения в жизнь людей
Дробязко Наталья
Фото: РИА Новости/Константин Михальчевский

Технологии развития искусственного интеллекта (ИИ) будут нуждаться в регулировке по мере их распространения в экономике и в жизни людей, при этом работа над развитием ИИ не должна останавливаться. Об этом 29 марта заявил официальный представитель Кремля Дмитрий Песков.

Так он прокомментировал письмо экспертов с призывом приостановить обучение нейросетей, опубликованное на сайте организации Future of lives. Подписи под документом оставили в том числе американский предприниматель Илон Маск и сооснователь Apple Стив Возняк.

По мнению Пескова, работа над искуственным интеллектом должна продолжаться, потому что это путь развития человечества. Он отметил, что в России этой темой занимается целая группа специалистов с участием главы Сбербанка Германа Грефа, главы Российского фонда прямых инвестиций (РФПИ) Кирилла Дмитриева, различных ведомств и компаний.

Кроме того, напомнил Песков, на важность этого направления неоднократно указывал президент России Владимир Путин.

«Мы продолжим это направление с тем, чтобы не допускать отставания России от тех стран, которые находятся впереди этой гонки», — подчеркнул пресс-секретарь президента.

Что касается точки зрения тех, кто считает, что в развитии ИИ кроются серьезные опасности, то, отметил Песков, «любое лекарство при неправильном использовании превращается в яд».

«Сам интернет — мы не можем представить себе жизнь без него, но он, с другой стороны, является страшным оружием и может нести много зла. Поэтому мы занимаемся активным регулированием, весь мир пошел по пути регулирования интернета. Здесь регулирование понадобится, и упомянутые лица правы, но работа должна продолжаться, это путь развития человечества», — заключил Песков.

Ранее, 14 февраля, старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов рассказал, в чем опасность чат-ботов с искусственным интеллектом. Так, сгенерированные ими ответы на вопросы могут быть недостоверными, при этом они могут выглядеть крайне убедительными.

В свою очередь, специалист в области кибербезопасности Арсений Щельцин назвал главной опасностью чат-бота ChatGPT безальтернативность ответов. Он указал на способность нейросети генерировать разные ответы на один и тот же запрос, однако они будут очень схожи. По словам эксперта, пользователи, полагаясь на эти ответы, в свои программы и материалы будут вкладывать не до конца проверенную информацию.