Песков выступил за продолжение работы над созданием ИИ
Технологии развития искусственного интеллекта (ИИ) будут нуждаться в регулировке по мере их распространения в экономике и в жизни людей, при этом работа над развитием ИИ не должна останавливаться. Об этом 29 марта заявил официальный представитель Кремля Дмитрий Песков.
Так он прокомментировал письмо экспертов с призывом приостановить обучение нейросетей, опубликованное на сайте организации Future of lives. Подписи под документом оставили в том числе американский предприниматель Илон Маск и сооснователь Apple Стив Возняк.
По мнению Пескова, работа над искуственным интеллектом должна продолжаться, потому что это путь развития человечества. Он отметил, что в России этой темой занимается целая группа специалистов с участием главы Сбербанка Германа Грефа, главы Российского фонда прямых инвестиций (РФПИ) Кирилла Дмитриева, различных ведомств и компаний.
Кроме того, напомнил Песков, на важность этого направления неоднократно указывал президент России Владимир Путин.
«Мы продолжим это направление с тем, чтобы не допускать отставания России от тех стран, которые находятся впереди этой гонки», — подчеркнул пресс-секретарь президента.
Что касается точки зрения тех, кто считает, что в развитии ИИ кроются серьезные опасности, то, отметил Песков, «любое лекарство при неправильном использовании превращается в яд».
«Сам интернет — мы не можем представить себе жизнь без него, но он, с другой стороны, является страшным оружием и может нести много зла. Поэтому мы занимаемся активным регулированием, весь мир пошел по пути регулирования интернета. Здесь регулирование понадобится, и упомянутые лица правы, но работа должна продолжаться, это путь развития человечества», — заключил Песков.
Ранее, 14 февраля, старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов рассказал, в чем опасность чат-ботов с искусственным интеллектом. Так, сгенерированные ими ответы на вопросы могут быть недостоверными, при этом они могут выглядеть крайне убедительными.
В свою очередь, специалист в области кибербезопасности Арсений Щельцин назвал главной опасностью чат-бота ChatGPT безальтернативность ответов. Он указал на способность нейросети генерировать разные ответы на один и тот же запрос, однако они будут очень схожи. По словам эксперта, пользователи, полагаясь на эти ответы, в свои программы и материалы будут вкладывать не до конца проверенную информацию.