ИИ что дальше: чем опасно восприятие голосовых помощников как живых существ
Дети воспринимают голосовых помощников как живых существ, выяснили ученые из СПбПУ. Из-за этого в будущем у ребенка могут сложиться более тесные отношения с ботами, вплоть до романтических, считают исследователи. Уже сейчас из негативных последствий сближения отмечается проблема вежливого общения: в разговоре с голосовыми помощниками регулярно проявляется детская грубость, которая может переноситься на окружающих. Психологи полагают, что граница между программами и людьми не должна размываться. Голосовым ассистентам стоит научиться напоминать ребенку, что они не являются людьми, считают специалисты.
Как живая
Дети ведут непринужденную беседу с голосовыми помощниками и воспринимают искусственный интеллект (ИИ) как живое существо, а не абстрактный технологический объект. К такому выводу пришли исследователи Санкт-Петербургского политехнического университета Петра Великого (вуз-участник проекта повышения конкурентоспособности образования «5-100»). Они проанализировали, о чем дети от 5 до 9 лет спрашивали «Алису». В частности, юные пользователи часто задавали виртуальным помощникам вопросы о личном, вроде «Кто твоя мама?», «Где ты живешь?», «Какого цвета у тебя волосы?». Обозначенная возрастная группа была выбрана потому, что после 9 лет дети начинают специально провоцировать собеседника и задавать ему неудобные вопросы, например «Как ограбить банк?» или «Ты дура?».
Сейчас наблюдается общая тенденция по снижению возраста вхождения детей в цифровую среду, отметила в беседе с «Известиями» доцент кафедры общественных наук СПбПУ Дарья Быльева. По ее словам, ребенок зачастую еще не умеет писать, но уже может задавать виртуальному помощнику вопросы голосом.
— Новое поколение будет воспринимать ИИ абсолютно по-другому. Это компаньон, друг, возможно, возлюбленный. Его техническая составляющая уходит на задний план, это что-то вроде новой техно-веры, — сказала Дарья Быльева.
Общение с ИИ в детстве может повлиять на развивающегося человека, согласна профессор кафедры психологии личности МГУ им. М.В. Ломоносова Галина Солдатова. Например, если ребенок позаимствует «черту характера» у голосового ассистента.
— Что-то определенное предсказать трудно, так как программы постоянно усовершенствуются. Может быть, будущее поколение будет более рациональным. Ведь дети могут позаимствовать у приложений особенности алгоритмического мышления — мыслить более точно и более формально, в соответствии с определенными фиксированными правилами и с заданной программой действий. Они будут высоко оценивать знания, но могут приобрести привычку надеяться на ИИ, что не будет развивать их когнитивную сложность. Возможно, они станут более предсказуемыми, что присуще современным программам, — предположила эксперт.
Тревожный голосок
Учащаются случаи, когда при общении с ИИ наблюдается приказной тон со стороны ребёнка, заметили специалисты СПбПУ. Впоследствии ребенок может перенести такую модель поведения в реальную жизнь, опасается Дарья Быльева.
Такая ситуация не исключена, согласна кандидат психологических наук, доцент кафедры общей и социальной психологии ТюмГУ Ольга Андреева. Но все же в большей степени на формирование коммуникативных привычек влияет поведение окружающих взрослых, считает она.
— В то же время можно ожидать большего раскрепощения ребенка именно во время коммуникации с ИИ. Поскольку в этом сценарии на ребенка воздействует эффект физической непредставленности собеседника, подобный тому, что взрослые ощущают во время интернет-общения, — пояснила Ольга Андреева.
Строгость ребенка в общении с голосовым ассистентом может быть обусловлена неудовлетворенностью реакцией ИИ, допустила Галина Солдатова.
— В нашем исследовании только половина детей была удовлетворена тем, как их понимает голосовой помощник. Поэтому я не исключаю, что грубое поведение, замеченное петербургскими исследователями, было результатом недовольства и раздражения по отношению к голосовым помощникам, которые особенно плохо понимают маленьких детей, — сказала эксперт.
Непростой диалог
В дальнейшем сотрудники СПбПУ намерены написать рекомендации для разработчиков по созданию голосовых помощников именно для общения с детьми. Программисты должны обращать внимание не только на интеллектуальную составляющую бота, но и на эмоциональную, считает Дарья Быльева.
— Обладая для ребенка авторитетом «знающего все ответы», ассистент не должен быть при этом послушным рабом. Помощник должен выдавать эмоционально адекватные реакции, — сказала она.
Повышение эмоциональности голосовых помощников, наоборот, может усугубить ситуацию, считает Галина Солдатова. Ведь тогда начнет размываться граница между человеком и машиной, что в будущем может обернуться потерей человеческой идентичности в обществе, отметила эксперт.
— Чтобы этого не происходило, нужно развивать у людей цифровую грамотность. Чтобы они отдавали себе отчет в том, что робот — это не коллега, не друг и не романтический партнер. Голосовой помощник — это только инструмент, которым важно научиться пользоваться. Отчетливое понимание разницы между людьми и роботами — это залог того, что мы сумеем остаться людьми, — сказала специалист.
Голосовым ассистентам было бы добавить опцию, которая напоминала бы детям о рукотворной природе ИИ, считает Галина Солдатова.
Впрочем, разработчики умных помощников и сами изучают, как юные пользователи взаимодействуют с их продуктом.
— «Алиса» любит, когда с ней общаются вежливо и говорят ей «спасибо» — мы стремимся, чтобы в общении была правильная эмоциональность, а не просто запрос-ответ, — рассказал «Известиям» руководитель подразделения «Яндекса», который отвечает за разработку голосового ассистента, Андрей Законов.
Создатели «Маруси» считают одним из ключевых критериев полезности продукта доверие к технологии, рассказал руководитель направления голосовых ассистентов и умных устройств Mail.Ru Алексей Кривенков. Компания хочет сделать свой ИИ привлекательным для детей в этом контексте, пояснил он.
— Если пытаться обмануть ребенка, легко потерять доверие и интерес навсегда. Разочаровав ребенка, мы теряем и взрослого. Поэтому для нас эмоциональная отзывчивость и эмпатия — ключевой приоритет в развитии продукта, — сказал Алексей Кривенков.
«Известия» также направили запрос в компанию МТС, которая разрабатывает голосовой помощник «Марвин».