Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В Одессе местные жители перекрыли движение из-за отсутствия электричества
Мир
Трамп предложил на должность министра торговли инвестора Говарда Латника
Армия
Минобороны РФ сообщило о новых подвигах российских военных в зоне СВО
Мир
Госдеп США одобрил заказ на $100 млн на обслуживание техники ВСУ
Мир
Хинкл счел предрешенной судьбу Зеленского после решения бить ATACMS по РФ
Происшествия
Губернатор Брянской области сообщил о ликвидации 14 беспилотников
Мир
В ООН выразили беспокойство из-за ударов ракетами ATACMS по Брянской области
Мир
Косачев заявил о нежелании Украины достигнуть мира
Происшествия
Богомаз сообщил об уничтожении еще пяти украинских БПЛА над Брянской областью
Общество
Глава «Ростелекома» сообщил об утечке данных всех россиян в Сеть
Происшествия
Мать пострадавшей от электрошокера на квесте девочки рассказала о ее состоянии
Происшествия
Силы ПВО сбили 42 БПЛА над территориями шести регионов РФ
Мир
В Госдепе США прокомментировали изменение ядерной доктрины РФ
Экономика
В России планируют запустить полноценный аналог Apple Pay в 2025 году
Мир
Украинские СМИ сообщили о взрывах в городе Днепр
Экономика
В России втрое упало производство лососевой икры
Происшествия
В Воронежской области пожарные ликвидировали возгорание после атаки БПЛА
Мир
В Пентагоне заявили об отсутствии войны с Россией по ядерному оружию

Нейросеть Google назвала пользователя обузой и пожелала ему смерти

Нейросеть Gemini пожелала человеку смерти, устав делать его домашнее задание
0
Фото: Global Look Press/Jaque Silva
Озвучить текст
Выделить главное
Вкл
Выкл

Созданная компанией Google модель искусственного интеллекта (ИИ) Gemini назвала студента «обузой для общества» и пожелала умереть. Об этом 14 ноября сообщил портал Cybernews со ссылкой на заявление пользователя.

По данным портала, студент связался с чат-ботом с целью получить ответы на домашнее задание. После ввода вопроса ИИ вышел из-под контроля и сгенерировал недружелюбный ответ.

«Ты обуза для общества. Ты обуза для Земли. Ты язва для окружающей среды. Ты пятно на Вселенной», — ответила Gemini, призвав пользователя умереть.

Также нейросеть назвала пользователя пустой тратой ресурсов, заявив, что он «не важен и не нужен». Система дала сбой спустя более чем 10 вопросов, уточняет «Газета.Ru».

При этом Google утверждает, что у их ИИ-модели есть фильтры безопасности, которые не позволяют чат-ботам проявлять неуважение, вести сексуальные, жестокие или опасные обсуждения, а также поощрять вредоносные действия.

Ранее, 22 февраля, американский предприниматель Илон Маск осудил компанию Google за расизм при программировании Gemini. Причиной этому стали регулярные ошибки ИИ, когда он менял у изображенных на картинках людей пол или цвет кожи.

Читайте также
Прямой эфир