Нейросети могут предсказывать преступления и имеют расовые предрассудки. Что нужно знать
- Новости
- Интернет и технологии
- Нейросети могут предсказывать преступления и имеют расовые предрассудки. Что нужно знать
Минфин вместе со Сбербанком привлекли к работе над бюджетом искусственный интеллект (ИИ). Пока нейросети доверили только отдельные рутинные процессы под контролем специалистов, и искусственный помощник продемонстрировал 84% точности. Предполагается, что в дальнейшем ИИ сможет выполнять большинство рутинных задач, что позволит исключить из процесса человеческий фактор. В каких сферах ИИ задействован уже сейчас и чего ждать в будущем — в материале «Известий».
ИИ осваивает новые профессии
• Эксперты считают, что со временем нейросети будут использоваться практически везде. Главное преимущество ИИ — быстрая обработка больших массивов информации, он незаменим в мониторинге и обработке данных, а это критически важно, когда речь идет о человеческих жизнях. Благодаря искусственному помощнику люди смогли получать более ранние и точные прогнозы о природных катастрофах, что помогло сократить количество жертв.
• Сейчас нейросети не только верстают бюджет вместе со специалистами Минфина, но и проникают в другие чувствительные сферы, такие как охрана правопорядка и здравоохранение. ИИ помогает врачам с диагностикой заболеваний на ранних стадиях, прогнозированием течения болезни и составлением планов лечения. В частности, благодаря нейросети удалось решить проблему диагностики расстройств аутистического спектра у детей. Теперь врачи смогут выявлять заболевание на ранних стадиях по электроэнцефалограмме.
• В перспективе ИИ сможет даже предсказывать преступления: первый успешный эксперимент в этом году провели в Южнокорейском научно-исследовательском институте электроники и телекоммуникаций. Модель ИИ, созданная учеными, показала более 82% точности. Правда, пока на нейросеть перекладывают рутинные действия сотрудников и не оставляют ИИ без присмотра человека.
• Самое широкое применение нейросети получили в творческой сфере. Они позволяют генерировать тексты, изображения и видео по заказу пользователя. Это значительно облегчило создание контента, но вывело на первый план вопросы этичности, авторского права и обращения с личными данными.
Законы не успевают за ИИ
• Нейросети уже повсюду, а законодательная база под них еще только формируется. Пионером в регулировании применения ИИ в здравоохранении стала Россия: в сентябре 2023 года в РФ вступил в силу первый в мире ГОСТ для использования нейросетей в медицине, разработанный с московскими рентгенологами (о том, как стандарт применяется в российских клиниках, мы писали здесь). Его цель — не столько расширить применение ИИ, сколько сделать процессы работы с нейросетью прозрачнее и понятнее.
• Быстрое развитие технологий дипфейк (синтез изображения и голоса) заставило законодателей обратить внимание и на эту сферу применения ИИ. С 2020 года Китай под угрозой уголовного преследования ввел обязательную маркировку такого контента. В США законы, регулирующие сферу дипфейков, принимаются в отдельных штатах. Насколько актуальна проблема, показала самая масштабная забастовка Гильдии актеров США в 2023 году: кинозвезды протестовали против использования их образов и голосов для создания цифровых копий.
• В России закон о дипфейках пока на стадии формирования: в первоначальную фабулу депутаты хотят внести запрет использования цифровых двойников в предвыборной агитации и признание использования ИИ при совершении преступления отягчающим обстоятельством.
• Тексты и изображения, сгенерированные нейросетью, тоже остаются в «серой зоне» законодательства. Пользователи от этого, скорее, выиграли: способность создать качественную картинку прямо в смартфоне позволила воплотить в жизнь проекты, которые в противном случае не реализовались бы без больших финансовых вложений. Например, в сентябре 2024 года псковская библиотека представила собственную книгу с легендами и преданиями о Пушкине. В целях экономии иллюстрации не стали заказывать у художников, а сгенерировали с помощью нейросети бесплатно.
• Сам искусственный интеллект создать картину не может — для этого ему нужны загруженные образцы, которые он обрабатывает и компилирует для создания изображений. Кого в этом случае считать автором работы — у законодателей пока ответа нет. Но есть вероятность, что вскоре он будет найден. 8 мая 2024 года американский суд дал ход делу о нарушении авторских прав против компаний Stability, Midjourney, DeviantArt и Runway AI, которые копировали и хранили работы художников на серверах и могли использовать их для обучения нейросетей без разрешения авторов.
ИИ не без изъяна
• Модели искусственного интеллекта учатся у человечества и перенимают его недостатки, а порой даже гипертрофируют их. Исследование американской компании Pew Research Center в 2022 году показало, что нейросети присущи гендерные и расовые предубеждения, причем у нейросетевых моделей предвзятость к полу и расе даже выше, чем в среднем в обществе. Результаты исследования заставили разработчиков внедрить специальные метрики, но и они бывают необъективными и позволяют компаниям маскировать дискриминацию изменением формулировок.
• ИИ оказался удобным инструментом, и, как любой инструмент, его можно использовать не только в благих целях. Технологию копирования голоса и изображения теперь осваивают мошенники, а дипфейки стали целым направлением в порноиндустрии. Эксперты сходятся во мнении, что для применения нейросетей необходимо разработать правила и регламенты, которые бы учитывали в том числе и морально-этические аспекты использования ИИ.
• Доверять цифровому помощнику личную информацию может быть рискованно, поэтому специалисты считают, что даже обезличенные данные нужно обрабатывать при выстраивании четкой иерархии доступа и под контролем человека, особенно когда это касается здравоохранения или сферы безопасности.
• Риски может нести и сама нейросеть как любая компьютерная программа, в которой есть уязвимости. В этом случае злоумышленники могут использовать лазейку для кражи данных, саботажа и несанкционированного доступа. О «спящих» угрозах в нейросетях «Известия» рассказывали здесь.
• Аналитики считают, что модель ИИ не сможет в ближайшее время заменить человека или вытеснить его из сферы занятости. Искусственный интеллект — лишь отголосок человеческого разума, и оценивать его работу нужно не в сравнении с человеком, а в том, как он улучшает условия и показатели его труда.
Как устроена нейросеть
• Прообразом нейронной сети стала нервная система человека. В роли нейронов выступают процессоры, которые связаны между собой контактами — синапсами. Каждый процессор имеет дело только с теми сигналами, которые он отправляет и получает. Первая нейросеть была однослойной, современные имеют несколько слоев и более сложную структуру.
• Особенность нейросетей в том, что они не программируются, а обучаются: для этого загружают данные и эталонную их оценку. Большие массивы данных предоставляются в виде формул и числовых коэффициентов. Объем их должен превышать число «нейронов» в десятки раз. По мере накопления этой информации нейросеть учится анализировать и давать более точные ответы.
• Архитектура нейросети не позволяет определить, по каким критериям обрабатывается информация и выбирается ответ: это происходит автоматически. Процессоры-нейроны независимы, чтобы сбой одного не нарушал работу всей сети. Но эта независимость делает решения непредсказуемыми и хаотичными. Нейросеть легко адаптируется к любой деятельности, но при этом не может дать точный результат, ее ответы всегда приблизительны.
• Революция ИИ произошла в 2012 году, когда нейронные сети модернизировали таким образом, что они смогли выполнять функцию компьютерного зрения — это позволило им распознавать образы. Самые популярные модели нейросетей — генеративный ИИ, создающий изображение на основе словесного описания (например, Midjourney). Он производит подобное на основе большого объема проанализированных загруженных образов. Также популярны большие языковые модели, предназначенные для генерации текста (например, ChatGPT).
• Пока нейросети не могут сравниться с человеческим интеллектом, поскольку еще не удалось воссоздать настолько сложную структуру. Но вероятность «восстания машин» специалисты не исключают. В очередной раз об этой угрозе вспомнили в июне 2023 года, когда появилась информация об эксперименте, где дрон, в программу которого был заложен запрет причинять вред своему оператору, в итоге уничтожил центр связи, через который оператор отдавал ему приказы.
При подготовке материала «Известия» учитывали мнение и беседовали с:
- профессором РАН, доктором физико-математических наук Константином Воронцовым;
- разработчиком YandexGPT Евгением Косаревым;
- генеральным директором информационно-аналитического агентства TelecomDaily Денисом Кусковым.