Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В Белоруссии рассказали о подарке Лукашенко ко дню рождения Путина
Мир
Посольство РФ получило более 50 обращений от французов о проживании в России
Мир
Лукашенко заявил о желании восстановить СНГ в прежнем составе
Армия
Истребители Су-34 нанесли удар по опорному пункту ВСУ в курском приграничье
Мир
Орбан заявил о невозможности победы Украины на поле боя
Мир
Ушаков рассказал о теплом поздравлении Путину от Си Цзиньпина
Мир
Второй саммит по Украине в ноябре не состоится
Экономика
Минпромторг намерен повысить контроль за нелегальным оборотом косметики
Здоровье
Диетолог назвал семь правил питания для людей до 30 лет
Мир
Премьер Армении Пашинян показал кадры велопрогулки по берегу Москвы-реки
Общество
Чемпионка РФ по ледолазанию Алена Власова умерла в возрасте 35 лет
Мир
СМИ сообщили о вероятном разводе Канье Уэста и Бьянки Цензори после 2 лет брака
Авто
Власти РФ спрогнозировали снижение импорта легковушек с 2025 года
Мир
В МИД Ирана заявили о полной готовности к войне
Экономика
Эксперт спрогнозировал стоимость нефти Brent в октябре
Мир
В ФРГ подтвердили готовность Шольца к диалогу с Путиным
Общество
Стоматолог развеял главные мифы о жевательной резинке
Общество
Пятеро альпинистов из России погибли в Непале. Что известно
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

Российские ученые разрабатывают алгоритм для поиска манипуляций, который можно было бы использовать для автоматической проверки контента. Для этого специалисты РГГУ намерены определить приемы, которые чаще всего используют в текстах, мемах и видеоклипах для воздействия на общественное мнение. Предметом анализа станут наиболее цитируемые материалы в интернете. По словам экспертов, если на основе алгоритма удастся обучить искусственный интеллект распознавать манипуляции и скрытый смысл сообщений, это позволит противодействовать информационным угрозам.

Прием при нем

Лингвисты Российского государственного гуманитарного университета намерены создать алгоритм для поиска манипулятивного контента. Ученые исследуют так называемые когнитивные модели, которые лежат в основе призванных воздействовать на сознание людей сообщений. Например, это метафоры, когда более абстрактное понятие описывается через более конкретное. Используя эту схему, можно любому факту придать заданную эмоциональную окраску. Проект реализуется при поддержке Российского научного фонда.

На V Московском международном открытом книжном фестивале в Центральном доме художника на Крымском валу
Фото: РИА Новости/Валерий Мельников

— Когнитивная модель существует в голове любого носителя языка. Это схемы, но они реализуются через конкретные слова, — пояснила профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина.

Другим видом манипуляции может выступать использование автором слова с несколькими значениями, смыслами, чтобы запутать читателя. К хитростям такого рода относится употребление английского apparent, которое может иметь два фактически противоположных значения: «очевидный» и «кажущийся». Особое влияние на восприятие информации читателем могут оказывать эвфемизмы, когда отрицательно окрашенное слово заменяется другим, более нейтральным или положительно окрашенным. Например, в американской культуре в публичной речи считается неуместным использовать слово «слепой», вместо него принято говорить «слабовидящий».

Фото: Global Look press/Wang Zhuolun

Авторы исследования планируют определить приемы, которые чаще всего используют для воздействия на читателя. В ходе работы ученые будут оценивать и сравнивать между собой материалы СМИ. После этого на основе анализа самых заметных и цитируемых интернет-текстов будет создан банк манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам. Кроме текстов специалисты будут изучать и визуальный контент: мемы, видеоклипы, посты в соцсетях. Также в рамках научной работы компьютерными методами будет изучен банк эмоционально окрашенных текстов, состоящий из 3 млн слов.

— Мы начнем с анализа текстов, построим алгоритм идентификации манипулятивных высказываний. В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций, — сказала Вера Заботкина.

Избыток смыслов

Сегодня задача понимания содержания текста стала глобальным вызовом для компьютерной лингвистики и вообще для развития искусственного интеллекта, отметил доцент кафедры массовых коммуникаций РУДН Сергей Водопетов. По его словам, работа ученых РГГУ наверняка будет востребована теми специалистами, которые смогут взять научную теорию и обучить компьютер ее использованию.

— Пока мне сложно представить сферу применения подобного ПО, но я бы с любопытством посмотрел на рабочий прототип. Идея хорошая, но важно, чтобы искусственный интеллект работал без сбоев, — сказал заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.

Проверка наличия у посетителей QR-кодов на входе в парфюмерный супермаркет "Золотое яблоко" в Казани
Фото: РИА Новости/Максим Богодвид

Если в глобальном потоке контента человечество научится выявлять скрытый смысл, это позволит противодействовать информационным угрозам, привел пример использования разработки Сергей Водопетов.

«Известия» обратились в Минцифры с просьбой прокомментировать разработку программы, способной выявлять в контенте скрытую манипуляцию. В министерстве рекомендовали обратиться в Роскомнадзор. Там вопросы переадресовали в Главный радиочастотный центр, где оперативно не ответили на запрос.

Частично научить машину выявлять те или иные манипуляции возможно, но эта задача всегда будет упираться в ограничения искусственного интеллекта, считает заведующая кафедрой языков массовых коммуникаций УрФУ Елена Соболева. Естественный язык всегда многозначен, одно и то же слово может нести разные смыслы, пояснила она. До сих пор нет программ, которые могли бы распознавать разные значения одного слова, отметила эксперт. Человек многое понимает исходя из контекста и сочетаемости слов, поэтому вряд ли в ближайшем будущем будет создано ПО, точно распознающее манипуляции, объяснила специалист.

Читайте также
Прямой эфир