Лингвисты Российского государственного гуманитарного университета (РГГУ) намерены создать алгоритм для поиска манипулятивного контента. Ученые исследуют так называемые когнитивные модели, которые лежат в основе призванных воздействовать на сознание людей сообщений, узнали «Известия».
Авторы исследования планируют определить приемы, которые чаще всего используют для воздействия на читателя. В ходе работы ученые будут оценивать и сравнивать между собой материалы СМИ. После этого на основе анализа самых заметных и цитируемых интернет-текстов будет создан банк манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам.
Кроме текстов специалисты будут изучать и визуальный контент: мемы, видеоклипы, посты в соцсетях. Также в рамках научной работы компьютерными методами будет изучен банк эмоционально окрашенных текстов, состоящий из 3 млн слов.
Сегодня задача понимания содержания текста стала глобальным вызовом для компьютерной лингвистики и вообще для развития искусственного интеллекта, отметил доцент кафедры массовых коммуникаций РУДН Сергей Водопетов. По его словам, работа ученых РГГУ наверняка будет востребована теми специалистами, которые смогут взять научную теорию и обучить компьютер ее использованию.
Если в глобальном потоке контента человечество научится выявлять скрытый смысл, это позволит противодействовать информационным угрозам, привел пример использования разработки Водопетов.
Подробнее читайте в эксклюзивном материале «Известий»:
«Не влезай — наврет: ученые создают алгоритм для поиска манипуляций в текстах»