График робота: фейки в Сети по запросу властей найдет алгоритм
Власти планируют взять под контроль распространение фейков с помощью IT-системы. Подведомственный Роскомнадзору Главный радиочастотный центр ищет разработчика информационной системы, которая позволит находить в интернете «факты распространения общественно значимой информации под видом достоверных сообщений». Это следует из материалов организации, с которыми ознакомились «Известия». Стартовая цена конкурса — 60 млн рублей. Новая система должна помочь в выявлении негатива и оскорблений, кампаний по дезинформации общественности, оценивать степень влияния фейков на аудиторию и прочее. Сегодня на рынке уже есть алгоритмы для поиска примитивных фейков, но такие решения всё же предусматривают участие живого модератора, указали эксперты. Однако выявить изобретательно поданную недостоверную информацию, например, связанную с манипуляцией статистическими данными, пока может только человек, признали специалисты.
Многозадачный «Вепрь»
Главный радиочастотный центр (ГРЧЦ), подведомственный Роскомнадзору, ищет разработчика системы раннего выявления «точек информационной напряженности» в интернет-СМИ и на других сетевых ресурсах. Это следует из материалов ГРЧЦ, с которыми ознакомились «Известия». Стартовая цена конкурса на создание системы под условным обозначением «Вепрь» — 60 млн рублей, сказано в бумагах. Под «точками информационной» напряженности» (ТИН) заказчик понимает «факты распространения общественно значимой информации под видом достоверных сообщений, которая создает угрозу причинения вреда жизни и (или) здоровью граждан, имуществу, угрозу массового нарушения общественного порядка и (или) общественной безопасности» — то есть фейки.
Алгоритм должен работать на основе математических поисковых и оптимизационных моделей и методов машинного обучения, требует от потенциальных разработчиков ГРЧЦ. «Вепрь» должен охватывать ресурсы с ежедневной аудиторией не менее 1 млн человек и уметь приоритизировать ТИН по степени влияния на их посетителей, оценивать возможность преобразования фейка в угрозу для информационной безопасности. Среди задач системы также «выявление негатива, оскорблений в отношении заданного субъектного и объектного состава» в рамках определенных тем, выявление распространения недостоверной информации по этим темам, а также целенаправленно проводимых информационных кампаний.
«Известия» направили запросы в Роскомнадзор и ГРЧЦ.
«Вепрь» — не единственная IT-система, которую подведомственное Роскомнадзору предприятие заказывает для автоматизации выявления противоправного контента в Сети. Например, как писали «Известия», в июне этого года ГРЧЦ объявило конкурс на создание информсистемы «Окулус», которая с помощью искусственного интеллекта будет выявлять нарушающие российское законодательство изображения и видеоматериалы. Как следует из технического задания, система должна анализировать не менее 200 тыс. изображений в сутки с погрешностью не более 20%. Алгоритмы должны выявлять в том числе материалы с признаками терроризма и экстремизма, призывами к массовым беспорядкам, оскорбления в адрес российских государственных символов и органов власти.
Систем, которые бы могли полностью автономно выявлять фейки в социальных сетях и интернете, в мире пока нет, отметил эксперт Российской ассоциации электронных коммуникаций (РАЭК) Карен Казарян. Twitter и Facebook (соцсеть принадлежит организации Meta, признанной в РФ экстремистской) умеют только размечать потенциально нарушающие их правила публикации для проверки людьми, рассказал он. Фейки — вещь сугубо субъективная, поэтому автоматизировать их поиск крайне сложно, но новую систему можно было бы использовать в качестве вспомогательного инструмента для сокращения работы модераторов, полагает эксперт.
Мониторинг с человеческим лицом
Организовать мониторинг фейков несложно, продуктов для этого достаточно много, отметил руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров. Заявленный бюджет проекта в 60 млн рублей даже несколько избыточен, утверждает он. Но сложности возникают с тем, какую информацию считать достоверной — здесь никаких методов и приемов нет.
— За исключением самых элементарных — можно выявить, к примеру, когда одни лица открыто оскорбляют других, в частности, связанных с государством. То есть такой контент можно выявлять там, где есть четкая семантика. Но там, где она нечеткая, где приводится статистическая и иная сложная информация, заставляющая пользователя сделать вывод относительно достоверности тех или иных сведений, искусственный интеллект помочь не сможет. А именно такие публикации и представляют наибольшую опасность, — отметил эксперт.
Достоверность информации зачастую не в состоянии оценить даже владелец ресурса, который ее размещает — например, если она поступает из заслуживающих доверия источников, проверить высказывания которых сложно, указал Игорь Бедеров.
Создание такой системы с технической точки зрения — реальная задача, уверен руководитель направления «Разрешение IT&IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле.
— Похоже, что задумка надзорных органов — автоматизация анализа публикаций в СМИ и в социальных сетях, а также комментариев пользователей на предмет содержания сведений, нарушающих действующее законодательство. После выявления таких публикаций возможно два сценария: либо взаимодействие ведомства с платформой на предмет понуждения к удалению контента, либо возбуждение дел на авторов контента, — считает эксперт.
Можно предположить, что в случае успеха проекта в будущем внедрять такую систему будут и владельцы интернет-ресурсов, не исключил Ярослав Шицле.
Подобные решения могут быть интересны и востребованы не только органами власти, но и структурами, отвечающими за корпоративные коммуникации, в частности антикризисные, добавил гендиректор TelecomDaily Денис Кусков.