Ученые из США и Китая нашли новую уязвимость в голосовых помощниках на смартфонах. Специалистам удалось отправить ассистентам различные команды таким образом, чтобы о них не узнал хозяин устройства.
По мнению экспертов, этим могут воспользоваться мошенники, например, чтобы открыть входную дверь, вывести денежные средства со счета или купить товары онлайн.
Компания Amazon уже заявила о том, что приняла меры для повышения уровня защиты своего устройства Alexa. Google пояснила, что ее помощник Google's Assistant оснащен специальной функцией, которая глушит скрытые аудио-команды.
В свою очередь, в Apple напомнили, что для успешной передачи команды Siri злоумышленнику придется сначала разблокировать iPhone или iPad.