Около четверти созданных ИИ звуковых дипфейков практически неотличимы ухом человека от реальных аудиозаписей человеческих голосов, предупреждает газета «Известия».
На это обратили внимание ученые из Университетского колледжа Лондона (UCL). Свои суждения они проверили на практике, пригласив 500 добровольцев, разделенных на носителей английского и китайского языков.
Часть из них долгое время училась распознавать дипфейки, в то время как другая часть абсолютно не готовилась ни к чему. После этого с помощью нейросети VITS было подготовлено 50 коротких аудиозаписей, а потом их дали послушать испытуемым.
Результаты исследования оказались любопытными: подготовленные и неподготовленные люди не смогли выявить 25 – 27% дипфейков, поэтому уровень подготовки не сыграл никакой роли. Соответственно, мошенники, использующие подобную технологию, могут одинаково обмануть любого гражданина и это является определенной опасностью, в особенности для пожилых людей.
Специалисты рекомендуют гражданам критически относиться к любой информации и перепроверять всю поступающую им информацию.
Ранее МедиаПоток писал, что IT-эксперт Геллер перечислил признаки взлома компьютера и смартфона через VPN.