
Ученые Астраханского государственного технического университета разработали особую систему распознавания подлинности любой аудиозаписи, в том числе сгенерированной с помощью искусственного интеллекта.
"Нами было проанализировано около 70 тысяч аудиоматериалов. Процесс занял значительное время, но в результате получился модуль, способный в режиме реального времени отличить фейковую запись от подлинной, - рассказывает "РГ" автор проекта, аспирантка вуза Ольга Курманова. - Метод работает даже в тех случаях, когда тембр оригинальной записи накладывается нейросетью на голос злоумышленника, ведь любая из этих технологий оставляет свои специфические следы".
В ходе работы пришлось исследовать все существующие подходы и программные решения в этой области. А их на рынке оказалось немало. Отличительной особенностью астраханской разработки стало то, что нейросеть не просто выдает односложные ответы, фейк это или нет, а формирует детализированный отчет с аналитическим пояснением в пользу предложенной версии.
"Это делает систему особенно востребованной для защиты при телефонных звонках и, что особенно актуально, при общении в мессенджерах. Именно с помощью последних мошенники чаще всего и связываются со своими "цифровыми жертвами". Технология поможет своевременно выявлять и пресекать подобные инциденты", - подчеркивает молодой ученый.
Для распознавания голос загружается в особую программу, где буквально за несколько секунд выдается отчет по наличию или отсутствию признаков фальсификации. По мнению Ольги Курмановой, это не подвластно обычному человеческому уху, даже если у его обладателя есть обширный экспертный опыт в таком вопросе.
"Аудиозапись оценивается более чем по ста параметрам. Это и неестественные интонации, и монотонность, и отсутствие фоновых шумов или их слишком явное присутствие. Систему "настораживает" наличие включений в звуке, характерных только для нейронных сетей. Речь идет об эффекте металлического голоса и других особенностях, - поясняет автор проекта. - Модуль способен определить и сложный цифровой монтаж, то есть когда реальная речь сменяет сгенерированную. И трудно разобрать, где правда, а где ложь".
Свое будущее диссертационное исследование астраханка посвятит дополнению созданной системы распознавания сфальсифицированных голосовых сообщений функцией выявления фейковых видеосюжетов и текстов.