https://www.amur.life/news/2025/10/26/moshenniki-nauchilis-poddelyvat-golosa-lyudey-v-realnom-vremeni

Мошенники научились подделывать голоса людей в реальном времени

26 октября 2025, 21:11

Эксперты по кибербезопасности из NCC Group установили, что современные технологии искусственного интеллекта позволяют воспроизводить голос любого человека в режиме реального времени, что свидетельствует о переходе дипфейков на новый уровень изощренности. В ходе исследования были проанализированы несколько случаев нестандартного мошенничества.

В рамках практических испытаний специалисты продемонстрировали, что для создания точного голосового клона достаточно наличия аудиозаписи речи и стандартного ноутбука, оборудованного базовой графической картой. При этом система оперативно генерирует голос с естественным звучанием, который невозможно отличить от голоса реального, в том числе знакомого человека, сообщает «Московский комсомолец».

Специалисты охарактеризовали данный метод как «дипфейк-фишинг» или «речевой фишинг», отметив, что эта технология позволяет злоумышленникам мгновенно имитировать голос собеседника без заметных задержек. В экспериментальных условиях исследователи применяли данную технологию совместно с технологией подмены телефонного номера. В большинстве случаев испытуемые не смогли отличить синтезированный голос от подлинного.

Отличительной характеристикой данной атаки является отсутствие необходимости в сложном оборудовании или мощных серверных решениях. Все операции осуществляются с использованием программного обеспечения с открытым исходным кодом и стандартных вычислительных ресурсов. Даже ноутбук с видеокартой RTX A1000 способен справляться с подобными задачами.

Для защиты от данного вида мошенничества эксперты рекомендуют применять дополнительные методы верификации: секретные пароли, кодовые фразы и другие защитные механизмы.