Мошенники могут использовать персональные голосовые приветствия на автоответчиках для создания дипфейков, предупреждают эксперты в материале «Известий». Записи позволяют злоумышленникам использовать голос человека для создания фальшивых аудиосообщений и последующих атак на окружение.
Специалисты напомнили, что персональное голосовое приветствие на автоответчике — это образец голоса, который мошенники могут использовать в своих корыстных интересах. С помощью ИИ-технологий злоумышленники создают голосовые дипфейки, которые фигурируют в распространенных схемах обмана, например, с просьбой одолжить деньги или «фейковым боссом».
Эксперты отмечают, что чем больше оригинальная запись, тем более высокого качества подделку могут создать аферисты. Более того, голосовые дипфейки становятся всё более качественными, благодаря развитию ИИ. Они могут воссоздавать кажущиеся достоверными тембр и интонацию, использовать фразы, характерные для «донора» голоса.
Определение таких подделок занимает время, а фальсификации заметны только при тщательном рассмотрении. Поэтому человек, который подвергается такой атаке, может не среагировать в моменте.
Будьте бдительны и предупредите близких!
Чтобы обезопасить себя, лучше не записывать голосовые приветствия в принципе, либо не делать это самостоятельно, а воспользоваться услугами операторов связи, которые могут записать приветствие с помощью робота, рекомендуют эксперты.
Также если вам пришло сомнительное голосовое сообщение, то лучше перезвонить человеку и уточнить информацию.
Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.