В соцсетях и СМИ активно расходится сообщение с информацией о том, что с помощью нейросетей мошенники создают цифровые копии умерших и используют их в своих целях.
От лица Центра цифровой экспертизы Роскачества сообщается, что обученный на реальных данных человека нейробот может пройти биометрическую верификацию в некоторых системах, подтвердить голосом или онлайн-присутствием согласие на получение микрозайма и даже подписать электронный документ.
Как на самом деле
Эта информация не имеет ничего общего с действительностью. В пресс-службе Центра биометрических технологий (ЦБТ), который является оператором Единой биометрической системы рассказали ТАСС, что сообщения о возможности получения микрозайма при помощи «цифровой копии» человека и биометрической верификации без его ведома являются ложными, поскольку в РФ не существует сервиса, который позволяет провести такую операцию.
«Сообщения о том, что с помощью видеоидентификации и «цифровой копии» личности можно оформить микрокредит на человека без его ведома — фейк», — рассказали в ЦБТ.
В пресс-службе пояснили, что любой сценарий применения биометрии предусматривает многофакторную защиту.
«Например, при дистанционном открытии банковского счета от пользователя требуется авторизоваться через Госуслуги, посмотреть в камеру и произнести три последовательности цифр. Сочетание нескольких механизмов защиты позволяет достоверно подтвердить личность человека и пресечь мошеннические действия».
В ЦБТ заверили, что и заранее подготовленные фото, видео или дипфейк также не помогут мошенникам, поскольку во всех сервисах, задействующих биометрию, применяются алгоритмы «лайвнесс», которые и помогают отличить реального пользователя от фейкового.
При этом, как отмечают эксперты Роскачества, мошенники действительно используют технологию цифрового «воскрешения» для воздействия на уязвимых людей, переживающих утрату.
Цифровые копии могут убеждать родственников в необходимости «финансовой помощи», рекомендовать покупку определенных товаров или услуг. Однако эксперты отмечают, что использовать технологию для финансовых махинаций в банках или микрокредитных организациях злоумышленникам не удастся. Даже обученный на реальных данных человека нейробот не сможет пройти биометрическую верификацию и подтвердить согласие на получение микрозайма.
Отметим, что, по словам начальника отдела аналитического обеспечения АНО «Диалог регионы» Сергея Маклакова, число дипфейков в российском сегменте интернета с начала 2025 года выросло на треть по сравнению с показателем за весь прошлый год, а контент становится сложнее и качественнее.
Однако эксперт подчеркнул: «Не нужно демонизировать ни дипфейки, ни искусственный интеллект и создавать заградительные барьеры для развития этой отрасли. Это очень перспективная технология, которая может использоваться в художественных, образовательных, научных целях. Но существуют риски, на которые мы должны отвечать развитием специальных продуктов».