В Tik Tok появилось видео, где председатель правления Сбера Герман Греф якобы заявляет, что Владимир Путин на ВЭФ пригрозил уволить главу Банка России Эльвиру Набиуллину, если она не понизит ключевую ставку. Так ли это, разбираемся в совместном проекте НИУ ВШЭ и АНО «Диалог Регионы» по проверке достоверности информации в рамках фактчекинговой платформы «Лапша Медиа».

Как на самом деле

На самом деле президент заявлял ровно обратное: он отметил, что положительно оценивает работу главы ЦБ Эльвиры Набиуллиной, и регулятор вовремя начал снижать ставку. При этом он отверг опасения о переохлаждении экономики, пояснив, что резко снижать ставку нельзя — тогда цены будут расти. ЦБ борется с инфляцией и пытается вернуться к известным и нужным показателям — не более 4-5%, отметил президент. Стагнации в экономике России нет, подчеркнул он, необходимо обеспечить ее мягкую спокойную посадку. Ничего хорошего с экономикой не будет, если инфляция начнет захлестывать.

Screenshot 20250911 130323 Telegram

Сейчас ситуация с ценами стабилизировалась. Хотя утверждения о победе над инфляционным давлением в России преждевременны, однако заметен прогресс в его снижении. Об этом сообщал замглавы ЦБ Алексей Заботкин на пресс-конференции, посвященной проекту основных направлений единой государственной денежно-кредитной политики на 2026–2028 годы, передает корреспондент РБК. Согласно данным Росстата, рост потребительских цен в РФ с 19 по 25 августа составил 0,02% после пяти недель подряд снижения цен.

Snimok Jekrana 2025 09 12 101832

Согласно базовому сценарию прогноза ЦБ, в 2025 году инфляция составит 6-7%, ВВП вырастет на 1-2%. На 2026 и 2027 годы ЦБ закладывает инфляцию на целевом уровне 4%, и рост экономики 0,5-2,5%. Эксперты сходятся во мнении, что правительство не будет давить на регулятора при выборе траектории ключевой ставки. Банк России в июне 2025 года начал её снижение, и сейчас она находится на уровне 18%. Аналитики, опрошенные ТАСС, считают, что на заседании 12 сентября ЦБ опустит её до 16%.

Это видео — дипфейк, то есть подделка, метод синтеза контента, основанный на машинном обучении и искусственном интеллекте. Это подтвердила система «Зефир» — информационная система мониторинга аудиовизуальных материалов, в том числе дипфейков, на основе транскрибации речи, алгоритмической оценки и анализа с помощью ИИ.

Screenshot 20250911 130337 Telegram

Само видео для дипфейка взято из оригинального интервью Германа Грефа РБК.

Нейросети научились создавать цифрового двойника практически любого человека. Они могут подделывать не только внешность, но и голос. Нейросеть накладывает фрагменты контента на исходное изображение. Таким образом подменяется лицо, мимика, жесты и голос в видео или звуковой дорожке.

Технология может быть использована и для манипуляции общественным сознанием. Так, дипфейки с участием политических деятелей, знаменитых актеров и иных известных персон генерируют как шутники, так и мошенники.

Несанкционированные цифровые копии могут считаться посягательством на использование чьей-то личности или чужого бренда. Известны случаи, когда мошенники с помощью дипфейка маскировались под руководителя отдела организации. Сотрудники переводили деньги злоумышленникам, потому что считали, что им такую задачу поставил их начальник. На самом же деле голос или изображение были сгенерированы нейросетью.

В России мошенники предпринимали попытки размещения фейковых сообщений якобы от имени известных бизнесменов. Видеоролики с их дипфейками рекламировали возможности получения супердоходов (конечно же, несуществующих), для чего требовалось перейти на мошеннические сайты.

Snimok Jekrana 2025 09 12 102438

Распространенность дипфейков можно оценить как весьма широкую, рассказал заведующий кафедрой информационной безопасности киберфизических систем НИУ ВШЭ Олег Евсютин.

«С течением времени мы будем сталкиваться со стремительным ростом их количества. Если еще несколько лет назад для создания подделки высокого качества требовались навыки видеомонтажа и кропотливая работа, то в настоящее время достаточно написать правильный промпт для нейронной сети. Поэтому сгенерировать дипфейк с минимальными затратами денег и времени может буквально любой человек», — пояснил он.

По словам эксперта, дипфейк — это не всегда про киберугрозы. Цели у дипфейков могут быть вполне безобидными, и многие дипфейки создаются для развлечения. Однако с точки зрения кибербезопасности дипфейки представляют серьезную проблему. Преступники могут использовать сгенерированные изображения, видео или аудиозаписи для мошенничества или шантажа, для дискредитации человека. Особенно большой ущерб могут нанести дипфейки с участием известных личностей, политиков. Обычно такие дипфейки призваны нанести урон репутации жертвы, манипулировать общественным мнением, провоцировать панику и напряженность в обществе.

Несмотря на то, что программные средства для выявления дипфейков активно разрабатываются и развиваются, их в основном используют крупные компании, работающие с цифровым контентом. Для рядового пользователя ситуация сложнее.

«Лучший инструмент для противодействия попыткам киберпреступников нас обмануть — это критическое мышление. Во-первых, всегда обращайте внимание на источник информации. Если видео с шокирующим поведением популярной личности выложено на сомнительном канале или отправлено незнакомцем, это повод насторожиться. Во-вторых, задайте себе вопрос: какой основной посыл несет фото или видео? Если главная цель контента — вызвать страх или гнев, спровоцировать нас на какое-то действие, возможно, он создан специально для манипулирования нашими эмоциями и содержит подлог. В-третьих, внимательно присмотритесь к самому контенту, например, подозрительному видео. Распознать подделку может быть достаточно сложно, но есть ряд признаков, на которые стоит обратить внимание. Некоторые участки видео могут быть размытыми и плохо детализированными. Выражения лиц сгенерированных людей часто не совпадают с тоном голоса и смыслом речи, глаза выглядят стеклянными. Искусственную природу видео может также выдавать неестественное моргание или несовпадение движения губ и аудиодорожки», — рассказал Олег Евсютин.

Таким образом, подчеркнул он, несмотря на то, что дипфейки действительно могут обмануть даже технически подкованных людей, они не являются непобедимым злом. Критическое отношение к любой информации и здоровый скептицизм — отличные помощники для защиты от влияния злонамеренных дипфейков.

Кроме того, существуют специальные программы распознавания, которые анализируют видеоизображения и замечают незначительные искажения, возникающие в процессе создания дипфейка.

Программы, с помощью которых можно обнаружить дипфейки:

  • Forensically — простой и понятный набор бесплатных инструментов для анализа изображений.
  • Image Edited — бесплатный сервис, который ищет изменения в фотографиях, анализирует изображение на уровне пикселей и их цветов.
  • Ghiro — автоматически анализирует огромное количество изображений с целью проведения криминалистического анализа.
  • Truepic — проверяет фото и видео на предмет внесенных изменений.
  • KaiCatch — распознает аномалии и искажения в фото и видео с помощью ИИ.
  • Microsoft Video Authenticator — оценивает фото и видео и определяет вероятность монтажа.
  • Deepware — бесплатный инструмент для анализа видео.

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Проверено НИУ ВШЭ