Фейки о ситуации на Украине: самые популярные приемы

Авторы фейков не придумывает новые приемы и способы дезинформации, а активно применяют уже отработанные механики, которые ранее  использовались, например, для распространения коронавирусных фейков.

Мы собрали и проанализировали фейки, которые появились в российском сегменте интернета с начала специальной военной операции на Украине. Приводим популярные способы того, как злоумышленники создают фейки из ничего.

Поддельные документы

Авторы фейков находят в интернете образцы официальных бланков различных российских и иностранных ведомств и с помощью графического редактора переделывают на свой лад.

К таким фейкам можно отнести историю про школьника, который получил письмо от «Юнармии» с просьбой пройти срочную службу. А накануне 9 мая появился фейк о том, что Министерство культуры России предоставит своим ценным сотрудникам отсрочку от грядущей «всеобщей мобилизации».

 

Архивная хроника, старые аудио- и видеоматериалы

В качестве основы для фейка часто используют старые видео и фильмы из YouTube.

Например, в прямом эфире украинского «24 канала» показали «кадры падения подбитого российского вертолета Ми-28». Для создания этого ролика были использованы кадры крушения Ми-28, которое произошло в 2015 году на полигоне под Рязанью. При этом на видео наложили аудиодорожку со стрима блогера Глада Валакаса (Валерия Жмышенко), чтобы сымитировать переговоры пилота с диспетчером.

 

Копии сайтов российских СМИ и органов власти

Чтобы вызвать доверие к распространяемой информации и стимулировать у читателя желание поделиться новостью, авторы фейков иногда подделывают сайты.

Например, в марте создали поддельный сайт фракции «Единая Россия» и опубликовали новость о том, что Дмитрий Медведев заявил о намерениях России уничтожить группировку спутников Starlink. Фейку поверили не только обычные люди, но и журналисты.

 

Сообщения об угрозах на приграничных территориях

Такую информацию распространяют в соцсетях и мессенджерах, чтобы посеять панику. Авторы фейков часто придумывают различные катастрофические сценарии, а затем размещают эту информацию в телеграм-каналах и соцсетях.

Например, так распространяли новость о введении «красного» уровня опасности в Белгороде, захвате села Середа или холере в Белгородской области.

 

Поддельные радиопереговоры

Иногда в сеть выбрасывают якобы перехваченные радиообмены российских войск. Такие материалы сложно сразу определить как фейк, но эксперты могут распознать их достоверность по речи, специальным военным терминам и даже по эмоциональной экспрессии во время разговора.

Из последних таких фейков — якобы радиообмен около острова Змеиный, где российские военные сообщают, что очень опасаются работы беспилотников «Байрактар».

 

Сведения о военных неудачах, которые выдают за успехи

Нередко украинские ракеты, сбитые украинскими силами ПВО,  выдают за российские.

Например, под Осокорками рядом с Киевом украинские ПВО сбили свой самолет, но потом написали, что сбили российский. Или же сбитую в Днепропетровской области украинскими силами ПВО ракету «Точка-У» выдают за российскую ракету.

 

Заявления известных ньюсмейкеров

В соцсетях и телеграм-каналах известных украинских политиков размещают заведомо ложные и легко опровергаемые фейки. Это делают специально, чтобы за небольшое время фейк прочитали сотни тысяч человек.

 

Посты из креоферм

Креативные фермы — это специальные чаты, где украинцы размещают готовые фейковые посты, которые потом распространяют в российском сегменте интернета. Там же публикуют заказы на новые «креативы». Например, в таких креофермах создали фейковую новость о том, что родственникам погибших солдат выплатят только по 11 тысяч рублей.

Не дайте ввести себя в заблуждение

Как россияне получили оскорбительные письма от «Госуслуг»

20 апреля некоторые пользователи «Госуслуг» получили официальное письмо от сервиса с текстом «Госпрограмма Престижный Гроб в Обмен на Службу». При это сайт никто не взламывал. Рассказываем, как злоумышленникам удалось так сделать.

Такое сообщения получили пользователи «Госуслуг»

Злоумышленники создают фейковый аккаунт на «Госуслугах»

На портале можно указать произвольные личные данные. Поэтому злоумышленники зарегистрировали поддельный аккаунт: в графу с именем ввели «Госпрограмма Престижный», а в качестве отчества указали «Гроб в Обмен на Службу».

На «Госуслугах» можно указать любое имя

Злоумышленники рассылают письма о смене e-mail от имени фейкового аккаунта 

При смене личного электронного адреса система позволяла отправить уведомляющие письма от своего имени на любую другую почту. Неизвестные воспользовались этим багом.

Скорее всего, злоумышленники взяли произвольную базу данных с e-mail адресами россиян. Затем от имени поддельного аккаунта начали рассылать уведомления о смене личного электронного адреса. Вероятно, они не делали это вручную, а написали автоматическую программу, которая и занялась массовой рассылкой.

Пользователю AlexGluck на «Хабре» удалось повторить действия злоумышленников

Минцифры обнаруживает уязвимость и устраняет ее

Чтобы исключить будущие фейковые рассылки, Минцифры изменило шаблоны e-mail уведомлений «Госуслуг». Теперь уведомление об изменении почты выглядит так:

Новый шаблон  e-mail уведомлений «Госуслуг»

Не дайте ввести себя в заблуждение

Как определить фейковый сайт или ссылку

В интернете создали поддельный сайт фракции «Единая Россия». На нем опубликовали новость, что Дмитрий Медведев заявил о намерениях России уничтожить группировку спутников Starlink.

Многие СМИ растиражировали информацию, не проверив найденные по фейк-ссылке данные. Мы подскажем, как определять фейковый сайт от настоящего, чтобы вы не повторили ошибки журналистов.

Фейковый сайт

пример фейкового сайта

Настоящий сайт

пример оригинального сайта

Как отличить фейк ссылку от оригинала?

1. Проверьте, правильно ли указан URL-адрес

URL — это адрес сайта в интернете. Его легко найти в адресной строке браузера.

URL-адрес помогает в интернете найти путь к сайту, так же как ваш домашний или рабочий адрес помогает найти дорогу к вам. Как и любой адрес, эта ссылка уникальна и не повторяется.

Доменное имя или URL-адрес настоящего сайта фракции «Единая Россия» выглядит так:

ссылка на настоящий сайт единой россии

URL-адрес фейкового аккаунта очень похож. Но все же отличается отсутствием нескольких букв, потому что настоящий адрес уже занят.

фейк ссылка сайта единой россии

Как быть, если вы до этого момента не знали настоящий адрес сайта?

 

2. Узнайте, есть ли у сайта SSL-сертификат

Это самый простой способ убедиться в подлинности сайта. SSL-сертификат, или цифровая подпись сайта, отвечает за безопасность подключения к странице.

Для этого кликните по адресной строке и посмотрите на URL ссылки:

Если указан протокол https — у сайта есть SSL-сертификат, а значит, злоумышленникам будет сложнее его взломать и похитить ваши данные.

Если указан протокол http — у сайта нет SSL-сертификата, а значит, этот сайт проще взломать или заразить вирусами.

Сайты органов государственной власти и частных организаций, университетов и школ, банков и магазинов сейчас получают SSL-сертификат, чтобы обезопасить персональные данные своих пользователей. Поэтому, если вы видите у ссылки http в адресной строке вместо https, — покиньте сайт.

А что может указать на надежность сайта, кроме SSL-сертификата?

 

3. Проверьте безопасность соединения с сайтом

Чтобы понять, безопасен ли сайт, нужно изучить информацию о ссылки в той же адресной строке:

Если сайт безопасен, вы увидите значок замочка . Это значит, что сайт использует защищенное соединение для обмена информацией.

Если сайт не безопасен, вы увидите значок кружочка . Это значит, что сайт не использует защищенное соединение для обмена информацией, и ваши данные могут достаться посторонним.

Если сайт опасен, вы увидите красный предупреждающий треугольник . Это значит, что на такие сайты лучше не заходить. А если зашли — не оставляйте там никаких личных данных.

Если сайт безопасен , то вы можете посмотреть сертификат сайта, который содержит информацию о сайте и его владельцах.

Для этого нужно:

  • Кликнуть на иконку замка ;
  • В открывшемся окне выбрать «Безопасное подключение»;

  • В следующем диалоговом окне выбрать «Действительный сертификат»;

  • В открывшемся окне сертификата выберите окно «Состав» и найдите поле с надписью «Субъект». Здесь находятся данные о владельце сайта.

С помощью этой информации вы можете узнать, на кого зарегистрирован домен. В данном случае он принадлежит «Единой России».

Это все? Как еще можно узнать, безопасен ли сайт?

 

4. Посмотрите на возраст домена и сайта

Это еще один действенный способ проверить сайт на подлинность.

Сайты и домены имеют свой возраст. Возраст домена отсчитывают с момента его первой регистрации, а возраст сайта — с момента публикации первого поста. Эти данные можно узнать на специальных сайтах.

Чем «моложе» сайт, тем меньше к нему доверия. Даже у поисковиков: они лучше ранжируют в поисковой выдаче те сайты, которым больше 8 месяцев.

Чтобы определить возраст домена, воспользуйтесь сервисом Whois — он позволяет узнать дату регистрации, возраст домена и получить контакты владельца URL-адреса.

Например, чтобы получить информацию о сайте «Единой России»:

  1. Копируем адрес страницы в адресной строке;
  2. Вставляем скопированный адрес в адресную строку на сайте Whois и нажимаем на кнопку «Проверить»;                                           
  3. Видим подробную информацию о доменном имени er-gosduma.ru. Например, из этой справки мы узнали, что этот сайт принадлежит партии «Единая Россия», был зарегистрирован 31 августа 2020 года, а срок действия оплаты домена заканчивается 31 августа 2022 года.

Чтобы определить возраст сайта, нужно воспользоваться сервисом Internet Archive.

Чтобы получить информацию о сайте «Единой России»:

  1. Копируем адрес сайта в адресной строке;
  2. Вставляем скопированный адрес страницы в поисковую строку на сайте Internet Archive, выбираем «Поиск по архивным веб-сайтам» и нажимаем на кнопку «Go»;
  3. В открывшемся окне мы видим хронологическую ленту и календарь. Здесь можно увидеть, что публикации на сайте появились еще в 2013 году.

Остались ли еще какие-нибудь способы, которые помогут отличить фейковую ссылку от настоящей?

 

5. Обращайте внимание на косвенные признаки, которые указывают на нечистоплотность сайта

Например, сайт может содержать текст с большим количеством ошибок и опечаток или иметь чрезмерно навязчивую рекламу, которую сложно отключить.

 

6. Узнайте, можно ли связаться с владельцем сайта

Большинство сайтов содержат внизу страницы форму обратной связи, через которую вы можете связаться с владельцем сайта. Если по ссылке нет контактной информации или формы для связи — это повод для беспокойства.

Например, у настоящего сайта «Единой России» есть форма для обратной связи:

 

Подводим итоги

Что делать, если сомневаетесь, перед вами настоящий сайт или фейк-ссылка:

  1. Посмотрите, правильно ли указан URL-адрес страницы;
  2. Убедитесь, есть ли у сайта SSL-сертификат;
  3. Проверьте безопасность соединения;
  4. Посмотрите на возраст домена и сайта, фейк ссылки обычно зарегистрированы совсем недавно;
  5. Избегайте сайтов с большим количеством ошибок и опечаток;
  6. Не заходите  на сайты с навязчивой рекламой;
  7. Не доверяйте ресурсам, у которых нет формы обратной связи или контактов.

 

 

Дипфейк и как его распознать на глаз

Дипфейки активно внедряются в интернет-пространство. Эту технологию используют для искусства, привлечения внимания к социально значимым проектам и развлечения. Однако инструментом умело жонглируют и злоумышленники. Дипфейк часто применяется для шантажа, мошенничеств и черного пиара в политике.

Подробнее — в нашем материале.

Что такое дипфейк?

Сам термин происходит от английского словосочетания: deep learning — «глубинное обучение», и слова fake — «подделка». Если говорить простыми словам, то дипфейк — это когда настоящее лицо человека на видео или фото подменяется другим с помощью ИИ. Этим методом подменяют и голос.

Благодаря этой технологии создают видеоролики, на которых человек выполняет и произносит то, что никогда в жизни не делал и не говорил. Если нужно, чтобы в «Терминаторе» был не Арнольд Шварценеггер, а Бред Питт — дипфейк поможет.

Как эволюционировали дипфейки

Если сначала подобный инструмент искусственного интеллекта был доступен только в киноиндустрии, например, для Голума из саги «Властелин колец», то со временем возможности совершенствовались. Так, при создании персонажей фильма «Аватар» использовали новую технологию анимации лица facial motion retargeting. С ее помощью переносили мимику людей на трехмерных героев. До этого нововведения при съемках подобных кинолент система захвата движений являлась общей.

Сейчас же эти возможности и сложные инструменты ИИ доступны широкому кругу пользователей. Теперь можно создавать дипфейки легко, например, с телефона или другого гаджета.

Но как же создается такая трансформация замены лиц людей? В основе технологии генерации видео в реальном времени лежат нейронные сети. Эта математическая модель, которая работает по тем же принципам, что и наш мозг, поэтому она способна к самообучению.

Процесс основывается на автоматизированном обучении. В создании дипфейка участвуют две нейронные сети. Первая — генерирует лица или голоса, а вторая определяет, похожи результаты синтеза на оригинал или нет. Нейросети учатся друг у друга, пока вторая не сможет отличить копию, созданную первой нейронкой, от образа оригинала. Этот механизм глубокого обучения называется генеративно-состязательной сетью (GAN).

Для создания контента этим методом нужны запись голоса и фото или видео. С медийными личностями все просто: в интернете много исходных изображений с их участием. Если вы не знаменитость, то образцы вашего голоса и фото находят в соцсетях и мессенджерах. Голосовых сообщений в общих чатах и пары десятков снимков достаточно, чтобы сделать среднего качества фейк, который выглядит и говорит как вы.

Как применяют дипфейки с пользой

Инструмент широко распространен в различных сферах: от маркетинга до образования. Особенно технологию дипфейк полюбили художники и дизайнеры, которые часто применяют ИИ в творческих проектах. Так, компания «МегаФон» использовала ее с актером Брюсом Уиллисом при съемках рекламы. «Двойник» голливудской знаменитости помог ускорить и удешевить процесс съемок видео.

А к 115-летию испанского художника Сальвадора Дали специалисты создали его цифровую версию. Виртуальный гений очень похож на оригинал, посетители  разговаривали с ним и даже делали селфи.

В 2020 году завирусился ролик, на котором бизнесмен Илон Маск поет советских шлягер «Трава у дома» группы «Земляне». Обзавестись вокальным талантом предпринимателю тоже помогла нейросеть.

Отметим, что персона создателя соцсети X (бывший Twitter) очень популярна и часто используется при создании подобного рода видео дипфейков. Так, на форуме «Диалог о фейках», который состоялся 22 ноября 2023 года в Москве, каждый желающий «примерял» его лицо с помощью специальной программы. Примечательно, что Илон Маск, а точнее его виртуальный двойник, сделанный ИИ, пригласил сам себя на форум.

Иногда дипфейки людей применяют для различного рода социальных кампаний. Так, одна американская НКО решила «оживить» Хоакина Оливера, который погиб в результате стрельбы, произошедшей в школе в 2018 году. Виртуальная копия подростка призвала зрителей проголосовать на выборах за политиков, которые выступают за ограничение ношения оружия.
Однако после выхода ролика в соцсетях началась полемика, появились критические комментарии об этичности использования технологии для воссоздания образа умершего человека, который уже не сможет высказать свою позицию самостоятельно. Тем не менее ролик привлек внимание общественности к проблеме ношения оружия.

В последнем эпизоде российского сериала «Диверсант» с применением дипфейка воссоздали персонажа погибшего актера Влада Галкина. Проект реализовали с согласия родственников. Отметим, что это не эпизод на несколько секунд, а большая роль – видео длилось восемь минут.

С помощью технологии deepfake поздравление президента РФ Владимира Путина по случаю начала 2024 года перевели на национальные языки. В видео-подделках глава государства поздравляет россиян на татарском, чеченском, башкирском, чувашском, алтайском, тувинском, ингушском, кабардинском и балкарском языках. Аудиодорожки с текстом сгенерированы с использованием нейросети, также изменен и видеоряд, чтобы подстроить мимику под длительность слов и особенности произношения.

В целом использование нейросетей бывает вполне невинным и применяться для развлечения. Так, с помощью ИИ оживляют на видео Мону Лизу, а лицо Брэда Питта добавляют Терминатору. Нейросеть даже создает изображения персонажей, которые похожи на настоящего человека. К примеру, как блогер-инфлюэнсер Лил Микела (Lil Miquela), у которой 3,6 млн подписчиков в одной из социальных сетей.

Опасность дипфейков для общества

Технологию дипфейк применяют не только для искусства, других благих намерений или развлечения, но и для разного рода махинаций и мошеннических схем. К примеру, известных актеров могут шантажировать откровенными видеороликами, где используются их лица. А обнародование такого контента нанесет урон по репутации знаменитостей. Подобного рода видео стали активно создавать с 2017 года. Но многие сайты успели их запретить и блокируют подобный контент в случае выявления. Речь идет о Reddit, Twitter и Pornhub.

Есть и другие случаи мошенничеств. Аферисты подделывают голоса, чтобы убедить перевести им деньги. К примеру, в 2019 году мошенники убедили сотрудника крупной компании перевести крупную сумму на их счета. Для этого они использовали голосовые дипфейки, создав голос его руководителя. Ущерб составил 240 тысяч долларов.

Используя ИИ злоумышленники создают различного рода компрометирующие кадры, а потом шантажировать жертву. Это случилось с индийской журналисткой Раной Айюб. Она занималась расследованиями и разоблачала злоупотребления власти. Видео с ее «участием» завирусилось, и это стало для нее тяжелым испытанием.

Кроме того, FaceID далеко не совершенна. Она может не различать работу нейросети от реального пользователя, и обход FaceID в банковских приложениях считается одним из примеров того, как мошенники могут использовать deepfake.

Фальшивки создают и для дезинформации. С помощью дипфейков влияют на массы, меняют вектор общественной мысли, что особенно актуально в контексте информационных войн современности. Зачастую подделки направлены на неопытных пользователей, а также рассчитаны на эффект внезапности.

На данный момент можно констатировать, что злонамеренное использование технологии со временем превращается в товар на политической сцене.

Так, летом 2023 года в ряде российских регионов на радиостанциях и телевидении прозвучало фейковое обращение от лица главы государства Владимира Путина. В нем сообщалось о введении в трех областях страны военного положения, а также об объявлении всеобщей мобилизации. Ролик оказался подделкой. Все тезисы обращения тоже оказались ложными. Его разместили в результате взлома сетки вещания телеканалов. Целью дипфейка было дестабилизировать обстановку и посеять в обществе панику.

Как отличить дипфейк на глаз

Качество замены на видео зависит от того, на каком количестве данных обучалась нейросеть. Чем больше данных — тем выше качество фейка. Но технология пока не так совершенна, чтобы обычный пользователь не смог не заметить работу ИИ. Есть несколько способов отличить его от оригинала на глаз:

  1. Обратите внимание на разницу в качестве картинки. Если перед вами подделка, то вы невооруженным глазом заметите отличия в четкости прорисовки лица и остальной части видео. Увидели, что у какой-то части ролика ниже разрешение, — перед вами монтаж. Как на этом видео, где к телу актрисы «пририсовали» голову королевы Англии Елизаветы II.

Баба Лиза поздравляет островных с Рождеством. Deepfake Queen: 2020 Alternative Christmas Message.

2. Приглядитесь, насколько пропорционально смотрятся части тела. Нереальные размеры лица или других частей тела свидетельствуют о подделке. Обычно при наложении головы одного человека на тело другого нарушаются пропорции. Если масштабы объектов на видео не совпадают, то перед вами обман. Например, в этом ролике головы Трампа и Байдена смотрятся непропорционального на фоне остальной массовки.

TRUMP vs BIDEN [DeepFake]

3. Посмотрите, как выполнены переходы между сценами. Часто они выглядят неестественно. Например, при смене кадра части лица могут постепенно меняться между оригиналом и подменой. При синтезе изображения борода и усы, родимые пятна, глаза, нос порой теряют в качестве или на время появляются не в тех местах. Например, как на этом ролике, где голову Аль Пачино с помощью ИИ наложили на актера Билла Хантера.

Spot on Al Pacino impression by Bill Hader [DeepFake]

4. Соотнесите цвет кожи в разных частях видео. Сопоставляя оттенки кожи в разных частях тела, можно увидеть разницу в цвете текстуры. Особенно хорошо это заметно, если у оригинала и подмены разные цвета или оттенки кожи. Например, в этом ролике на тело актрисы Элиссон Бри «приклеили» лицо Джима Керри. Этот дипфейк отлично демонстрирует разницу в тоне кожи на теле и на голове.

Jim Carrey GLOWS

 

5. Обратите внимание на зубы и цвет глаз. Для технологии deepfake по-прежнему сложно рисовать зубы, это своего рода проблема проблем. Также у человека на изображении бывает разный цвет глаз.

Инструмент для определения дипфейков

Дипфейки оказались новым вызовом в сфере информационной безопасности. Однако инструменты для их проверки уже есть, и они входят в обиход.  К примеру, FakeCatcher от Intel или DeepFake-Detection-SDK.

FakeCatcher определил 19 из 20 созданных для анализа дипфейков. DeepFake-Detection-SDK справился только с 12 из 20.

На российском рынке зарекомендовала себя система «Зефир», разработанная АНО «Диалог Регионы». Данная программа помогает выявлять сфабрикованный аудиовизуальный контент. Алгоритмы «Зефира» уже помогли распознать несколько фейковых обращений с Владимиром Путиным. На одном он якобы говорил о взаимодействии с Украиной, а на другом — о необходимости всеобщей мобилизации. Этот кейс мы упомянули выше.

«Зефир» высчитывает процентную вероятность дипфейка. К примеру, на прямой линии 14 декабря 2023 года Владимир Путин получил вопрос от «самого себя». Российский студент применил технологию и спросил главу государства о наличии у него двойников и его отношении к искусственному интеллекту. Анализ видеовопроса от «Зефира» показал вероятность в 78%.

 

Топ приложений для создания дипфейков в домашних условиях 

Рынок приложений, в которых вы сможете с помощью ИИ создавать различного рода фотографии и видео с дипфейками невероятно широк. Большинство из них имеет бесплатный демонстрационный период, а далее необходимо оплатить подписку.

FaceApp

FaceApp является одним из наиболее известных сервисов для генерации дипфейков. Оно набрало почти 500 000 оценок в App Store. Есть версия и для Андроид.

Оно знаменито тем, что лицо можно трансформировать различными способами. Например, ИИ способен вас состарить, сделать фотомоделью, изменить пол, цвет волос, глаз прическу, надеть очки, добавить улыбку или усы. В нем также имеется возможность избавиться от проблем с кожей за счет применения фильтра Hollywood.

FaceApp доступны и бесплатно, но самые полезные маски и возможности открываются после приобретения платной версии.

Zao

Эта китайская разработка взорвала сеть в 2019 году. Сервис заняла топ-3 в Apple Store в КНР. Его функционал заключается в том, что человек заменить лицо героя известного фильма или сериал на свое и почувствовать себя знаменитостью или просто развлечься, создавая забавный видео-контент. Однако у разработчиков случились проблемы, связанные с политикой конфиденциальности. На данный момент Zao нельзя скачать в РФ.

FaceSwapLite

FaceSwapLite тестируется в бесплатном режиме. Суть технологии заключается в том, что лица на изображении меняются местами. Благодаря этому можно записать забавный ролик или сделать фото. Эту программу для дипфейков особенно полюбили владельцы домашних животных, которые записывали ролики вместе со своими любимцами. Также в функционале FaceSwapLite небольшой набор масок, например, Санта Клауса или викинга.

Несмотря на то, что FaceSwapLite упрекают в простоте и том, что контур схватывается неточно, тем не менее это хорошее развлечение на полчаса.

Avatarify

Суть Avatarify заключается в том, чтобы «оживить» фото и заставить его петь. Вы загружаете снимок, а нейросеть подстраивает мимику губ под выбранный трек. Так можно создавать любопытные ролики для соцсетей. Разработчики предлагают тематические подборки песен для дипфейка. Например, новогодние, детские, из знаменитых фильмов и так далее.

Avatarify предлагает freeware пробный период в три дня, а потом за его применение нужно заплатить. Avatarify доступ для установки на Айфон и Андроид-девайсы.

DeepFaceLab

В DeepFaceLab генерирует дипфейк с помощью более тонкого инструментария. Новичкам сложно с ним работать, и оно коммерческое, но в нем можно добиться впечатляющих и весьма реалистичных результатов. Разработчики, конечно, предусмотрели бесплатную версию. Но в ней доступна только функция замены местами головы на двух кадрах, добавление текста и стикеров, набор которых весьма ограничен.

В платной версии DeepFaceLab можно не только изменить черты, но и сделать себя моложе. Движения губ сервис синхронизирует с речью, что создает реалистичный эффект.

Программа с ограниченным набором функций есть в App Store, более полная версия на GitHub. Для работы с ней есть гайды на английском языке, а также видеообзоры.

Morph

Morph создает короткие ролики из загруженных вами снимков. К примеру, чтобы показать стадии взросления человека или возрастных изменений за время жизни.

При этом необязательно брать снимки одной персоны. Например, легко превратить Дэниела Рэдклиффа в Анджелину Джоли. Есть опция наложения музыки из библиотеки мелодий.

Приложение недоступно для Android, у него пробная версия и платная.

ToonMe

В этом приложении для дипфейков доступен пробный период в три дня, а далее для пользования нужно оформлять платную подписку. ToonMe доступно для Андроидов и iPhone. А название образовано от английского слова cartoon – «мультик». Это объясняет основные возможности данного ИИ-сервиса.

При загрузке исходного изображения оно превращается в мультяшный образ. Картинку, полученную в результате таких манипуляций, можно сделать гифкой. В галерее есть дополнительные эффекты.

Reface

Эта разработка – аналог Zao, здесь каждый способен побывать в шкуре знаменитости. Схема работы приложения проста: загружаете свое селфи и нейросеть переносит вас на палубу «Титаника», вы становитесь героем боевика или ходите лунной походкой вместо Майкла Джексона.

Маски для дипфейков, которые доступны в Reface, смотрятся максимально естественно. Они не слетают и не добавляют неприятных шумов. Минус сервиса: большое количество рекламы. Избавиться от нее можно, если купить премиум-версию. В платном пакете предусмотрена высокая скорость загрузки и более четкое изображение. 

Есть версии как для Андроид, так и для iOs.

Законно ли использовать deepfake

Поскольку эти возможности искусственного интеллекта использовались не только в целях развлечения, но и для мошеннических схем и шантажа, встал вопрос об их законности. К тому же открытой остается тема защиты от репутационных рисков. Но поскольку технология дипфейк новая, то и законодательство, которое бы регулировало эту сферу, еще не сформировано. Некоторые страны стремятся к тому, чтобы урегулировать использование нейросетей. Но законотворческая деятельность пока не успевает за развитием ИИ.

Так, в штате Калифорния (США) приняты два ограничительных закона, связанных применением этого инструмента. Согласно закону, нельзя создавать откровенные кадры без согласия человека, а также генерировать дипфейковые ролики с участием кандидатов на госпосты в преддверии выборов.

В ЕС и Великобритании на фоне обеспокоенности ростом влияния информационных технологий принят ряд законодательных актов. В России эту область регулирует закон о клевете, который предусматривает наказание вплоть до лишения свободы. Несмотря на то, что в законе нет слова «deepfake», наказание можно понести за нанесение урона деловой репутации.

Согласно статье 152.1 ГК РФ, нельзя использовать изображение гражданина без его согласия, а в случае его смерти согласие дают только его родственники. Кроме того, даже если сам гражданин размещает фото или видео с собой в сети, это не дает другим права свободно брать подобные материалы без получения согласия.

Поэтому при использовании фото гражданина для создания дипфейков нарушается его право на охрану такого изображения, что влечет для нарушителя юридическую ответственность

Большую опасность представляют голосовые подделки, которые часто создают мошенники, поскольку нигде в мире не распространено право собственности на голос.

Некоторые эксперты предполагают, что в ближайшем будущем обывателям будет все труднее отличать реальные образы от поддельных. Пока непонятно, как жертв недобросовестного использования технологий ИИ защитит закон, но ясно, что уже сейчас усложняются алгоритмы для распознавания видео, сделанных с помощью дипфейка. Важно помнить и о цифровой безопасности и с осторожностью относится к голосовой почте и видеозвонкам. Если у вас возникнуть подозрения в подлинности ролика, то лучше все перепроверить еще раз.

Также важно провести беседу на тему цифровой безопасности с неопытными пользователями, к примеру, с пожилыми родственниками. Всегда важно проверять информацию, даже если она идет от известного «ньюсмейкера».

Самые крупные, страшные и нелепые фейки, в которые верили люди

Фейки стали популярны в пандемию коронавируса, но появились гораздо раньше. В этой статье поговорим о самых необычных фейках за последние 200 лет.

Фейк. На Луне есть жизнь

В 1835 году американская газета Sun опубликовала цикл статей о жизни на Луне. В издании говорили, что известный в то время астроном Джон Гершель-младший построил мощный телескоп. Прибор якобы мог увеличивать изображение в 42 тысячи раз. Авторы статей утверждали, что астроном направил аппарат на Луну и увидел там разумных бобров и крылатых мышелюдей.

Несмотря на абсурдность заявлений, многие люди поверили газете. Сам Гершель в это время работал в Африке и не знал, что ему приписывают научные открытия. Когда ему все же сообщили о публикациях, он разослал опровержения. Люди поняли, что история оказалось уткой.

В 1835 году люди поверили, что на Луне есть жизнь. На фото — рисунок с изображением лунных жителей
В 1835 году люди поверили, что на Луне есть жизнь. На фото — рисунок с изображением лунных жителей

Фейк. «Прибытие поезда» — первый фильм в истории

«Прибытие поезда» — работа братьев Люмьер, которую они сняли в 1895 году. Ее чаще всего называют первым фильмом в истории кинематографа. Это ошибочное мнение.

Первый фильм снял французский изобретатель Луи Лепренс в 1888 году. Картина называется «Сцена в саду Раундхэй». Она длится всего две секунды. В кадре — родные и друзья Лепренса прогуливаются по саду.

Самый первый в мире фильм   Сцены в саду Раундхэй 1888 год

[video-comment text=”«Сцена в саду Раундхэй» — первый фильм в истории”]

Фейк. Немцы делают мыло из павших солдат

Во время Первой мировой войны крупные британские газеты The Times и The Daily Mail написали о немецких фабриках трупов. Издания утверждали, что немцы свозят павших солдат на специальные фабрики. Там из их тел якобы добывают жир и делают мыло. Останки — отдают на корм свиньям.

Правду озвучили в 1925 году. Англичане официально признали, что история про фабрики смерти была выдуманной. Так они хотели дискредитировать немецкую власть и подавить моральный дух солдат: листовки с информацией о вымышленных фабриках разбрасывали над окопами противника.

В 1917 была популярна утка о том, что немцы пускают трупы своих солдат на переработку. Об этом писали английские газеты. Заголовки на фото: слева — «Немцы и их мертвецы»; по центру — «Немецкая фабрика трупов»; справа — «Мертвецы кайзера».
В 1917 была популярна утка о том, что немцы пускают трупы своих солдат на переработку. Об этом писали английские газеты. Заголовки на фото: слева — «Немцы и их мертвецы»; по центру — «Немецкая фабрика трупов»; справа — «Мертвецы кайзера».

Фейк. Инопланетяне напали на Землю

В канун Хэллоуина 1938 года в эфире американской радиостанции CBS вышла радиопостановка «Война миров». Она была основана на одноименном романе Герберта Уэллса. В центре сюжета — нападение марсиан на США. Программу стилизовали под настоящий выпуск новостей. Участники постановки изображали дикторов и очевидцев событий. Они рассказывали об инопланетных машинах, которые лучами смерти уничтожали все вокруг. Это сопровождалось правдоподобными аудиоэффектами: криками, скрежетом и воем.

В начале программы ведущий сказал, что это радиопостановка. Его услышали не все. По оценкам экспертов, за эфиром следили 6 млн человек, из них 1,2 млн поверили в реальность происходящего. Американцев охватила паника: люди бросали дома и уезжали из городов, страна встала в пробках, телефонные линии были перегружены. Успокоить людей удалось только на следующий день.

Однако есть и другая версия: массовой паники не было. Историю выдумали газеты, чтобы дискредитировать радио — одного из главных своих конкурентов.

Orson Welles - War Of The Worlds - Radio Broadcast 1938 - Complete Broadcast.

[video-comment text=”Радиопостановка «Война миров»: из-за нее люди подумали, что на них напали марсиане”]

Фейк. В Америке изобрели таблетку от всех болезней

В 1981 году американский пранкер Джоуи Скеггс разыграл СМИ. Скеггс позвал журналистов на конференцию к себе домой. Он представился доктором Джозефом Грегором и рассказал, что вывел новый вид тараканов.

Насекомые были невосприимчивы к токсинам и радиации. Из этих тараканов он извлек гормон, который лечит все известные болезни. Скеггс сказал журналистам, что лекарство даже дает людям иммунитет к радиации. На пресс-конференции он объявил, что таблетки на основе гормона будут доступны всем бесплатно.

Информация разошлась по множеству СМИ в виде фейковой новости. Скеггса даже позвали на телевидение. Только спустя несколько месяцев он раскрыл обман.

В 80-х американские СМИ написали о чудо-таблетках из тараканов, которые лечат все болезни. История оказалась фейком и отсылкой к роману Кафки «Превращение». Заголовок на фото — «Тараканий гормон называют чудо-лекарством»
В 80-х американские СМИ написали о чудо-таблетках из тараканов, которые лечат все болезни. История оказалась фейком и отсылкой к роману Кафки «Превращение». Заголовок на фото — «Тараканий гормон называют чудо-лекарством»

Фейк. У Ирака есть оружие массового поражения

В начале двухтысячных США хотели напасть на Ирак. Чтобы оправдать начало войны, госсекретарь Колин Пауэлл выступил с докладом на Совете безопасности ООН. Он заявил, что Ирак скрывает оружие массового поражения.

Речь Пауэлла основывалась на данных информатора. Им был иракский перебежчик Рафид Ахмед Алуан аль-Джанаби. Мужчина заявил, что видел передвижные биологические лаборатории. Позже выяснилось, что он соврал.

Война продлилась восемь лет: c 2003 по 2011 годы. Погибло 4,5 тысячи американских солдат. Данные о жертвах среди населения Ирака разнятся. Американские СМИ называют цифры от 100 до 300 тысяч человек.

Американцы использовали фейки о химическом оружии в Ираке, чтобы оправдать вторжение в страну
Американцы использовали фейки о химическом оружии в Ираке, чтобы оправдать вторжение в страну

Фейк. Хиллари Клинтон и ее сторонники связаны с тайной сектой педофилов

В октябре 2016 года в сеть утекли письма Джона Подесты. Подеста был председателем избирательной кампании Хиллари Клинтон — кандидата в президенты США от Демократической партии.

Пользователи интернета обнаружили в переписке секретный код PizzaGate, который используют политические элиты. Таким образом они якобы передают сообщения о сексуальных связах с детьми. Например, пицца с сыром означает детскую порнографию, т.к. cheese pizza и child pornography начинаются на одинаковые буквы.

По мнению авторов теории, в заговоре была замешана пиццерия Comet Ping Pong. Пользователи утверждали, что владелец заведения Джеймс Алефантис лично знал Хиллари Клинтон и получал от нее финансирование. Якобы именно Алефантис — один из основателей педофильского лобби. Ему начали поступать угрозы.

Не дайте ввести себя в заблуждение

История закончилась тем, что Алефантис обратился за помощью в ФБР, полицию и СМИ. В The Washington Post вышла статья о том, что PizzaGate — это попытка очернить Клинтон и Подесту.

Перед американскими выборами 2016 года демократов обвинили в сексуальных связях с детьми. Заговор получил название PizzaGate. На твите — «Мы не оставим PizzaGate так просто. Это будет сенсация»
Перед американскими выборами 2016 года демократов обвинили в сексуальных связях с детьми. Заговор получил название PizzaGate. На твите — «Мы не оставим PizzaGate так просто. Это будет сенсация»

Фейк. Китаец продавал туры в Чернобыль, но возил туристов в Челябинск

Летом 2019 года несколько российских СМИ написали о китайце Ляо Гаоминг. По данным изданий, иностранец был владельцем турфирмы. Он продавал путевки в зону отчуждения Чернобыльской АЭС, но привозил людей в Челябинск. Туристам говорил, что власти устранили последствия катастрофы, поэтому город вновь заселен.

Изначально новость о китайце опубликовало сатирическое издание «Панорама». Все заметки на этом сайте являются выдумкой. После этого шутку начали распространять по интернету. В итоге в историю поверили даже некоторые федеральные СМИ.

Настоящие СМИ опубликовали фейковую историю от сатирического издания
Настоящие СМИ опубликовали фейковую историю от сатирического издания

Fast Image Research: распознаем фейк по фотографии

Иногда, чтобы понять фейк перед вами или нет, достаточно посмотреть, какую фотографию использует автор Иногда, чтобы понять фейк перед вами или нет, достаточно посмотреть, какую фотографию использует автор.

Для примера возьмем фейк из Башкирии: в ноябре 2021 года в местных соцсетях написали, что в регион поступила непроверенная вакцина «Спутник Лайт».

Путаница началась из-за того, что кто-то выложил новость о завозе вакцины, но сопроводил ее неподходящей фотографией. На фото были изображены ампула и табличка с текстом. На табличке было написано, что вакцина предназначена для клинических исследований. Новость с этой фотографией разошлась по соцсетям. Люди подумали, что на них собираются проводить эксперименты.

На самом деле фотографию изначально опубликовало местное издание. Еще летом оно написало, что в регион должны привезти первую партию «Спутник Лайт». Для иллюстрации журналисты взяли ту самую фотографию с табличкой о клинических испытаниях. При этом в публикации пометили, что снимок из открытых источников: то есть они загрузили первую попавшуюся фотографию из интернета. К новости она отношения не имеет. Если бы люди знали, откуда появилось фото, они бы сразу поняли, что вся история с экспериментами над людьми — фейк.

В статье мы расскажем, как быстро самому определить, откуда взяли фотографию. Для этого понадобится расширение Fast Image Research. Сначала кратко объясним, как оно работает, а затем протестируем на одном из фейков.

результат Fast Image Research

Расширение, которое поможет проверить фото на фейк

Fast Image Research (FIR) — расширение для браузера на ПК. Его можно бесплатно скачать из интернета. После установки появится опция прогнать изображение через FIR. Для этого прямо в браузере надо кликнуть на фотографию правой кнопкой мыши и нажать Research Image.

На выходе будут результаты из различных сервисов: Google, «Яндекс», Bing, Baidu и TinEye. Всё это — поисковые системы: «Яндекс» — российская, Google и Bing — американские, Baidu — китайская, TinEye — канадская. Причем последняя специально заточена под поиск изображений. По умолчанию включен поиск только через Google. Чтобы добавить другие поисковые системы, нужно зайти в настройки браузера и найти там расширение.

В выдаче поисковых систем будут ссылки на сайты с изображением, которое мы исследуем. Можно будет увидеть, публиковалось ли оно где-то еще. Если публиковалось — то в каком контексте. Возможно, фото не имеет отношения к тексту предполагаемого фейка. Тогда делаем вывод, что нас обманывают или автор что-то перепутал.

Объясним на примере с американскими военными. Допустим, мы видим такой пост в социальных сетях: «Американские войска ракетным ударом уничтожили дома мирных афганцев». Рядом — фотография разбомбленных жилищ. Прогоняем его через FIR и видим, что этот же снимок выкладывали новостные агентства в 2011 году, когда в Ливии шла военная операция против Каддафи. Становится ясно, что нами пытаются манипулировать: возможно, американцы действительно разбомбили гражданских, но конкретно эта история — фейк.

проверяем на фейк фото

Тестируем FastImageResearch на фейке о сбежавших якутских детях

Посмотрим, как Fast Image Research справится с настоящим фейком. Для этого возьмем историю о детях, которые сбежали из дома в поисках работы.

Осенью 2021 года в соцсетях и СМИ гулял фейк о двух якутских детях, которые пытались найти работу и заработать на еду. О них никто не заботился: отец умер от рака, а мать сильно заболела коронавирусом. В квартире не осталось продуктов, поэтому ребята ушли из дома. Дети прошли восемь километров, пока не дошли до магазина, где попросились работать грузчиками. Там их нашла полиция и вернула домой. Текст сопровождался фотографией двух детей с заблюренными лицами.

Возьмем фотографию из фейка и прогоним ее через Fast Image Research. Посмотрим, что получилось.

как пробить фотку на фейк в Яндексе

Лучший результат показал «Яндекс» — на первой же странице он дал ссылки на оригинал фотографии. Оказывается, изначально снимок был опубликован на сайте Покровского районного управления полиции Донецкой области Украины. Там его разместили 24 января 2017 года. Фотография иллюстрирует заметку о работе полицейских. Они спасли больного мальчика, за которым не ухаживали родители.

На втором месте — Bing. Среди его выдачи также была ссылка на украинскую новость. При этом Bing проиндексировал не сайт полиции, а новостной сюжет на YouTube, куда был вшит снимок.

проверка фейк фотографии в google

Следом идет Google — первые ссылки в выдаче ведут на опровержение фейка. Ссылок на украинские ресурсы с оригиналом нет ни на первой странице выдачи, ни на других. Однако есть статьи, в которых говорится, что прокуратура и МВД начали расследование по факту публикации в социальных сетях. Если бы не было опровержений, пользователь мог поверить, что история настоящая.

В аутсайдерах — TinEye и Baidu: в результате проверки на фейк фото они не нашли ни одной ссылки.

Fast Image Research — не панацея от фейков, у него много ограничений. Так, нам не получилось запустить его для проверки на фейки фото в Instagram. Из теста видно, что поисковые системы иногда ошибаются и находят не все ссылки на изображения. Притом ошибок будет больше, если фотография в фейке хоть немного отличается от оригинала: авторы изменили размер, добавили текст поверх или стикер и т.п. Кроме того, некоторые фейки могут быть вовсе без фотографий. Тем не менее FIR уменьшает шансы на то, что вас обманут в интернете.

Не дайте ввести себя в заблуждение

Как понять, что перед вами фейк

В статье расскажем, как можно выявить фейк без помощи фактчекеров. Сначала перечислим его характерные черты, затем покажем их на реальном примере.

Выявляем фейк

Чтобы проверить сообщение на достоверность, нужно провести мини-расследование: найти источник информации, оценить его компетентность, связаться с экспертами. Представим, что пользователю попалось сообщение: «Перед вакцинацией надо обязательно делать тест на антитела». Порядок проведения вакцинации определяет Минздрав, поэтому для проверки новости надо связаться с министерством. Неправильно будет обратиться к знакомым, даже если они врачи. Они тоже могут ошибаться: например, невнимательно прочитали приказ или доверились слухам.

Новость на сайте Минздрава: перед вакцинацией не надо делать тест на антитела

Проверкой новостей занимаются профессионалы — фактчекеры. У обычных людей чаще всего нет на это времени. Посты в соцсетях, ролики в TikTok, сообщения от друзей в мессенджерах — слишком много информации поступает каждый день, чтобы ее проверять самостоятельно. Однако существует простой способ, который поможет отличить фейки от правды.

Для фейковых новостей характерны определенные черты. Мы будем называть их маркерами. Если в сообщении есть эти маркеры, скорее всего, информация — фейк. Однако полностью быть уверенным можно будет только после проверки.

Маркеры фейков

Эмоциональные заголовки и текст. Автор использует темы, которые привлекают внимание: сенсации, скандалы, теории заговоров. Чтобы зацепить читателя, заголовки часто искажают информацию или дают ее не полностью: «Ужасная правда: нам рассказали, как врачи убивают людей». Иногда автор не дает конкретики, а пишет: «Всем!»; «Внимание!»; «Обязательно прочтите!»

Ошибки и признаки перевода. Автор пытается очеловечить сообщение и намеренно делает ошибки. Так он хочет вызвать больше доверия. Иногда ошибки появляются после плохого перевода. Это происходит, когда фейк в интернете распространяет иностранный источник. Также в этом случае возможны предложения нехарактерные для русского языка. Например, «информация была получена мною от знакомых врачей» вместо «мне рассказали знакомые врачи».

Сомнительные источники. Автор не указывает источник информации или ссылается на третьих лиц, без конкретики: «известный ученый», «знакомый из ФСБ», «всем и так известно». Бывает, что ссылаются на источники, которые уже попадались на лжи или на «желтые» издания.

Рассекреченная информация. Автор пытается выдать информацию за правду, которую скрывали от людей. Для этого он использует такие обороты как: «Наконец-то выяснилось»; «Правда вскрыта»; «Нас обманывали, но теперь все встало на свои места».

Манипуляция информацией. Автор врет в датах, использует фото и видео, которые не относятся к описываемым событиям. Например, иллюстрирует беспорядки в Белоруссии кадрами из другой страны.

Компрометация государства. Автор дискредитирует правительство в целом или отдельных представителей: оскорбляет, угрожает, публикует выдуманный компромат. Например, «мэр Иван Иванов присваивает сиротские квартиры».  

Призыв действовать. Автор провоцирует людей на какое-либо действие: «Выходим на улицы!»; «Закупайтесь продуктами, пока не поздно»; «Не пейте воду».

Призыв распространить. Автор настойчиво просит читателей поделиться информацией: «Пожалуйста, предупредите родных»; «Поделитесь сообщением — все должны знать правду!»; «Максимальный репост!»

Боты и массовые публикации. Автор использует ненастоящие аккаунты для распространения фейка или фейк одновременно публикуется в нескольких пабликах. В таких случаях характерны массовые лайки, одинаковые комментарии и репосты от аккаунтов, которые не связаны с аккаунтом-первоисточником. 

Разбираем фейк

Посмотрим, как маркеры выглядят в жизни. Возьмем реальный фейк о том, что правительство планирует превратить Россию в электронный концлагерь. Автор утверждает, что города закроют и в них останутся чипированные рабы, а детей заберут из семей и вывезут. В учебных целях сократим сообщение и оставим важное:

Всем!!! Всем!!! Отнестись очень внимательно к данной информации!!!

Эта осень будет очень напряженной — так сказать важнейшая битва добра со злом за жизни, души и умы человечества. Кто видит, тот сложит последние пазлы про жижизацию, эвакуацию, чрезвычайную ситуацию, расформирование госорганов, окончание трастов и так далее в одну общую картину. Ужаленные становятся чипированной расой рабов с измененной генетикой. Будут закрываться города и ставиться блокпосты с перекрытием дорог и магистралей, ограничивая передвижение населения нашей страны.

Детей в России по несколько раз уже проинструктировали о порядке эвакуации. М. В. Мишустин подписал указ, разрешающий увозить детей без ведома родителей. Есть акт, позволяющий проводить медицинское вмешательство над школьниками.

В других странах бывшего СССР готовится слияния с Россией и возрождение нового СССР-2, о чем не раз говорилось в мультипликационном фильме «Симпсоны».

Ваши первоочередные действия:

1. Закупка продуктов длительного хранения, средств гигиены и медицины, топлива, электрогенератора, солнечной зарядки, респиратора или противогаза. 

2. Консервирование продуктов и заморозка. 

3. Создание своей базы семян. 

12. Да поможет нам Бог.

Теперь пройдемся по абзацам еще раз и отметим маркеры.

 

Эмоциональный заголовок:

Всем!!! Всем!!! Отнестись очень внимательно к данной информации!!!

Эмоциональный текст и цепляющая тема:

Эта осень будет очень напряженной — так сказать важнейшая битва добра со злом за жизни, души и умы человечества. Кто видит, тот сложит последние пазлы про жижизацию, эвакуацию, чрезвычайную ситуацию, расформирование госорганов, окончание трастов и так далее в одну общую картину. Ужаленные становятся чипированной расой рабов с измененной генетикой. Будут закрываться города и ставится блокпосты с перекрытием дорог и магистралей, ограничивая передвижение населения нашей страны.

Компрометация власти:

Детей в России по несколько раз уже проинструктировали о порядке эвакуации. М. В. Мишустин подписал указ, разрешающий увозить детей без ведома родителей. Есть акт, позволяющий проводить медицинское вмешательство над школьниками.

Сомнительный источник:

В других странах бывшего СССР готовится слияния с Россией и возрождение нового СССР-2, о чем не раз говорилось в мультипликационном фильме «Симпсоны».

Призыв к действию:

Ваши первоочередные действия:

1. Закупка продуктов длительного хранения, средств гигиены и медицины, топлива, электрогенератора, солнечной зарядки, респиратора или противогаза. 

2. Консервирование продуктов и заморозка. 

3. Создание своей базы семян. 

Маркеры — не стопроцентная гарантия, что перед вами фейк. Но если вы их встретите, остановитесь и задумайтесь. Если нет возможности проверить информацию, относитесь к ней с осторожностью.

Популярное

Exit mobile version