Глава Татарстана намерен инициировать референдум о выходе республики из состава РФ

Глава Татарстана Рустам Минниханов якобы намерен инициировать референдум, в рамках которого жителям республики предложат проголосовать за выход из состава России. Видео с подобными утверждениями активно расходятся по соцсетям.

Как на самом деле

На деле это не так. Изначально ролик с фейковыми заявлениями главы Татарстана Рустама Минниханова был размещен в TikTok. В описании уточнялось: материал сгенерирован с помощью технологий искусственного интеллекта (ИИ).

То, что видео, распространяемое в сети якобы от имени Минниханова фейковое, подтвердила и система «Зефир»*. По результатам анализа фрагментов записи, система определила ее как измененную с помощью ИИ. Вердикт «Зефира» таков: материал является фейком с вероятностью 74 %.

Отметим, что оригинальную запись, которая использовалась в качестве исходника для фейка, взяли с заседания Госсовета Татарстана от декабря 2022 года, на котором выступал глава республики.

На сайте Государственного Совета Республики Татарстан есть материал об этом заседании. Там не сказано ничего о том, что на нем поднимался вопрос об инициировании референдума.


* «Зефир» — система мониторинга АНО «Диалог Регионы» для анализа (выявления) и мониторинга сфабрикованного аудиовизуального контента, в том числе дипфейков, на основе сочетания моделей машинного обучения.

Интересные материалы

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Ura.ru: В соцсетях расходится слух о референдуме за выход Татарстана из состава РФ

Lenta.ru: Информация о планах Татарстана выйти из состава России не подтвердилась

Библию перепишут с помощью искусственного интеллекта

Старший советник Всемирного экономического форума (ВЭФ) Юваль Ной Харари призвал переписать Библию с помощью искусственного интеллекта, пишут в соцсетях. Якобы таким образом можно будет создать «правильную» религию.

Как на самом деле

Однако скандальное заявление оказалось фейком. Ноги тут растут из выступления писателя и футуролога Юваля Ноя Харари. Во время интервью в мае 2023 года говорил, что «ИИ может создавать новые идеи. Он даже может написать новую Библию».

При этом литератор не заявлял о переписывании священных текстов или о создании новых «правильных» религий. Его слова изменили почти до неузнаваемости.

К тому же Юваль Ной Харари никогда не занимал должности старшего советника ВЭФ. Он только выступал на Всемирном экономическом форуме в 2018 и 2020 годах.

Отметим, что это не первый фейк об искусственном интеллекте. Ранее сообщалось, что дельфина якобы сфотографировали в утробе матери.

Не позволяйте ввести себя в заблуждение

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Stopfake.kz: Фейк: «Всемирный экономический форум призвал переписать Библию при помощи искусственного интеллекта»

Занимательная БОТ-аника: чем опасны виртуальные помощники человека?  

Рядовая ситуация: вы заходите в приложение банка, и умная программа помогает вам получить ответ на вопрос. Например, каков лимит переводов по карте. Или какие кредитные программы у финансовой организации наиболее выгодные. Удобно? Безусловно. Но, увы, и в этой бочке меда есть своя ложка дегтя.

 Кто такие боты и где они живут

Дословно «бот» – это сокращения от английского robot. То есть, программа, которая способна автоматически выполнять какие-либо действия. Имитируя при этом работу самого человека. Боты прочно начали входить в нашу жизнь, начиная с 1988 года, на заре развития телекоммуникационных технологий. Именно тогда потребовалось разработать хитрый механизм, чтобы чаты всегда оставались открытыми, даже если их покинет пользователь. Тогда и появились роботы-помощники, «дежурящие в группах». Тогда они просто создавали иллюзию активности.

Сегодня функция ботов явно вышла за рамки рядовых задач и передачи базовых сообщений. Эти программы быстро «социализировались» и стали частью глобальной архитектуры интернета – средством взаимодействия пользователей с Сетью, принципиально новым информационным продуктом.

 

А что внутри?

Боты – совокупность набора алгоритмов, которые помогают им решать задачи. Это может быть не только общение с человеком (или имитация такого общения), но и сбор данных с других сайтов. Все уже привыкли к чат-ботам. Этот умный помощник предоставляет пользователю подсказки и ответы на вопросы. Чат-боты используются в различных областях – от обслуживания клиентов до изучения иностранных языков.  Именно чат-бот на основе технологии GPT внедрят в работу портала «Госуслуг». Нейросетью дополнять функционал уже известного помощника – робота Макса.

Социальные боты

Именно они используются в социальных сетях. Служат для автоматического написания сообщений, играют роль мнимых подписчиков (для увеличения аудитории, которого на самом деле нет). Вывести таких «подписчиков» на чистую воду иногда бывает довольно проблематично, потому что они мастерски прикидываются уникальными пользователями.

Скраперы

Эти боты делают автоматическими многие процессы в интернете (другое их название – вэб-боты). Анализируют сайты, извлекают необходимые данные для их дальнейшей обработки. Например, специалисты по маркетплейсам используют такие программы для оценки маржинальности продуктов и разработки торговых стратегий.

«Интеллектуальные боты»

Эти боты созданы на основе искусственного интеллекта, они обладают способностью к самообучению. Могут самостоятельно принимать решения и совершенствовать алгоритмы в процессе работы с пользователем.

Благо или зло?

 

В век информационных технологий, роботов и искусственного интеллекта напрасно отрицать, что боты будут играть все более заметную роль. Например, бизнес станет активнее использовать их для освоения новых рынков и более качественного обслуживания клиентов. То же самое можно сказать и о социальных сетях и мессенджерах. И вот здесь таится главная опасность.

Например, в телеграме помимо ботов, предназначенных для запуска публикаций, есть и другие. Откровенно мошеннические и криминальные. Явно следует насторожиться, если электронный «друг» требует предоставить конфиденциальную информацию: данные паспорта или банковских карт. Схемы обмана с использованием телеграм-ботов довольно распространены. Пользователям могут присылать фейковые сообщения о взломе аккаунта. И даже шантажировать!

Нередки случаи, когда боты используются в информационных войнах. Например, с помощью них создаются поддельные профили в социальных сетях. Они могут имитировать релевантных пользователей для распространения лживой информации. За примерами далеко ходить не нужно – в телеграме есть немало аккаунтов, которые ведут якобы лидеры общественного мнения. При проверке это оказывается делом рук украинских спецслужб (ЦИПСО) и так называемых креоферм. С использованием ботов и поддельных аккаунтов можно манипулировать комментарийной активностью в социальных сетях. Киберпропаганда легко может быть использована для управления общественным мнением.

Кто виноват и что делать?

 

 Конечно, социальные сети и специалисты по информационной безопасности регулярно работают над выявлением и предотвращением манипуляций. Но и сам пользователь должен обладать навыками элементарного фактчекинга:

  • Внимательно смотреть на ссылки, прежде чем по ним переходить. Фишинговые ссылки имеют странные доменные имена, мимикрирующие под известные информационные ресурсы;
  • Запрашивание конфиденциальной информации – табу! Если этим занимается бот, перед вами не электронный друг, а враг;
  • Если перед вами заманчивое предложение купить доступ к «секретным практикам» или заведомо незаконные услуги (например, чудо-справка, дающая 100% гарантии отсрочки от военной службы) – перед вами самые настоящие мошенники.

Не поддавайтесь манипуляциям! Лучшая защита от киберпреступников – холодная голова.

Читайте также

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

В Китае построили гигантский авианосец изо льда

Кто-то лепит снеговиков, а кто-то изо льда построил целый авианосец. Якобы необычный корабль создали китайцы, увидеть скульптуру можно в Харбине, пишут в соцсетях.

  


Как на самом деле

Однако это не так. Изображение судна было сгенерировано с помощью искусственного интеллекта. В реальности авианосца не существует. Создатели снимка отмечают, что это была кропотливая работа, в которую было вложено много труда.

«Создание этого ледового авианосца — задача не из легких. Сначала создателям нужно спроектировать и отрисовать 3D-модель на компьютере, а затем создать прототип ледяной скульптуры и авианосца один за другим в соответствии с моделью», — подчеркнули дизайнеры.

Реалистичность изображения привела многих в недоумение. Жители северо-восточного города в Китае стали задаваться вопросом, где же корабль, и наводить справки.

В Харбинской горячей линии правительственной службы ответили, что изображения, циркулирующие в сети, были синтезированы ИИ и что в городе не строился ледяной авианосец.

При этом в Харбине ежегодно с 1963 года проходит Фестиваль льда и снега. Здесь создают масштабные и необычные ледяные скульптуры, которые не раз попадали в книгу рекордов Гиннеса. Но авианосца среди них нет.

Отметим, что это не первый раз, когда изображения, сгенерированные искусственным интеллектом, принимают за чистую монету. К примеру, снимок гигантской ирландской борзой. Также много шуму наделало признание нейросетью СССР лучшим государством.

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

3g.china: «Харбин 12345» известен как ледовый авианосец, а картографическая система синтезирована искусственным интеллектом для содействия исследованию зимней жары

В сети появилось изображение птицы «Санта-кардинала»

В соцсетях распространяется изображение редкого красно-белого кардинала. Сообщается, что необычное оперение птицы вызвано якобы гинандроморфией — аномалией, при которой крупные участки тела имеют признаки разных полов. В сети его назвали «Санта-кардинал» из-за праздничного сочетания цветов.

 

Как на самом деле

На фотографии можно заметить признаки того, что она была создана с помощью искусственного интеллекта. Среди них — неестественно прилипший к хвосту снег и  растворившиеся в ветке дерева когти.

Хотя кардиналы-гинандроморфы с бело-красным оперением действительно существуют, они значительно отличаются по виду от птицы, которая изображена на фотографии. Кроме того, в сети не было замечено ни одного авторитетного источника в СМИ, который бы поделился данным изображением.

Материал отражает личную позицию автора, которая может не совпадать с мнением редакции. 

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Snopes: Does This Photo Show Half-Male, Half-Female Cardinal?

В моду входит рваная одежда и растрепанные волосы

«Гуччи, нас явно к чему-то готовят», — гласит подпись к распространившейся в сети фотографии с модного показа. На ней изображен мужчина азиатской внешности с растрепанными волосами и в рваной одежде.

Как на самом деле

На самом деле слухи о странном тренде — результат творчества искусственного интеллекта. Как и во многих подобных случаях, на генеративное происхождение фото указывает нереалистичная форма кистей рук. В реальности итальянский модный дом не проводил такой показ.

Интересные материалы

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Factchecklab: 網傳「破爛衣服男子時裝照」屬AI生成圖片

В Финляндии деревья покрылись снежным куполом

В сети появились завораживающие кадры из Финляндии. На них изображены деревья, вокруг которых снег якобы создал уникальную сферическую форму.

Как на самом деле

Это не так. Изображение было впервые замечено еще в апреле 2023 года. Его разместили в аккаунте, который публикует цифровые работы.

Кроме того, специалисты тщательно проанализировали изображение и сообщили, что оно создано с помощью искусственного интеллекта. На это указывают нечеткие и плохо очерченные силуэты деревьев на заднем плане, а также несоответствие теней.

Материал отражает личную позицию автора, которая может не совпадать с мнением редакции. 

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Facta: Эта фотография заснеженных деревьев “в Финляндии” не настоящая

Младенцы прыгают с парашютом

В интернете завирусились фотографии детей-парашютистов. Подпись гласит: «Вчера сестра попросила меня посидеть с её сыном… Так что я взял его на скайдайвинг!»

младенцы прыгают с парашютом

Как на самом деле

Так кто же запустил младенца в небо? Знакомьтесь, Тимоти Дж. Немет. Пользователь в шутку создал изображения с участием детей с помощью нейросетей, а довольный карапуз-парашютист — это не более чем очередная гиперреалистичная генерация ИИ. На его странице много и  других работ ИИ.

Кроме того, существуют возрастные ограничения на прыжки с парашютом. Так, в России совершать самостоятельные прыжки можно только с 18 лет. А возраст, с которого к прыжкам допускаются несовершеннолетние с письменного согласия родителей, каждый аэроклуб устанавливает самостоятельно. В большинстве случаев это 14 лет.

Материал отражает личную позицию автора, которая может не совпадать с мнением редакции. 

Фейковые статьи и новости

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.

Источник опровержения

Factchecknet: Дети-парашютисты: правда или ложь

Exit mobile version