Пожилые супруги из Малайзии преодолели более 370 километров, чтобы посетить канатную дорогу, которую они увидели в соцсетях. Но, приехав на место, они обнаружили, что видео было создано с помощью искусственного интеллекта, а самой достопримечательности не существует вовсе, следует из вирусного сообщения в Threads*, о котором написали несколько СМИ.

Как утверждается, пожилая пара из Малайзии следовала из Куала-Лумпура в Перак. Сотрудница отеля по имени Дайя, в котором остановилась пара, сообщила, что пара якобы пыталась узнать у нее, посещала ли она канатную дорогу в Куак Хулу. Пара рассказала ей, что видела достопримечательность в новостях.

11111 Kopija 2

Однако в действительности это было видео ИИ, созданное по мотивам новостных сюжетов. В нем нейрожурналистка телеканала TV Rakyat рассказывает о канатной дороге и берет интервью у сгенерированных посетителей. В ролике видно, как люди выстраиваются в очереди у билетной кассы, в то время как туристы фотографируют достопримечательность. Путешествие по канатной дороге проходит вдоль живописных видов, тоже созданных ИИ. Кроме того, в видео присутствует водяной знак VEO 3, указывающий, что это нейросеть.

Супружеская пара долго не могла поверить, что канатная дорога — это всего лишь иллюзия. Они не могли понять, зачем журналистке из видео обманывать людей. В конце концов, пожилая женщина заявила, что хочет подать в суд на канал. Однако сотрудница отеля напомнила, что журналистка и канал также созданы искусственным интеллектом.

123

Сотрудница отеля опубликовала пост в соцсетях, в котором рекомендовала туристам проверять информацию о достопримечательностях, которые они планируют посетить. Этот инцидент привлек внимание местной полиции.

Районный офицер Балинга Язлан Сунарди Че Яхая призвал общественность быть осторожнее с вирусным контентом и объяснил, что видео о канатной дороге создано ИИ. Он допустил, что такую достопримечательность могут создать, потому что это позволяет рельеф, но пока ее не существует.

1234

Это не единственный случай, когда использование Veo 3, вводило в заблуждение. Например, вирусным стало видео с кенгуру. В ролике запечатлен момент, когда животное стоит в аэропорту с билетом в руках, а хозяйка спорит с сотрудником аэропорта. Некоторые пользователи поверили в ролик из-за того, что Австралия знаменита необычной фауной и ситуация выглядела правдоподобной.

Также за чистую монету принимали нейроролик с туристкой, которая разбила камнем стеклянный мост в Китае. Несмотря на то, что стекло на переправе крошилось неправдоподобно.

Более того, журнал Time опубликовал несколько видеороликов, созданных с помощью Veo 3. На одном из них запечатлена толпа людей, которые размахивают флагами Пакистана на фоне горящего индуистского храма. На другом — палестинцы выстраиваются в очередь за гуманитарной помощью под присмотром американских военных, повторяя при этом: «Спасибо, США!».

Несмотря на то, что некоторые видео нейросетей маркированы соответствующими знаками, а у персонажей может быть несколько пальцев или неестественные пропорции, пользователи все равно могут счесть их реальными при быстром ознакомлении с контентом, например, листая ленту.

Поэтому проверка информации о маршруте при путешествии обязательна. И проводить ее не стоит с помощью нейропомощников, потому что они, как известно, могут «галлюцинировать». То есть предоставлять недостоверные сведения. Так, к примеру, случилось с туристом, который доверился GhatGPT и решил, что для поездки в Чили ему не нужна виза.

12345

Искусственный интеллект не справляется, потому что ему не хватает логики, опыта и ответственности, он может писать тексты или код, но не понимает смысл того, что делает.

*Принадлежит организации Meta, признана экстремистской в РФ.

Хотите опубликовать свой разбор на сайте «Лапша Медиа»? Как это сделать — подробно рассказываем здесь.