30 сентября, Минск /Корр. БЕЛТА/. Использование искусственного интеллекта (ИИ) для планирования путешественниками своих поездок может таить в себе опасности, так как наблюдались случаи, когда ИИ отправлял туристов в несуществующие места. Об этом говорится в материале BBС.
Приводится пример, что ChatGPT, используемый туристами для поиска маршрутов, отправлял путешественников посетить выдуманный город в Перу и Эйфелеву башню в Пекине.
Эксперты обращают внимание, что, казалось бы, невинная ошибка ИИ может стоить путешественникам жизни. Так, путешествие в Перу к выдуманному, несуществующему объекту без гида очень опасно. "Высота, климатические изменения и доступность маршрутов должны быть спланированы. Используя программу вроде ChatGPT, которая объединяет изображения и названия для создания фантазий, можно оказаться на высоте 4 тыс. метров без кислорода и мобильной связи", - говорит Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru.
Как отмечается в публикации, всего за несколько лет инструменты искусственного интеллекта, такие как ChatGPT, Microsoft Copilot и Google Gemini, превратились из новинки в неотъемлемую часть планирования путешествий для миллионов людей. BBС приводит результаты опроса, согласно которому 30% международных путешественников теперь используют инструменты генеративного ИИ и специализированные сайты с ИИ для путешествий, а такие инструменты, как Wonderplan и Layla, для организации своих поездок.
Хотя эти программы, когда они работают правильно, могут предоставлять ценные сведения туристам, они также могут создавать неприятные или даже опасные ситуации, когда они работают с ошибками. Этот урок усваивают некоторые путешественники, когда, прибыв в пункт назначения, обнаруживают, что им дали неверную информацию.
Проблемы связаны с тем, как ИИ генерирует ответы. Крупные языковые модели, такие как ChatGPT, анализируют огромные массивы текста и подбирают слова и фразы, которые, согласно статистике, кажутся адекватными ответами. Иногда это дает абсолютно точную информацию. В других случаях возникает то, что эксперты по ИИ называют "галлюцинацией", поскольку это является вымышленной информацией. Но поскольку программы ИИ представляют свои галлюцинации и фактические ответы одинаково, пользователям часто сложно отличить реальность от вымысла.
В недавней статье Fast Company описывался случай, когда пара отправилась к живописной канатной дороге в Малайзии, которую видела в TikTok, и обнаружила, что такой конструкции не существует. Видео было полностью сгенерировано ИИ либо для привлечения внимания, либо с какой-то другой странной целью. Подобные инциденты являются частью более широкой тенденции внедрения ИИ, которая может менять наше восприятие мира.
Недавний пример. Создатели контента обнаружили, что YouTube использует ИИ для изменения их видеороликов без разрешения, незаметно "редактируя" такие вещи, как одежда, волосы и лица реальных людей в роликах. Поскольку ИИ все чаще используется для внесения подобных небольших изменений без нашего ведома, границы между реальностью и отточенным миром ИИ, возможно, начинают стираться и для путешественников.
В настоящее время предпринимаются попытки регулировать то, как ИИ представляет информацию пользователям, включая несколько предложений от ЕС и США о добавлении водяных знаков или других отличительных признаков, чтобы пользователи знали, что что-то было изменено или сгенерировано ИИ. Но, как считают эксперты, это непростая задача. Если подобные правила будут приняты, они могут упростить для путешественников обнаружение изображений и видео, созданных ИИ. Однако новые правила вряд ли помогут вам, если чат-бот на основе ИИ выдумывает что-то прямо во время беседы.-0-
Калейдоскоп
30 сентября 2025, 13:58
Эйфелева башня в Пекине. ИИ отправляет туристов в несуществующие места
Главное
- размещаются материалы рекламно-информационного характера.