
Вымышленный город в Перу, Эйфелева башня в Пекине: путешественники все чаще используют такие инструменты, как ChatGPT, для поиска идей маршрутов и в итоге отправляются в несуществующие места.
Случай в Перу: несуществующий «Священный каньон»
Эта история начинается с Мигеля Анхеля Гонгоры Месы, основателя компании Evolution Treks Peru, который, находясь в одной из отдаленных перуанских деревушек, случайно стал свидетелем показательного разговора. Двое туристов без сопровождения обсуждали свои планы в одиночку отправиться к так называемому «Священному каньону Умантай».
«Они показали мне скриншот, текст в котором был написан уверенно и полон ярких прилагательных, но это была неправда. Не существует никакого Священного каньона Умантай!» - рассказал Гонгора Меса. «Это название - комбинация двух мест, не имеющих отношения к описанию. Турист заплатил почти $160, чтобы добраться до сельской дороги в окрестностях Мольепаты без гида и без конкретного пункта назначения».
Более того, Гонгора Меса настаивает, что эта, казалось бы, невинная ошибка могла стоить путешественникам жизни. «Подобная дезинформация в Перу смертельно опасна», - объяснил он. «Высота, климатические изменения и доступность троп должны быть тщательно спланированы. В этом и кроется опасность: программа, жонглируя словами и образами, просто выдумывает привлекательную историю. Так можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».
От экзотики к мейнстриму
Искусственный интеллект ворвался в мир путешествий с поразительной скоростью. То, что всего пару лет назад было лишь технологической новинкой, сегодня стало незаменимым планировщиком для миллионов. Нейросети вроде ChatGPT, Copilot, и специализированные платформы, такие как Wonderplan и Layla, больше не экзотика. По последним данным, уже каждый третий международный путешественник доверяет им организацию своего отдыха.
Хотя эти программы могут предлагать ценные советы, они также могут завести людей в неприятные или даже опасные ситуации, когда дают сбой. Этот урок некоторые путешественники усваивают, когда прибывают в пункт назначения и обнаруживают, что их либо дезинформировали, либо направили в место, существующее лишь в кремниевом воображении робота.
Нелепые и опасные ошибки
Иногда ошибки ИИ доходят до абсурда. Как сообщала BBC в 2024 году, приложение Layla на полном серьезе уверяло пользователей, что в Пекине есть Эйфелева башня. Тому же британскому путешественнику оно предложило невыполнимый марафонский маршрут по северной Италии. «В этих маршрутах не было логики, - жаловался он. - Мы бы провели в транспорте больше времени, чем где-либо еще». И это не единичные случаи: опрос того же года показал, что для трети путешественников, доверившихся ИИ, он сгенерировал откровенно ложную информацию.
Так рождаются «галлюцинации»
Как же так получается? По словам Райида Гани, профессора машинного обучения из Университета Карнеги-Меллона, проблема в самой природе этих систем. Большие языковые модели, как ChatGPT, не «думают» и не «знают» фактов. Они лишь мастерски подбирают слова, анализируя гигантские объемы текста и составляя фразы, которые статистически выглядят правдоподобно. Иногда получается точно. А иногда - чистая выдумка, которую эксперты называют «галлюцинацией».
Самое опасное, что ИИ выдает и правду, и вымысел с одинаковой непоколебимой уверенностью. Из-за этого обычному пользователю становится почти невозможно отличить одно от другого.
Искаженная реальность
Проблема усугубляется тем, что созданный ИИ контент распространяется очень быстро и может вводить в заблуждение множество людей. В недавней статье Fast Company приводился пример пары, которая приехала к живописной канатной дороге в Малайзии, увиденной в TikTok, и обнаружила... что ее не существует. Видео было полностью сгенерировано ИИ - то ли ради хайпа, то ли с какой-то другой странной целью.
Лицензированный психотерапевт Хавьер Лабурт видит в этом тревожную тенденцию. Он подчеркивает, что путешествия - это уникальный шанс познакомиться с разными культурами и развить в себе эмпатию. Но когда ИИ скармливает нам выдумки, он подсовывает ложный образ места еще до того, как мы вышли из дома, лишая нас шанса на подлинное открытие.

Попытки регулирования и личная ответственность
Правительства по всему миру, включая ЕС и США, пытаются как-то взять ситуацию под контроль и предлагают ввести водяные знаки для контента, созданного ИИ. Но это тяжелая битва. Примечательно, что даже сами создатели, включая главу Google Сундара Пичаи, признают: «галлюцинации» - это, похоже, врожденная и неустранимая особенность таких систем. Если такие правила и примут, они помогут распознавать сгенерированные изображения, но вряд ли спасут, когда чат-бот выдумывает что-то в ходе разговора.
Как обезопасить себя:
Будьте конкретны и всё проверяйте: Райид Гани предлагает формулировать максимально точные запросы к ИИ и обязательно все перепроверять. Золотое правило: если совет от нейросети кажется слишком хорошим, чтобы быть правдой, - скорее всего, так и есть. В конечном итоге, по его словам, время, потраченное на проверку информации от ИИ, может сделать этот процесс таким же трудоемким, как и планирование по старинке.
Сохраняйте гибкость: Для Хавьера Лабурта ключ к успешному путешествию - с ИИ или без - это сохранять непредвзятость и способность адаптироваться, когда что-то идет не по плану. «Постарайтесь сместить разочарование с чувства, что вас обманули», — предложил он. «Если вы уже там, как вы можете обернуть это в свою пользу? В конце концов, вы уже в захватывающем путешествии, и вопрос в том, как сделать его максимально позитивным для себя».
engine9
Мне одному кажется, что у людей всё больше отрезвление наступает от ИИ-шной темы и его главнейший недостаток становится очевиден, а кому-то даже бьёт по карману.