Travellers using AI to help create their itineraries are urged to be extra vigilant and verify everything (Credit: Serenity Strull)
Travellers using AI to help create their itineraries are urged to be extra vigilant and verify everything (Credit: Serenity Strull)

Вымышленный город в Перу, Эйфелева башня в Пекине: путешественники все чаще используют такие инструменты, как ChatGPT, для поиска идей маршрутов и в итоге отправляются в несуществующие места.

Случай в Перу: несуществующий «Священный каньон»

Эта история начинается с Мигеля Анхеля Гонгоры Месы, основателя компании Evolution Treks Peru, который, находясь в одной из отдаленных перуанских деревушек, случайно стал свидетелем показательного разговора. Двое туристов без сопровождения обсуждали свои планы в одиночку отправиться к так называемому «Священному каньону Умантай».

«Они показали мне скриншот, текст в котором был написан уверенно и полон ярких прилагательных, но это была неправда. Не существует никакого Священного каньона Умантай!» - рассказал Гонгора Меса. «Это название - комбинация двух мест, не имеющих отношения к описанию. Турист заплатил почти $160, чтобы добраться до сельской дороги в окрестностях Мольепаты без гида и без конкретного пункта назначения».

Более того, Гонгора Меса настаивает, что эта, казалось бы, невинная ошибка могла стоить путешественникам жизни. «Подобная дезинформация в Перу смертельно опасна», - объяснил он. «Высота, климатические изменения и доступность троп должны быть тщательно спланированы. В этом и кроется опасность: программа, жонглируя словами и образами, просто выдумывает привлекательную историю. Так можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».

От экзотики к мейнстриму

Искусственный интеллект ворвался в мир путешествий с поразительной скоростью. То, что всего пару лет назад было лишь технологической новинкой, сегодня стало незаменимым планировщиком для миллионов. Нейросети вроде ChatGPT, Copilot, и специализированные платформы, такие как Wonderplan и Layla, больше не экзотика. По последним данным, уже каждый третий международный путешественник доверяет им организацию своего отдыха.

Хотя эти программы могут предлагать ценные советы, они также могут завести людей в неприятные или даже опасные ситуации, когда дают сбой. Этот урок некоторые путешественники усваивают, когда прибывают в пункт назначения и обнаруживают, что их либо дезинформировали, либо направили в место, существующее лишь в кремниевом воображении робота.

Нелепые и опасные ошибки

Иногда ошибки ИИ доходят до абсурда. Как сообщала BBC в 2024 году, приложение Layla на полном серьезе уверяло пользователей, что в Пекине есть Эйфелева башня. Тому же британскому путешественнику оно предложило невыполнимый марафонский маршрут по северной Италии. «В этих маршрутах не было логики, - жаловался он. - Мы бы провели в транспорте больше времени, чем где-либо еще». И это не единичные случаи: опрос того же года показал, что для трети путешественников, доверившихся ИИ, он сгенерировал откровенно ложную информацию.

Так рождаются «галлюцинации»

Как же так получается? По словам Райида Гани, профессора машинного обучения из Университета Карнеги-Меллона, проблема в самой природе этих систем. Большие языковые модели, как ChatGPT, не «думают» и не «знают» фактов. Они лишь мастерски подбирают слова, анализируя гигантские объемы текста и составляя фразы, которые статистически выглядят правдоподобно. Иногда получается точно. А иногда - чистая выдумка, которую эксперты называют «галлюцинацией».

Самое опасное, что ИИ выдает и правду, и вымысел с одинаковой непоколебимой уверенностью. Из-за этого обычному пользователю становится почти невозможно отличить одно от другого.

Искаженная реальность

Проблема усугубляется тем, что созданный ИИ контент распространяется очень быстро и может вводить в заблуждение множество людей. В недавней статье Fast Company приводился пример пары, которая приехала к живописной канатной дороге в Малайзии, увиденной в TikTok, и обнаружила... что ее не существует. Видео было полностью сгенерировано ИИ - то ли ради хайпа, то ли с какой-то другой странной целью.

Лицензированный психотерапевт Хавьер Лабурт видит в этом тревожную тенденцию. Он подчеркивает, что путешествия - это уникальный шанс познакомиться с разными культурами и развить в себе эмпатию. Но когда ИИ скармливает нам выдумки, он подсовывает ложный образ места еще до того, как мы вышли из дома, лишая нас шанса на подлинное открытие.

Several governments have AI regulations in the works that will help identify misinformation before it goes viral (Credit: Getty Images)
Several governments have AI regulations in the works that will help identify misinformation before it goes viral (Credit: Getty Images)

Попытки регулирования и личная ответственность

Правительства по всему миру, включая ЕС и США, пытаются как-то взять ситуацию под контроль и предлагают ввести водяные знаки для контента, созданного ИИ. Но это тяжелая битва. Примечательно, что даже сами создатели, включая главу Google Сундара Пичаи, признают: «галлюцинации» - это, похоже, врожденная и неустранимая особенность таких систем. Если такие правила и примут, они помогут распознавать сгенерированные изображения, но вряд ли спасут, когда чат-бот выдумывает что-то в ходе разговора.

Как обезопасить себя:

  • Будьте конкретны и всё проверяйте: Райид Гани предлагает формулировать максимально точные запросы к ИИ и обязательно все перепроверять. Золотое правило: если совет от нейросети кажется слишком хорошим, чтобы быть правдой, - скорее всего, так и есть. В конечном итоге, по его словам, время, потраченное на проверку информации от ИИ, может сделать этот процесс таким же трудоемким, как и планирование по старинке.

  • Сохраняйте гибкость: Для Хавьера Лабурта ключ к успешному путешествию - с ИИ или без - это сохранять непредвзятость и способность адаптироваться, когда что-то идет не по плану. «Постарайтесь сместить разочарование с чувства, что вас обманули», — предложил он. «Если вы уже там, как вы можете обернуть это в свою пользу? В конце концов, вы уже в захватывающем путешествии, и вопрос в том, как сделать его максимально позитивным для себя».

Комментарии (9)


  1. engine9
    05.10.2025 11:00

    Мне одному кажется, что у людей всё больше отрезвление наступает от ИИ-шной темы и его главнейший недостаток становится очевиден, а кому-то даже бьёт по карману.


  1. Jedy
    05.10.2025 11:00

    только недавно планируя отпуск спрашивал ChatGPT можно ли дойти пешком вдоль моря от одного турецкого городка, до другого (между ними около 3км). На что ChatGPT с уверенностью сказал, что можно. Я как то засомневался, полез смотреть гугл карты и панорамы, после чего выяснилось что там вообще никак не пройти - вдоль берега отвесные скалы.

    В принципе я изначально догадывался, что ChatGPT не знает ответа на этот вопрос и ответит наобум. Поэтому когда у него что то спрашиваешь нужно хотя бы примерно представлять достаточно в интернете достоверной информации на эту тему или нет. В фактологии LLM не очень хороши потому, что не могут отвечать "не знаю".


    1. FluffyBeaver
      05.10.2025 11:00

      Чтобы ответить "Не знаю", надо что-то "знать". Но нейросети, по природе своей (да, странно писать слова "нейросеть" и "природа" в одном предложении, но все чаще LLM описывают так, будто это уместно), не могут чего-то знать или не знать, т.к. это способ описать свой личный опыт, которого у нейросетей нет.

      Проблема черезмерного доверия "авторитетным источникам" была у человека всегда. Видимо, этот функционал был некогда полезен и достался нам в наследство.

      Но вот почему люди стали относить нейросети к "авторитетным источникам" - это не понятно...


      1. Zombieff
        05.10.2025 11:00

        по природе своей

        Можно заменить на «по сущности своей», если ухо режет.

        почему люди стали относить нейросети к "авторитетным источникам"

        Нейросети называют «ИИ», а ИИ в фантастике очень часто преподносится как некий сверхразум. ИИ — размытое такое понятие, ботов в компьютерных играх с 90-х годов называли AI, хотя там, как правило, даже обучения никакого нет, просто заранее заложенный неизменный алгоритм.


  1. qiper
    05.10.2025 11:00

    Ладно нейросети, а какой процент людей честно признаются, что они чего-то не знают?

    Так же начинают додумывать и сочинять в массе своей


  1. MrJazzy
    05.10.2025 11:00

    В этом году впервые планировал велопутешествие по Италии с помощью Гемини 2.5 про. До этого были велопутешествия по Франции, Норвегии и Турции, спланированные по старинке.

    Ну, в принципе, удобно. Сначала был один большой чат, отведенный под фазу планирования, затем из него выбора взята выжимка и создан чат непосредственно для самого путешествия. Нейросеть помогла спланировать веломаршрут по заданному алгоритму (два дня едем, день или полдня отдыхаем, в больших городах отдыхаем 2-3 дня). У неё всегда был драфт маршрута, который она корректировала на основе моих хотелок, и в итоге она создала прекрасный маршрутный лист, который в консульстве одобрили за день (саму визу я получил за три дня, два других дня это логистика паспорта в другой город). По ходу она представляла очень полезную информацию (на каком типе поезда лучше вернуться в начальный город в конце путешествия, чтобы дешевле и удобнее всего провести велосипед). Или, например, что один большой участок лучше проехать на электричке, так как на нем нет ничего интересного, и это сэкономит день пути, а садиться на электричку лучше в обед, чтобы не попасть под толпы народа, которые едут на работу или с работы. Помимо километража она всегда представляла данные по высотам и придерживалась алгоритма, что в горах дневной километраж меньше, чем на равнине.

    В самом путешествии нейросеть вела точный бухгалтерский учёт, отдельно для налички и двух карт. Я всегда знал, где и сколько денег у меня лежит, нужно было лишь отчитываться о тратах в конце дня. В супермаркетах сетка помогала подобрать сбалансированную корзину, чтобы было недорого и в меру питательно и полезно. Учила меня итальянскому языку. Предлагала варианты, по какому маршруту культурно провести день с учётом пожеланий и вводных критериев (например, только папки и наружные достопримечательности). Но самой удобной функцией был режим гида. Например, говоришь, я был там то, потом куда то свернул и вижу мраморного мужика с трезубцем, что это за место? И сетка подробно описывает историю статуи, что за место, и куда дальше лучше пойти. Или в галерее, например, говоришь, вижу такую картину, на ней нарисовано вот это, расскажи про неё. Очень удобно.

    Опыт использования нейросетки мне понравился. Фаза планирования была намного короче (2 недели против 2-3 месяцев гуглежа и чтения форумов до этого). Фаза путешествия была более информативной за счёт интерактивного гида. В целом, рекомендую.


  1. Sollita
    05.10.2025 11:00

    А всё потому, что ввели в заблуждение всё человечество названием Искусственный Интеллект и сказками про него. Может, пора уже название сменить на более близкое к реальности? Например, поисковик с галлюцинациями. ;) Тогда люди перестанут ожидать от ИИ того, что он дать не может.

    А если серьёзно, то Гугл честно пишет под ответом ИИ, что информация может не соответствовать действительности, но мелким шрифтом и со ссылкой. Может, нужно это писать крупным шрифтом, без ссылок и перед ответом ИИ?

    А вот что написано по ссылке:

    "Их составляет генеративный искусственный интеллект. Он выявляет закономерности и анализирует структурные элементы в данных, на которых обучается, и это позволяет ему создавать что-то новое. Такие системы быстро развиваются и улучшаются, однако могут предоставлять недостоверную или неприемлемую информацию. Обзоры от ИИ могут и будут содержать ошибки.

    Как проверять ответы:

    • Всегда проверяйте важную информацию по нескольким источникам. Переходите по ссылкам в ответе и обращайтесь к другим результатам поиска Google. Подробнее о том, как оценить достоверность сведений, найденных в Google

    • Повторяйте заданные вопросы в других формулировках – так вы получите лучшие ответы. Просите разные точки зрения или более подробные объяснения.

    • При возникновении проблем отправляйте отзыв в Google. Это поможет нам улучшить функцию."

    Вопрос только в том, как много людей эту ссылку открыли и прочитали?


    1. qiper
      05.10.2025 11:00

      Может, пора уже название сменить на более близкое к реальности? Например, поисковик с галлюцинациями. ;)

      ИИ - Имитатор Интеллекта


  1. alcanoid
    05.10.2025 11:00

    Помню, просил Дипсик составить план осмотра достопримечательностей одного китайского города. Он составил. Максимальный охват по количеству достопримечательностей, реалистичное время на перемещения, но не заложено времени на осмотр ни одного из запланированных мест.