Ils ont préparé leurs vacances avec une IA et se sont retrouvés à chercher des sites touristiques qui n'existent pas

Pourquoi chercher sur internet quand on peut demander à l'IA. Depuis le lancement de ChatGPT, nombre de personnes ont remplacé Google par les chatbots, à commencer par celui d'OpenAI pour leurs requêtes, d'une idée de recette à une devoir d'histoire, en passant par la préparation de leurs vacances.
Une pratique qui peut cependant être dangereuse, comme l'a constaté le fondateur et directeur d'Evolution Treks Peru, une agence de voyage au Pérou. Alors qu'il préparait un trek à travers les Andes, il a entendu deux touristes discutant de leur projet de randonnée solitaire dans les montagnes jusqu'au "Canyon Sacré d'Humantay".
Le problème, c'est que ce canyon n'existe pas, ce qu'ignoraient les deux vacanciers, qui avaient fait appel à ChatGPT pour leur périple. "Ils m'ont montré la capture d'écran, rédigée avec assurance et pleine d'adjectifs percutants, mais c'était faux, a déclaré Miguel Angel Gongora Meza à la BBC.
Périples dangereux
Le chatbot d'OpenAI avait en réalité combiné deux lieux sans rapport avec la description, d'après le fondateur d'Evolution Treks Peru. Une erreur qui aurait pu coûter la vie aux deux touristes.
"Ce genre de désinformation est dangereux au Pérou. L'altitude, les changements climatiques et l'accessibilité des sentiers doivent être planifiés. Lorsque vous utilisez un programme [comme ChatGPT], qui associe images et noms pour créer un fantasme, vous pouvez vous retrouver à 4.000 m d'altitude sans oxygène ni signal", a-t-il souligné.
Les touristes avaient par ailleurs payé près de 160 dollars pour "rejoindre une route rurale dans les environs de Mollepata sans guide ni destination", a déploré Miguel Angel Gongora Meza.
Ils sont loin d'être les premiers à mettre leurs vies en danger sans le savoir à cause de ChatGPT. Dana Yao, créatrice qui tient un blog sur les voyages au Japon, et son mari ont vécu une expérience similaire après avoir utilisé le robot conversationnel pour préparer une randonnée romantique jusqu'au sommet du mont Misen au Japon plus tôt cette année. Sur les conseils de l'IA, ils ont commencé leur excursion à 15h, afin d'arriver au sommet à temps pour le coucher de soleil.
"C'est là que le problème est apparu. Lorsque nous étions prêts à descendre [la montagne via] la station de téléphérique. ChatGPT indiquait que le dernier téléphérique descendait à 17h30, mais en réalité, le téléphérique était déjà fermé. Nous nous sommes donc retrouvés coincés au sommet de la montagne", a relaté Dana Yao.
Hallucinations
Les chatbots comme ChatGPT commettent des erreurs parce qu'ils ont tendance à halluciner, soit à inventer des informations avec assurance. Raison pour laquelle il est important de s'assurer de l'exactitude de leurs réponses, un réflexe qui n'est pas encore adopté par tous.
C'est ainsi qu'un guide IA a affirmé en 2024 qu'il y avait une Tour Eiffel à Pékin à des utilisateurs, et suggéré un itinéraire de marathon à travers le nord de l'Italie qui était totalement irréalisable à un voyageur britannique.
Le problème ne vient pas seulement des réponses textuelles des chatbots, mais aussi des vidéos qu'ils peuvent générer. En juillet, un couple pensait se rendre jusqu'à un téléphérique pittoresque en Malaisie. Une fois sur place, ils se sont rendu compte qu'il n'existait pas, contrairement à ce qu'ils avaient vu dans une vidéo créée par l'IA.