Quand l’IA envoyait des touristes vers des lieux touristiques qui n’existaient pas

Deux randonneurs se préparent à explorer le «  », une destination décrite avec lyrisme par leur assistant d’intelligence artificielle. Problème : ce canyon n’existe pas. Miguel Angel Gongora Meza, guide local, les a interceptés in extremis alors qu’ils s’apprêtaient à s’aventurer seuls dans les montagnes andines, à 4 000 m d’altitude, sans oxygène ni réseau téléphonique. « Cette désinformation est périlleuse au Pérou », alerte-t-il. Les voyageurs avaient payé 160 dollars pour atteindre une route rurale près de Mollepata, sans guide ni destination réelle.

Dana Yao et son mari ont suivi les conseils de ChatGPT pour une randonnée romantique au sommet du mont Misen. Après une ascension sans encombre, le couple s’est retrouvé bloqué en haut de la montagne à la nuit tombée. La , avait en réalité fermé bien plus tôt. « Nous étions coincés », raconte Yao, blogueuse spécialisée dans les voyages au Japon, à la BBC.

Les outils d’IA comme ChatGPT ou Layla multiplient les erreurs : un marathon irréaliste en Italie, , ou encore . Selon une enquête de 2024, 33 % des utilisateurs ont reçu des informations fausses via l’IA. Rayid Ghani, professeur en apprentissage automatique, explique que ces systèmes « , sans vérifier leur véracité ».

Rubriques

Les dernières infos parues

Accueil » Infos » Quand l’IA envoyait des touristes vers des lieux touristiques qui n’existaient pas