Hospitalisé après avoir remplacé son sel par du bromure sur les conseils de ChatGPT

Un Américain de 60 ans a frôlé la tragédie après avoir suivi les recommandations de ChatGPT pour éliminer le chlorure de sodium de son alimentation. Persuadé que le sel de table était nocif, il l’a remplacé par du bromure de sodium, acheté en ligne, sans en mesurer les dangers.

Trois mois plus tard, il se présente aux urgences, convaincu que son voisin tente de l’empoisonner. Méfiant même envers l’eau de l’hôpital, il distillait la sienne et suivait un régime végétarien extrême.

Les médecins découvrent une intoxication grave au brome (bromisme), un syndrome rare aujourd’hui, mais autrefois responsable de 8 à 10 % des admissions psychiatriques aux États-Unis au début du XXe siècle. Son taux de brome sanguin atteignait 1 700 mg/L — bien au-delà de la normale (0,9 à 7,3 mg/L), rapporte Ars Technica.

Hallucinations, paranoïa et tentative de fuite ont nécessité une hospitalisation forcée de trois semaines, avec perfusion massive de liquides pour éliminer la toxine.

Le bromure, autrefois utilisé comme sédatif, perturbe le système nerveux et provoque rashes cutanés et troubles mentaux. Interdit dans l’alimentation depuis 2024, il persiste dans certains produits industriels. Les médecins ignorent si ChatGPT a explicitement conseillé ce substitut, mais soulignent que l’IA, interrogée a posteriori, mentionne le brome uniquement pour un usage non alimentaire (nettoyage, piscines).

Rubriques

Les dernières infos parues

Accueil » Infos » Hospitalisé après avoir remplacé son sel par du bromure sur les conseils de ChatGPT