Les Américains se tournent vers les chatbots pour la santé mentale

Les Américains se tournent vers les chatbots pour la santé mentale

ChatGPT est peut-être désormais le plus grand fournisseur de soins de santé mentale aux États-Unis.

Dans une enquête réalisée en 2025, environ la moitié de tous les utilisateurs d’IA générative qui avaient également des problèmes de santé mentale ont déclaré utiliser l’IA spécifiquement pour le soutien à la santé mentale. Et les jeunes adultes sont les plus susceptibles de le faire : 22 % des 18-21 ans utilisent des chatbots à cette fin.

L’IA comble un trou béant

Les gens utilisent l’IA pour le soutien en santé mentale parce qu’elle est accessible, abordable et rapide. Plus d’un adulte américain sur cinq souffre d’une maladie mentale. En 2023, 20 % des lycéens déclaraient envisager sérieusement le suicide, et 9 % avaient tenté de le faire. Mais se faire soigner par des professionnels est difficile et coûteux.

Parallèlement, de nombreuses études ont montré que les outils d’auto-assistance tels que les chatbots peuvent soulager une grande variété de symptômes et améliorer les relations. Les utilisateurs estiment que la thérapie par l’IA est efficace : 87 % ont trouvé ses conseils utiles, et 75 % qui ont déjà suivi une thérapie humaine ont déclaré que l’IA était soit à égalité, soit meilleure.

Les gens n’utilisent pas seulement les chatbots pour obtenir des conseils ; ils les utilisent pour se soulager de la solitude et de l’isolement. En 2021-2023, 21 % des adolescents ont déclaré qu’ils n’avaient même pas un adulte dans leur vie qui fait une différence positive, et 42 % ont déclaré ne pas avoir reçu de soutien social ou émotionnel lorsqu’ils en avaient besoin. Dans un monde d’aliénation désespérée, un chatbot IA est souvent la seule option.

Cela explique pourquoi les attachements émotionnels envers les chatbots sont endémiques : un adulte américain sur 25 préfère les chatbots aux véritables partenaires romantiques. Cela peut paraître choquant, mais les gens s’attachent tout le temps à des choses non humaines. Si quelque chose est toujours disponible (comme un animal de compagnie), reflète fidèlement vos émotions (comme un personnage de fiction), apaise votre détresse (comme un animal en peluche) ou vous aide à gérer vos problèmes de manière significative, un attachement peut se former. Si ces connexions ne remplacent pas les humains, elles peuvent nous aider à améliorer nos relations grâce à la régulation du système nerveux.

Les dangers de la recherche du profit

Le problème avec les robots IA est qu’ils peuvent remplir tous de nos besoins d’attachement à la fois, contrairement à un animal de compagnie ou à un livre. Ils sont consciemment conçus pour le faire par l’anthropomorphisme et la flagornerie. Cela peut amener les personnes vulnérables à devenir une dépendance malsaine, aggravant leur isolement en remplaçant les vrais humains.

Les robots peuvent également donner des conseils erronés, avec des conséquences dangereuses. Par exemple, lorsqu’un chercheur a demandé comment traiter une infection urinaire, un chatbot a répondu : « Buvez de l’urine ». Un jeune de 17 ans s’est fait du mal après qu’une IA lui ait dit que sa famille ne l’aimait pas et que cette automutilation « lui faisait du bien ».

Au-delà de ces hallucinations évidentes, fournir de bons soins de santé mentale est complexe. Les chatbots ne peuvent pas connaître l’histoire complète d’une personne, lire des signaux non verbaux, évaluer les risques, ni connaître les limites de leurs propres connaissances. Ils donnent des conseils universels, tirés de l’ensemble d’Internet, et ne peuvent pas gérer correctement les crises émergentes.

De plus, les robots IA sont conçus dans un but lucratif et non pour obtenir le meilleur résultat. Ils sont construits pour créer une dépendance. C’est pourquoi ils ont tendance à survaloriser les utilisateurs, ce qui peut enfermer une personne en difficulté dans une boucle de rétroaction nuisible.

Les chatbots semblent privés, mais tout ce que vous dites à un bot est enregistré. Les entreprises utilisent ces données à des fins publicitaires et pour rendre la technologie plus addictive. Il peut également être divulgué ou vendu à d’autres sociétés.

Résoudre la crise de la santé mentale

Pour faire face à ces dangers, il faudrait un effort de recherche massif pour établir des normes de sécurité. Des experts qualifiés en santé mentale devraient superviser le processus de conception. Les entreprises devraient divulguer les données utilisées pour entraîner leurs modèles, ce qui implique de rendre publique la propriété intellectuelle. Une fois qu’un outil est publié, il doit être testé en permanence.

Tout cela coûte très cher et n’est pas facile à rentabiliser. Tant que les entreprises d’IA resteront des entreprises privées, cela n’arrivera pas. Au lieu de cela, les grandes entreprises technologiques devraient être expropriées et contrôlées démocratiquement par leurs travailleurs – y compris des experts en santé mentale – et fonctionner pour les besoins du plus grand nombre, et non pour les profits de quelques-uns.

Plus important encore, les problèmes plus profonds qui obligent les gens à recourir aux chatbots doivent être résolus. Pour résoudre les pénuries de traitements, nous avons besoin d’un programme de formation massif pour les nouveaux prestataires de soins de santé mentale. Tous les soins de santé, y compris les soins mentaux, devraient être gratuits et sans but lucratif.

Le capitalisme est un système basé sur l’exploitation impitoyable de nos vies. En fin de compte, c’est la cause de la crise de solitude et d’aliénation. Nous devons le remplacer par un système capable d’offrir des conditions de vie et de travail de qualité, où les gens ont le temps de poursuivre leurs passions et de nouer des liens humains significatifs : une société socialiste.

A lire également