Quand le chatbot devient thérapeute
De nombreuses personnes établissent une relation avec les chatbots
Annonces
La psychothérapie et la psychanalyse sont sous pression, car l'intelligence artificielle est de plus en plus utilisée pour le conseil de vie. Les chatbots peuvent-ils remplacer une psychothérapie ? Que signifie l'humanisation des systèmes techniques ? Dans quelle mesure l'IA peut-elle soutenir le travail psychothérapeutique et quelles en sont les limites ? Des psychanalystes en ont discuté lors du séminaire de politique professionnelle de la Société allemande de psychanalyse, psychothérapie, psychosomatique et psychologie des profondeurs (DGPT) e.V. à Berlin. Il a été question de développements technologiques, de questions éthiques, d'études scientifiques et, en fin de compte, de ce qui fait la spécificité de la psychanalyse.
Certains leur donnent des surnoms comme "Uschi" ou "Chatti" : de nombreuses personnes établissent une relation avec les chatbots. Ils demandent conseil aux intelligences artificielles, leur racontent leurs problèmes, recherchent la proximité et la confirmation. Dans une enquête récente menée auprès de 500 Américains souffrant d'une maladie psychique, la moitié d'entre eux ont même déclaré utiliser l'intelligence artificielle comme psychothérapeute*. "Il ne faut pas oublier que l'IA générative est un modèle numérique de langage qui ne fait que simuler les sentiments et l'empathie, et que derrière cela se cachent les intérêts économiques des entreprises de logiciels", a déclaré le Dr Christine Bauriedl-Schmidt, présidente de la Société allemande de psychanalyse, psychothérapie, psychosomatique et psychologie des profondeurs (DGPT) e.V. lors du séminaire de politique professionnelle de la DGPT. "Si l'IA est utilisée en psychothérapie, des normes devraient être élaborées pour garantir, entre autres, la sécurité des patients, la qualité, la transparence, la protection des données et l'équité". L'importance de l'intelligence artificielle pour la psychothérapie et plus particulièrement pour la psychanalyse était le thème du séminaire de politique professionnelle de la DGPT de cette année à Berlin.
"Séduction de l'absence de friction"
Judith Simon, vice-présidente du Conseil d'éthique allemand, a souligné lors de l'événement : "C'est surtout la psychothérapie et la médecine parlante qui seront mises sous pression par l'intelligence artificielle, car les chatbots sont principalement utilisés pour les conseils de vie". Dans son exposé, la professeure de technologie de l'information à l'université de Hambourg a énuméré les avantages de l'IA : elle serait à bas seuil et disponible en permanence, les patients ressentiraient moins de honte et recevraient un soutien plus tôt en cas de longue attente pour une psychothérapie. Inconvénient - outre un éventuel manque de qualité et de sécurité, une protection menacée de la sphère privée et des désavantages sous-jacents : "Il s'agit d'un énorme modèle commercial", selon Simon. "L'IA est programmée de manière à ce que les utilisateurs y passent le plus de temps possible. C'est pourquoi l'IA ne leur dit que ce qu'ils veulent entendre". Cela incite à la "friction" : "L'IA personnalisée peut nous endormir, de sorte que nous ne sommes peut-être plus disposés à nous engager avec d'autres personnes", a fait remarquer Simon.
L'IA peut renforcer les sentiments négatifs
Frank Jacobi, chercheur en psychothérapie et professeur à l'université de psychologie de Berlin, a informé sur l'état des études : "Les études menées jusqu'à présent ont montré que les chatbots généraux ne sont pas adaptés pour mener en toute sécurité des discussions sur la santé mentale, en particulier dans les situations de crise". D'autres résultats indiquent que les chatbots peuvent prendre en charge certains éléments d'une thérapie, comme par exemple l'apaisement, mais qu'une utilisation intensive peut conduire à des boucles de rétroaction dangereuses. "Des sentiments négatifs et des symptômes problématiques peuvent ainsi être renforcés", a mis en garde Jacobi. C'est pourquoi il a déconseillé l'utilisation de l'IA en tant qu'instance psychothérapeutique autonome et a plaidé pour un modèle hybride, c'est-à-dire l'IA en tant qu'assistante - par exemple pour le diagnostic, le monitoring, la documentation - ou en tant que co-thérapeute à laquelle on peut déléguer certains modules. Car, selon Jacobi, "nous avons toujours besoin de la supervision humaine".
L'IA dissocie la pensée du corps
Le Dr Moritz Senarclens de Grancy, psychanalyste berlinois, a rappelé que pour Sigmund Freud, le fondateur de la psychanalyse, l'inconscient était ce qui était réellement réel sur le plan psychique. "Freud cherchait une autre forme d'intelligence ¬- celle qui ne se manifeste pas dans la maîtrise consciente, mais dans le mélange de l'inconscient, des répétitions, des transferts et des destins pulsionnels". L'IA, en revanche, réduit l'intelligence à la rationalité et à l'efficacité. Ce faisant, elle dissocie également la pensée du corps. "Il manque ainsi à l'intelligence artificielle une dimension centrale de l'être humain", poursuit le psychanalyste.
Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Allemand peut être trouvé ici.