L'IA pour les professionnels de la psychiatrie et de la psychothérapie

ChatGPT et autres outils similaires en psychothérapie : où se situent les véritables risques ?

Les systèmes d'IA génériques ont été conçus pour traiter le langage , et non pour assumer des responsabilités thérapeutiques.

La psychothérapie n'est pas un contexte de données comme les autres. Elle implique des informations extrêmement sensibles, des relations de confiance asymétriques et des personnes potentiellement vulnérables et impose ainsi aux systèmes d'IA des exigences bien différentes de celles de presque tous les autres domaines d'application.

En psychothérapie, on aborde des informations qui, même au sein des systèmes médicaux, ne sont accessibles qu’à un cercle restreint de personnes : schémas relationnels, traumatismes, diagnostics, situations de crise, dynamiques familiales, tendances suicidaires. Ces contenus obéissent à une logique différente de celle d’un texte général : ils sont contextuels, longitudinaux et cliniquement significatifs.

La question centrale n'est donc plus de savoir si l'IA générative sera utilisée, mais dans quelles conditions techniques, éthiques et en matière de protection des données.


État des lieux empirique

L'IA générative fait déjà partie intégrante de la pratique psychologique

L'utilisation de l'IA générative dans le secteur de la santé n'est plus une perspective d'avenir : c'est déjà une réalité. Les études disponibles montrent clairement une diffusion rapide, accompagnée d'inquiétudes croissantes au sein de la communauté scientifique.

44 %

Parmi les psychiatres, 33 % utilisent ChatGPT-3.5 à des fins professionnelles, et 33 % utilisent GPT-4. 70 % s'attendent à des gains d'efficacité dans la documentation.[2]

48 %

Les psychiatres pour enfants et adolescents utilisent déjà ChatGPT-4o dans le cadre de leur travail, tout comme 40 % des psychologues malgré des réserves évidentes en matière de protection des données et d'éthique.[3]

44 %

En 2025, des psychologues ont déclaré ne pas utiliser l'IA elles étaient encore 71 % en 2024. Principales préoccupations citées : la protection des données (67 %), les répercussions négatives sur la société (64 %) et les biais (63 %).[1]

22 %

Parmi les 18-21 ans, certains utilisent l'IA générative pour obtenir des conseils en matière de santé mentale. 92,7 % d'entre eux la jugent utile sans que cette évaluation ait été validée cliniquement.[4]

Les données le montrent : la question n'est plus de savoir si l'IA générative va faire son entrée dans la pratique psychologique. Elle est déjà là. Le véritable défi réside dans la distinction qualitative entre une utilisation de l'IA qui répond aux exigences cliniques et éthiques, et une utilisation qui les ignore.


Notions fondamentales

La thérapie n'est pas Chat simple Chat

Les modèles linguistiques tels que ChatGPT et autres traitent le texte de manière statistique de façon isolée, sans continuité dans les relations, sans savoir en quoi la séance 2 différait de la séance 9.

La psychothérapie fonctionne différemment. Elle s'articule autour du déroulement, de la répétition, des schémas implicites et des dynamiques à long terme. La pertinence clinique d'une affirmation ne dépend souvent pas uniquement de sa formulation , mais aussi du moment où elle apparaît au cours de la thérapie, de la fréquence à laquelle elle revient et du contexte relationnel dans lequel elle s'inscrit.

Sans accès à l'historique, un système d'IA ne peut pas reproduire cette dimension. Weidinger et al. (2021) montrent en outre que les grands modèles linguistiques donnent l'impression d'empathie et de compréhension sans posséder la capacité structurelle d'assumer une responsabilité thérapeutique un risque qui revêt une importance particulière dans le contexte clinique.[7]

Il répond aux questions , mais il ne connaît aucun cas.


Le risque réel

Le problème ne se limite pas à la protection des données

Presque tous les débats sur l'IA générative en thérapie finissent rapidement par aborder le RGPD et la localisation des serveurs. C'est légitime , mais cela ne suffit pas.

Le problème sous-jacent : les modèles linguistiques génériques ne comprennent pas, d'un point de vue structurel, le contexte thérapeutique. Ils peuvent décrire les symptômes dépressifs de manière linguistiquement correcte, sans pour autant saisir la signification clinique de l'évolution de la maladie. Ils peuvent formuler des réponses qui semblent plausibles , sans pour autant que celles-ci soient cliniquement valides.

La plausibilité linguistique n'est pas la même chose que la validité clinique.

Torous & Topol (2025) constatent dans The Lancet que les données disponibles concernant l'IA générative dans le domaine de la santé mentale en sont encore à un stade précoce et recommandent de procéder à des essais cliniques rigoureux avant toute mise en œuvre.[6] Hillebrand & Baumeister (2025) confirment que les professionnels considèrent les outils d’IA comme une aide , avec des limites clairement définies en matière de jugement contextuel, qui reste irremplaçable dans le processus thérapeutique.[5]

Blease et Rodman (2025) mettent le doigt sur le cœur du problème : la « fluidité » linguistique des modèles génératifs n'est pas un indicateur de pertinence clinique les systèmes peuvent s'exprimer de manière convaincante tout en donnant des informations erronées ou à risque, en particulier dans des situations de vulnérabilité.[9] Pandey (2024) ajoute : les grands modèles linguistiques favorisent les attributions anthropomorphiques et peuvent, dans certaines situations , générer des résultats contextuellement inadéquats sans que cela soit perceptible pour les utilisateurs.[10] L'état actuel de la recherche met lui-même en évidence cette lacune : 88 % des études sur l'IA dans le domaine de la santé mentale sont de nature expérimentale et examinent des capacités isolées et non l'adéquation clinique dans des contextes de soins réels.[11][12]

Pour la rédaction de textes généraux, cela ne pose aucun problème. En psychothérapie, cela peut en devenir un surtout lorsque des affirmations générées par l'IA sont reprises sans réflexion clinique.


protection des données

Pourquoi les données des clients ne devraient jamais être transmises à ChatGPT & Co.

Pour pouvoir interroger efficacement un modèle linguistique général sur un cas particulier, il faut lui fournir le contexte : motif de la consultation, historique, diagnostic, traitement médicamenteux, situation. Concrètement, cela signifie que les données de santé personnelles sont transmises à des serveurs externes sans pseudonymisation et sans contrôle sur leur traitement ultérieur.

La communauté scientifique est consciente de ce risque : dans une enquête menée par l'American Psychological Association (2025), 67 % des psychologues interrogés ont cité la protection des données comme leur principale préoccupation concernant l'utilisation de l'IA, suivie des préjudices sociaux (64 %), des biais algorithmiques (63 %) et du manque de transparence (52 %).[1]

Au-delà de toute question relative au RGPD, cela soulève un problème structurel de confiance : entre la thérapeute et le client, et entre le client et le système dans lequel ses données sont stockées.


Bases normatives

Ce qui est obligatoire à trois niveaux

L'utilisation responsable de l'IA générative dans la pratique psychologique touche à la fois au droit de la protection des données, à la gouvernance de l'IA et aux obligations déontologiques. Ces trois niveaux sont étroitement liés et ils ne formulent pas des recommandations, mais des exigences contraignantes.

RGPD · DSG
  • Limitation de la finalité les données ne doivent être utilisées qu'aux fins définies, sans extension ultérieure
  • Limitation des données uniquement ce qui est réellement nécessaire aux fins du conseil
  • Transparence Les utilisateurs savent quelles données sont traitées et à quelles fins
  • Intégrité l'obligation légale de mettre en place des mesures techniques de protection appropriées
  • Obligation de rendre compte la conformité doit être documentée de manière vérifiable

Art. 5, 12 à 14, 25 et 32 du RGPD · Art. 6 à 8 de la LPD

Loi européenne sur l'IA
  • Ne pas exploiter les vulnérabilités les pratiques manipulatrices sont interdites, en particulier dans les contextes sensibles
  • Obligation de transparence Les utilisateurs doivent pouvoir se rendre compte qu'ils interagissent avec un système d'IA
  • Étiquetage Les contenus générés par l'IA doivent être clairement identifiés comme tels
  • Documentation du système La destination et les limites d'utilisation doivent être clairement indiquées

Art. 5, 50, 52, 53 de la loi européenne sur l'IA (2024)

éthique professionnelle
  • APA (2017) Cinq principes fondamentaux s'appliquent sans restriction à l'utilisation de l'IA : bien-être, non-malfaisance, intégrité, équité, autonomie
  • EFPA (2025) La responsabilité professionnelle est indivisible et ne peut être déléguée pas même à des systèmes techniques
  • OMS (2021) L'IA dans le secteur de la santé aide les personnes elle ne remplace pas les décisions cliniques

APA, 2017[13] · EFPA, 2025[14] · OMS, 2021[15]


Architecture

La transcription locale n'est pas une curiosité technique

Dans de nombreuses solutions basées sur l'IA, l'enregistrement de la session est entièrement transféré vers une infrastructure externe. Le flux audio quitte l'appareil et avec lui, tout ce qui a été dit pendant la session.

L'approche la plus respectueuse de la protection des données : la transcription s'effectue localement, sur l'appareil du professionnel, avant que quoi que ce soit ne soit transmis. Le fichier audio n'est jamais enregistré, jamais transmis à des tiers, et quitte la mémoire vive immédiatement après la transcription.

Ce n'est pas une fonctionnalité supplémentaire. C'est la condition sine qua non pour que l'enregistrement des séances de psychothérapie puisse être considéré comme responsable.


principe fondamental

La protection des données repose sur l'architecture , et non sur les contrats

Hans Jonas (1979) définit la responsabilité comme l'obligation d'assumer les conséquences prévisibles de ses propres actes en particulier lorsque l'action technique engendre des interactions difficiles à appréhender.[17] Dans le contexte de l’IA générative traitement non transparent, résultats probabilistes , cette responsabilité ne peut être garantie par la seule intention ou par un contrat. Elle doit être structurellement ancrée dans la conception.

De nombreux prestataires résolvent le problème de la protection des données au moyen de contrats de sous-traitance, de certifications et de promesses. C'est mieux que rien , mais il s'agit là d'une garantie contractuelle, et non technique. En cas de doute, la protection des données des clients dépend de l'intégrité d'un prestataire externe.

La protection des données par l'architecture signifie exactement le contraire : les données des clients ne quittent l'appareil que sous une forme qui n'est pas lisible par des tiers pseudonymisées, chiffrées, sans que même le fournisseur n'y ait accès.

Non pas parce que cela a été convenu, mais parce que, d'un point de vue technique, il n'y a pas d'autre solution.


Responsabilité clinique

Avec l'aide de l'IA. La responsabilité thérapeutique reste humaine.

L'IA permet de mettre en évidence des schémas qui restent invisibles lors d'une conversation. Elle peut extraire des structures à partir du déroulement des séances, proposer des interventions et accélérer la documentation. C'est une réalité et cela a une grande valeur.

Mais elle ne pose pas de diagnostic. Elle ne prend pas de décision. Elle n'assume aucune responsabilité clinique.

Ce n'est pas une faiblesse , c'est la seule approche sérieuse. Les outils d'IA qui brouillent cette distinction ou la transgressent implicitement ne constituent pas un progrès.

L'IA permet de mettre en évidence des schémas. La responsabilité thérapeutique incombe toujours à l'être humain.


La question qui se pose

La question n'est pas de savoir si , mais comment

L'IA générative va s'intégrer au travail thérapeutique professionnel. Ce n'est plus une hypothèse , mais un constat issu de la pratique, confirmé par un nombre croissant d'études empiriques.

La question centrale n'est plus de savoir si l'IA générative sera utilisée, mais dans quelles conditions techniques, éthiques et en matière de protection des données. Il ne s'agit pas d'une question technique , mais d'une question clinique et d'éthique professionnelle.

Herzog et Blank (2024) qualifient ce décalage de «Principles-to-Practice Gap» : des principes tels que la transparence, la responsabilité et le contrôle humain sont largement reconnus , mais rarement traduits en structures techniques et organisationnelles concrètes qui guident l'action au quotidien.[16] L'utilisation responsable de l'IA reste ainsi souvent le fruit d'une négociation individuelle , sans soutien systémique.

mentalhealthGPT développé dans le but de combler précisément cette lacune non pas par des promesses, mais grâce à son architecture.


Questions fréquentes

IA et psychothérapie

Les psychothérapeutes ont-ils le droit d'utiliser ChatGPT pour rédiger leurs notes de thérapie ?

L'utilisation de modèles linguistiques généraux pour les notes thérapeutiques pose des problèmes en matière de protection des données : les données des clients seraient transmises en clair à des serveurs externes , sans pseudonymisation et sans contrôle sur leur traitement ultérieur. De plus, ces systèmes ne disposent pas du contexte longitudinal des cas, qui serait nécessaire pour un accompagnement cliniquement fondé.

ChatGPT est-il conforme au RGPD dans le cadre de la psychothérapie et de la documentation thérapeutique ?

Les modèles linguistiques génériques ne sont pas conçus pour être utilisés avec des données de santé. Le transfert de données personnelles des clients vers des serveurs externes sans pseudonymisation pose problème au regard du RGPD et de la LPD suisse. Une assistance par IA conforme au RGPD nécessite une architecture dans laquelle les données des clients ne quittent l'appareil qu'après avoir été pseudonymisées et chiffrées.

En quoi les systèmes d'IA cliniques se distinguent-ils des modèles linguistiques génériques tels que ChatGPT ?

Les systèmes spécialisés dans le domaine clinique se distinguent sur trois points essentiels : ils conservent un historique longitudinal du dossier tout au long des séances ; ils pseudonymisent automatiquement les données des clients au niveau local avant que celles-ci ne quittent l'appareil ; et ils sont spécialisés dans le vocabulaire clinique, les critères de diagnostic et les concepts thérapeutiques et non dans les compétences linguistiques générales.


Sources

Bibliographie

  1. Association américaine de psychologie [APA]. (2025). L'IA en psychologie : enquête auprès des praticiens 2025. Washington, D.C. : APA.
  2. Blease, C. et al. (2024). Utilisation des outils d'IA générative par les psychiatres. Cité dans : Wildhaber-Wälchli (2026).
  3. Aral, K. D. et al. (2025). Professional de ChatGPT-4o chez les psychiatres et psychologues pour enfants et adolescents. Cité dans : Wildhaber-Wälchli (2026).
  4. McBain, R. K. et al. (2025). Utilisation de l'IA générative pour mental health chez les adolescents et les jeunes adultes. Cité dans : Wildhaber-Wälchli (2026).
  5. Hillebrand, L. & Baumeister, H. (2025). L'IA comme aide clinique : opportunités et limites. Cité dans : Wildhaber-Wälchli (2026).
  6. Torous, J. & Topol, E. J. (2025). IA générative et mental health. The Lancet.
  7. Weidinger, L. et al. (2021). Risques éthiques et sociaux liés aux modèles linguistiques. arXiv:2112.04359.
  8. Wildhaber-Wälchli, P. (2026). Éthique, sécurité et exigences cliniques relatives aux systèmes d'IA en psychologie. Mémoire de licence, IU Internationale Hochschule.
  9. Blease, C. & Rodman, D. (2025). Maîtrise linguistique et pertinence clinique de l'IA générative dans mental health . Cité dans : Wildhaber-Wälchli (2026).
  10. Pandey, A. (2024). Les défis éthiques posés par les grands modèles linguistiques dans les applications psychologiques. Cité dans : Wildhaber-Wälchli (2026).
  11. Wajid, M. et al. (2025). L'intelligence artificielle en mental health: une revue systématique. Cité dans : Wildhaber-Wälchli (2026).
  12. Wang, Y. et al. (2025). L'IA générative dans mental health : revue systématique des applications et des limites. Cité dans : Wildhaber-Wälchli (2026).
  13. Association américaine de psychologie [APA]. (2017). Principes éthiques et code de conduite des psychologues. Washington, D.C. : APA.
  14. Fédération européenne des associations de psychologues [EFPA]. (2025). Méta-code de déontologie. Bruxelles : EFPA.
  15. Organisation mondiale de la santé [OMS]. (2021). Éthique et gouvernance de l'intelligence artificielle dans le domaine de la santé. Genève : OMS.
  16. Herzog, L. & Blank, T. (2024). Combler le fossé entre les principes et la pratique en matière d'éthique de l'IA. Cité dans : Wildhaber-Wälchli (2026).
  17. Jonas, H. (1979). Le principe de responsabilité. Francfort-sur-le-Main : Insel Verlag.
Contexte scientifique

Cet article s'appuie notamment sur les travaux scientifiques suivants :

Wildhaber-Wälchli, P. (2026).
Éthique, sécurité et exigences cliniques relatives aux systèmes d'IA en psychologie.
Mémoire de licence, IU Internationale Hochschule.

Télécharger le PDF →

Faites le point

mentalhealthGPT conçu spécialement pour ce contexte

Essayez gratuitement pendant 30 jours toutes les fonctionnalités, sans carte de crédit, sans partage de données. Ou découvrez-le en direct lors d'une démonstration.

Essayer maintenant → Demander une démonstration