Les systèmes d'IA génériques ont été conçus pour traiter le langage , et non pour assumer des responsabilités thérapeutiques.
La psychothérapie n'est pas un contexte de données comme les autres. Elle implique des informations extrêmement sensibles, des relations de confiance asymétriques et des personnes potentiellement vulnérables — et impose ainsi aux systèmes d'IA des exigences bien différentes de celles de presque tous les autres domaines d'application.
En psychothérapie, on aborde des informations qui, même au sein des systèmes médicaux, ne sont accessibles qu’à un cercle restreint de personnes : schémas relationnels, traumatismes, diagnostics, situations de crise, dynamiques familiales, tendances suicidaires. Ces contenus obéissent à une logique différente de celle d’un texte général : ils sont contextuels, longitudinaux et cliniquement significatifs.
La question centrale n'est donc plus de savoir si l'IA générative sera utilisée, mais dans quelles conditions techniques, éthiques et en matière de protection des données.
L'utilisation de l'IA générative dans le secteur de la santé n'est plus une perspective d'avenir : c'est déjà une réalité. Les études disponibles montrent clairement une diffusion rapide, accompagnée d'inquiétudes croissantes au sein de la communauté scientifique.
Parmi les psychiatres, 33 % utilisent ChatGPT-3.5 à des fins professionnelles, et 33 % utilisent GPT-4. 70 % s'attendent à des gains d'efficacité dans la documentation.[2]
Les psychiatres pour enfants et adolescents utilisent déjà ChatGPT-4o dans le cadre de leur travail, tout comme 40 % des psychologues — malgré des réserves évidentes en matière de protection des données et d'éthique.[3]
En 2025, des psychologues ont déclaré ne pas utiliser l'IA — elles étaient encore 71 % en 2024. Principales préoccupations citées : la protection des données (67 %), les répercussions négatives sur la société (64 %) et les biais (63 %).[1]
Parmi les 18-21 ans, certains utilisent l'IA générative pour obtenir des conseils en matière de santé mentale. 92,7 % d'entre eux la jugent utile — sans que cette évaluation ait été validée cliniquement.[4]
Les données le montrent : la question n'est plus de savoir si l'IA générative va faire son entrée dans la pratique psychologique. Elle est déjà là. Le véritable défi réside dans la distinction qualitative entre une utilisation de l'IA qui répond aux exigences cliniques et éthiques, et une utilisation qui les ignore.
Les modèles linguistiques tels que ChatGPT et autres traitent le texte de manière statistique — de façon isolée, sans continuité dans les relations, sans savoir en quoi la séance 2 différait de la séance 9.
La psychothérapie fonctionne différemment. Elle s'articule autour du déroulement, de la répétition, des schémas implicites et des dynamiques à long terme. La pertinence clinique d'une affirmation ne dépend souvent pas uniquement de sa formulation , mais aussi du moment où elle apparaît au cours de la thérapie, de la fréquence à laquelle elle revient et du contexte relationnel dans lequel elle s'inscrit.
Sans accès à l'historique, un système d'IA ne peut pas reproduire cette dimension. Weidinger et al. (2021) montrent en outre que les grands modèles linguistiques donnent l'impression d'empathie et de compréhension sans posséder la capacité structurelle d'assumer une responsabilité thérapeutique — un risque qui revêt une importance particulière dans le contexte clinique.[7]
Il répond aux questions , mais il ne connaît aucun cas.
Presque tous les débats sur l'IA générative en thérapie finissent rapidement par aborder le RGPD et la localisation des serveurs. C'est légitime , mais cela ne suffit pas.
Le problème sous-jacent : les modèles linguistiques génériques ne comprennent pas, d'un point de vue structurel, le contexte thérapeutique. Ils peuvent décrire les symptômes dépressifs de manière linguistiquement correcte, sans pour autant saisir la signification clinique de l'évolution de la maladie. Ils peuvent formuler des réponses qui semblent plausibles , sans pour autant que celles-ci soient cliniquement valides.
La plausibilité linguistique n'est pas la même chose que la validité clinique.
Torous & Topol (2025) constatent dans The Lancet que les données disponibles concernant l'IA générative dans le domaine de la santé mentale en sont encore à un stade précoce — et recommandent de procéder à des essais cliniques rigoureux avant toute mise en œuvre.[6] Hillebrand & Baumeister (2025) confirment que les professionnels considèrent les outils d’IA comme une aide , avec des limites clairement définies en matière de jugement contextuel, qui reste irremplaçable dans le processus thérapeutique.[5]
Blease et Rodman (2025) mettent le doigt sur le cœur du problème : la « fluidité » linguistique des modèles génératifs n'est pas un indicateur de pertinence clinique — les systèmes peuvent s'exprimer de manière convaincante tout en donnant des informations erronées ou à risque, en particulier dans des situations de vulnérabilité.[9] Pandey (2024) ajoute : les grands modèles linguistiques favorisent les attributions anthropomorphiques et peuvent, dans certaines situations , générer des résultats contextuellement inadéquats — sans que cela soit perceptible pour les utilisateurs.[10] L'état actuel de la recherche met lui-même en évidence cette lacune : 88 % des études sur l'IA dans le domaine de la santé mentale sont de nature expérimentale et examinent des capacités isolées — et non l'adéquation clinique dans des contextes de soins réels.[11][12]
Pour la rédaction de textes généraux, cela ne pose aucun problème. En psychothérapie, cela peut en devenir un — surtout lorsque des affirmations générées par l'IA sont reprises sans réflexion clinique.
Pour pouvoir interroger efficacement un modèle linguistique général sur un cas particulier, il faut lui fournir le contexte : motif de la consultation, historique, diagnostic, traitement médicamenteux, situation. Concrètement, cela signifie que les données de santé personnelles sont transmises à des serveurs externes — sans pseudonymisation et sans contrôle sur leur traitement ultérieur.
La communauté scientifique est consciente de ce risque : dans une enquête menée par l'American Psychological Association (2025), 67 % des psychologues interrogés ont cité la protection des données comme leur principale préoccupation concernant l'utilisation de l'IA, suivie des préjudices sociaux (64 %), des biais algorithmiques (63 %) et du manque de transparence (52 %).[1]
Au-delà de toute question relative au RGPD, cela soulève un problème structurel de confiance : entre la thérapeute et le client, et entre le client et le système dans lequel ses données sont stockées.
L'utilisation responsable de l'IA générative dans la pratique psychologique touche à la fois au droit de la protection des données, à la gouvernance de l'IA et aux obligations déontologiques. Ces trois niveaux sont étroitement liés — et ils ne formulent pas des recommandations, mais des exigences contraignantes.
Art. 5, 12 à 14, 25 et 32 du RGPD · Art. 6 à 8 de la LPD
Art. 5, 50, 52, 53 de la loi européenne sur l'IA (2024)
Dans de nombreuses solutions basées sur l'IA, l'enregistrement de la session est entièrement transféré vers une infrastructure externe. Le flux audio quitte l'appareil — et avec lui, tout ce qui a été dit pendant la session.
L'approche la plus respectueuse de la protection des données : la transcription s'effectue localement, sur l'appareil du professionnel, avant que quoi que ce soit ne soit transmis. Le fichier audio n'est jamais enregistré, jamais transmis à des tiers, et quitte la mémoire vive immédiatement après la transcription.
Ce n'est pas une fonctionnalité supplémentaire. C'est la condition sine qua non pour que l'enregistrement des séances de psychothérapie puisse être considéré comme responsable.
Hans Jonas (1979) définit la responsabilité comme l'obligation d'assumer les conséquences prévisibles de ses propres actes — en particulier lorsque l'action technique engendre des interactions difficiles à appréhender.[17] Dans le contexte de l’IA générative — traitement non transparent, résultats probabilistes —, cette responsabilité ne peut être garantie par la seule intention ou par un contrat. Elle doit être structurellement ancrée dans la conception.
De nombreux prestataires résolvent le problème de la protection des données au moyen de contrats de sous-traitance, de certifications et de promesses. C'est mieux que rien , mais il s'agit là d'une garantie contractuelle, et non technique. En cas de doute, la protection des données des clients dépend de l'intégrité d'un prestataire externe.
La protection des données par l'architecture signifie exactement le contraire : les données des clients ne quittent l'appareil que sous une forme qui n'est pas lisible par des tiers — pseudonymisées, chiffrées, sans que même le fournisseur n'y ait accès.
Non pas parce que cela a été convenu, mais parce que, d'un point de vue technique, il n'y a pas d'autre solution.
L'IA permet de mettre en évidence des schémas qui restent invisibles lors d'une conversation. Elle peut extraire des structures à partir du déroulement des séances, proposer des interventions et accélérer la documentation. C'est une réalité et cela a une grande valeur.
Mais elle ne pose pas de diagnostic. Elle ne prend pas de décision. Elle n'assume aucune responsabilité clinique.
Ce n'est pas une faiblesse , c'est la seule approche sérieuse. Les outils d'IA qui brouillent cette distinction ou la transgressent implicitement ne constituent pas un progrès.
L'IA permet de mettre en évidence des schémas. La responsabilité thérapeutique incombe toujours à l'être humain.
L'IA générative va s'intégrer au travail thérapeutique professionnel. Ce n'est plus une hypothèse , mais un constat issu de la pratique, confirmé par un nombre croissant d'études empiriques.
La question centrale n'est plus de savoir si l'IA générative sera utilisée, mais dans quelles conditions techniques, éthiques et en matière de protection des données. Il ne s'agit pas d'une question technique , mais d'une question clinique et d'éthique professionnelle.
Herzog et Blank (2024) qualifient ce décalage de «Principles-to-Practice Gap» : des principes tels que la transparence, la responsabilité et le contrôle humain sont largement reconnus , mais rarement traduits en structures techniques et organisationnelles concrètes qui guident l'action au quotidien.[16] L'utilisation responsable de l'IA reste ainsi souvent le fruit d'une négociation individuelle , sans soutien systémique.
mentalhealthGPT développé dans le but de combler précisément cette lacune — non pas par des promesses, mais grâce à son architecture.
L'utilisation de modèles linguistiques généraux pour les notes thérapeutiques pose des problèmes en matière de protection des données : les données des clients seraient transmises en clair à des serveurs externes , sans pseudonymisation et sans contrôle sur leur traitement ultérieur. De plus, ces systèmes ne disposent pas du contexte longitudinal des cas, qui serait nécessaire pour un accompagnement cliniquement fondé.
Les modèles linguistiques génériques ne sont pas conçus pour être utilisés avec des données de santé. Le transfert de données personnelles des clients vers des serveurs externes sans pseudonymisation pose problème au regard du RGPD et de la LPD suisse. Une assistance par IA conforme au RGPD nécessite une architecture dans laquelle les données des clients ne quittent l'appareil qu'après avoir été pseudonymisées et chiffrées.
Les systèmes spécialisés dans le domaine clinique se distinguent sur trois points essentiels : ils conservent un historique longitudinal du dossier tout au long des séances ; ils pseudonymisent automatiquement les données des clients au niveau local avant que celles-ci ne quittent l'appareil ; et ils sont spécialisés dans le vocabulaire clinique, les critères de diagnostic et les concepts thérapeutiques — et non dans les compétences linguistiques générales.
Cet article s'appuie notamment sur les travaux scientifiques suivants :
Wildhaber-Wälchli, P. (2026).
Éthique, sécurité et exigences cliniques relatives aux systèmes d'IA en psychologie.
Mémoire de licence, IU Internationale Hochschule.
Essayez gratuitement pendant 30 jours — toutes les fonctionnalités, sans carte de crédit, sans partage de données. Ou découvrez-le en direct lors d'une démonstration.