KI für Fachpersonen in Psychiatrie und Psychotherapie

ChatGPT & Co. in der Psychotherapie wo die eigentlichen Risiken liegen

Generische KI-Systeme wurden entwickelt, um Sprache zu verarbeiten nicht um therapeutische Verantwortung zu tragen.

Psychotherapie ist kein gewöhnlicher Datenkontext. Sie betrifft hochsensible Informationen, asymmetrische Vertrauensbeziehungen und potenziell vulnerable Personen und stellt damit andere Anforderungen an KI-Systeme als fast jeder andere Anwendungsbereich.

In der Psychotherapie entstehen Informationen, die selbst innerhalb medizinischer Systeme nur einem engen Personenkreis zugänglich sind: Beziehungsmuster, Traumata, Diagnosen, Krisensituationen, familiäre Dynamiken, Suizidalität. Diese Inhalte folgen einer anderen Logik als allgemeiner Text sie sind kontextuell, longitudinal und klinisch bedeutsam.

Por lo tanto, la cuestión fundamental ya no es si se utiliza la IA generativa, sino en qué condiciones técnicas, éticas y de protección de datos.


Análisis empírico de la situación actual

La IA generativa ya forma parte de la práctica psicológica

Der Einsatz generativer KI im Gesundheitsbereich ist keine Zukunftsperspektive mehr er ist Gegenwart. Die verfügbare Forschung zeichnet ein klares Bild rascher Verbreitung, begleitet von wachsenden Bedenken in der Fachgemeinschaft.

44 %

El 70 % de los psiquiatras utiliza ChatGPT-3.5 en el ámbito profesional, y el 33 % utiliza GPT-4. El 70 % espera obtener una mayor eficiencia en la documentación.[2]

48 %

der Kinder- und Jugendpsychiaterinnen setzen ChatGPT-4o bereits beruflich ein, ebenso 40 % der Psychologinnen trotz klarer Vorbehalte bei Datenschutz und Ethik.[3]

44 %

der Psychologinnen gaben 2025 an, keine KI zu nutzen 2024 waren es noch 71 %. Meistgenannte Bedenken: Datenschutz (67 %), gesellschaftlicher Schaden (64 %), Verzerrungen (63 %).[1]

22 %

der 18–21-Jährigen nutzen generative KI für Ratschläge zur psychischen Gesundheit. 92,7 % bewerten sie als hilfreich ohne dass diese Einschätzung klinisch validiert wäre.[4]

Die Daten zeigen: Die Frage ist nicht mehr, ob generative KI in der psychologischen Praxis Einzug hält. Sie ist bereits da. Die eigentliche Herausforderung liegt in der qualitativen Differenzierung zwischen KI-Einsatz, der klinische und ethische Anforderungen erfüllt, und solchem, der sie ignoriert.


Conceptos básicos

La terapia no es Chat normal

Sprachmodelle wie ChatGPT & Co. behandeln Text statistisch isoliert, ohne Beziehungskontinuität, ohne das Wissen um das, was in Sitzung 2 anders war als in Sitzung 9.

Psychotherapie funktioniert anders. Sie entfaltet sich über Verlauf, Wiederholung, implizite Muster und langfristige Dynamiken. Ob eine Aussage klinisch relevant ist, hängt oft nicht vom Wortlaut allein ab sondern davon, wann sie im Verlauf auftaucht, wie häufig sie wiederkehrt und in welchem Beziehungskontext sie steht.

Ohne Zugang zum Verlauf kann ein KI-System diese Dimension nicht abbilden. Weidinger et al. (2021) zeigen darüber hinaus, dass grosse Sprachmodelle den Eindruck von Empathie und Verständnis erzeugen, ohne die strukturelle Kapazität zu besitzen, therapeutische Verantwortung zu tragen ein Risiko, das im klinischen Kontext besonderes Gewicht hat.[7]

Es beantwortet Fragen aber es kennt keinen Fall.


El riesgo real

El problema no es solo la protección de datos

Fast jede Diskussion über generative KI in der Therapie landet schnell bei DSGVO und Serverstandorten. Das ist berechtigt aber es greift zu kurz.

Das tiefere Problem: Generische Sprachmodelle verstehen therapeutischen Kontext strukturell nicht. Sie können depressive Symptome sprachlich korrekt beschreiben, ohne die klinische Bedeutung eines Verlaufs zu erfassen. Sie können plausibel klingende Antworten formulieren ohne dass diese klinisch valide sind.

La plausibilidad lingüística no es lo mismo que la validez clínica.

Torous & Topol (2025) stellen in The Lancet fest, dass die Evidenzlage für generative KI in der psychischen Gesundheitsversorgung sich noch in einer frühen Phase befindet und mahnen zu sorgfältiger klinischer Prüfung vor dem Einsatz.[6] Hillebrand & Baumeister (2025) bestätigen: Fachpersonen erleben KI-Tools als unterstützend mit klar gezogenen Grenzen beim kontextuellen Urteilsvermögen, das im therapeutischen Prozess unersetzbar bleibt.[5]

Blease und Rodman (2025) formulieren den Kern des Problems: Die «glatte» Sprachfähigkeit generativer Modelle ist kein Indikator für klinische Angemessenheit Systeme können überzeugend formulieren und dennoch inhaltlich falsch oder risikoreich sein, besonders in vulnerablen Situationen.[9] Pandey (2024) ergänzt: Grosse Sprachmodelle begünstigen anthropomorphe Zuschreibungen und können in bestimmten Situationen kontextuell unzureichende Ausgaben erzeugen ohne dass dies für Nutzende erkennbar wäre.[10] Der Stand der Forschung selbst macht die Lücke sichtbar: 88 % der KI-Studien im Mental-Health-Bereich sind experimentell angelegt und untersuchen isolierte Fähigkeiten nicht klinische Angemessenheit in realen Versorgungskontexten.[11][12]

Für allgemeine Textarbeit ist das kein Problem. In der Psychotherapie kann es eines werden besonders dann, wenn KI-generierte Aussagen ohne klinische Reflexion übernommen werden.


Protección de datos

Por qué los datos de los clientes nunca deberían llegar a ChatGPT y similares

Wer ein allgemeines Sprachmodell sinnvoll nach einem Fall befragen will, muss Kontext mitgeben: Anliegen, Verlauf, Diagnose, Medikation, Situation. Das bedeutet in der Praxis: personenbezogene Gesundheitsdaten gehen an externe Server ohne Pseudonymisierung, ohne Kontrolle über Weiterverarbeitung.

La comunidad profesional es consciente de este riesgo: en una encuesta de la Asociación Americana de Psicología (2025), el 67 % de los psicólogos encuestados señaló la protección de datos como su principal preocupación en relación con el uso de la IA, seguida del daño social (64 %), los sesgos algorítmicos (63 %) y la falta de transparencia (52 %).[1]

Más allá de cualquier cuestión relacionada con el RGPD, esto plantea un problema estructural de confianza: entre la terapeuta y el cliente, y entre el cliente y el sistema al que llegan sus datos.


Fundamentos normativos

Was verbindlich gilt auf drei Ebenen

Der verantwortungsvolle Einsatz generativer KI in der psychologischen Praxis berührt gleichzeitig Datenschutzrecht, KI-Governance und berufsethische Verpflichtungen. Diese drei Ebenen greifen ineinander und sie formulieren keine Empfehlungen, sondern verbindliche Anforderungen.

RGPD · DSG
  • Zweckbindung Daten nur für den definierten Zweck, keine nachträgliche Ausweitung
  • Datenminimierung nur, was für den Beratungszweck tatsächlich erforderlich ist
  • Transparenz Nutzende wissen, welche Daten zu welchem Zweck verarbeitet werden
  • Integrität angemessene technische Schutzmassnahmen als rechtliche Pflicht
  • Rechenschaftspflicht Einhaltung muss nachweisbar dokumentiert sein

Art. 5, 12-14, 25 y 32 del RGPD · Art. 6-8 de la Ley de Protección de Datos

Ley de la UE sobre la IA
  • Kein Ausnutzen von Vulnerabilität manipulative Praktiken sind verboten, besonders in sensiblen Kontexten
  • Transparenzpflicht Nutzende müssen erkennen, dass sie mit einem KI-System interagieren
  • Kennzeichnung KI-generierte Inhalte sind dauerhaft als solche zu markieren
  • Systemdokumentation Zweckbestimmung und Einsatzgrenzen sind nachvollziehbar offenzulegen

Artículos 5, 50, 52 y 53 de la Ley de la UE sobre la IA (2024)

Ética profesional
  • APA (2017) fünf Grundprinzipien gelten beim KI-Einsatz uneingeschränkt: Wohlergehen, Nicht-Schaden, Integrität, Gerechtigkeit, Autonomie
  • EFPA (2025) professionelle Verantwortung ist unteilbar und nicht delegierbar auch nicht an technische Systeme
  • WHO (2021) KI im Gesundheitsbereich assistiert Menschen sie ersetzt keine fachliche Entscheidung

APA, 2017[13] · EFPA, 2025[14] · OMS, 2021[15]


Arquitectura

La transcripción local no es una simple curiosidad técnica

In vielen KI-gestützten Lösungen wird die Sitzungsaufnahme vollständig an externe Infrastruktur übertragen. Das Audio verlässt das Gerät und mit ihm alles, was in der Sitzung gesagt wurde.

El enfoque más adecuado desde el punto de vista de la protección de datos: la transcripción se realiza de forma local, en el dispositivo del profesional, antes de que se transmita nada. El audio nunca se almacena, nunca se transmite a terceros y se borra de la memoria de trabajo inmediatamente después de la transcripción.

No se trata de una función adicional. Es un requisito imprescindible para que la grabación de sesiones de psicoterapia sea éticamente aceptable.


Principio básico

Datenschutz entsteht durch Architektur nicht durch Verträge

Hans Jonas (1979) bestimmt Verantwortung als Verpflichtung, für die absehbaren Wirkungen des eigenen Handelns einzustehen insbesondere dort, wo technisches Handeln schwer überschaubare Wirkungszusammenhänge erzeugt.[17] Unter den Bedingungen generativer KI nicht einsehbarer Verarbeitung, probabilistischer Ausgabe lässt sich diese Verantwortung nicht durch Absicht oder Vertragswerk allein sicherstellen. Sie muss im Design strukturell verankert sein.

Viele Anbieter lösen das Datenschutzproblem durch Auftragsverarbeitungsverträge, Zertifizierungen und Versprechen. Das ist besser als nichts aber es bleibt eine vertragliche Absicherung, keine technische. Im Zweifelsfall hängt der Schutz von Klientendaten an der Integrität eines externen Anbieters.

Datenschutz by Architecture bedeutet das Gegenteil: Klientendaten verlassen das Gerät nur in einer Form, die für Dritte strukturell nicht lesbar ist pseudonymisiert, verschlüsselt, ohne dass auch der Anbieter selbst Zugang hätte.

No porque se haya acordado, sino porque técnicamente no hay otra opción.


Responsabilidad clínica

Con el apoyo de la IA. La responsabilidad terapéutica sigue recayendo en las personas.

La IA puede poner de manifiesto patrones que pasan desapercibidos en una conversación. Puede extraer estructuras del desarrollo de las sesiones, sugerir intervenciones y agilizar la documentación. Esto es algo real y valioso.

Pero ella no diagnostica. No toma decisiones. No asume ninguna responsabilidad clínica.

Das ist keine Schwäche es ist die einzig seriöse Rahmung. KI-Werkzeuge, die diesen Unterschied verwischen oder implizit überschreiten, sind kein Fortschritt.

La IA puede revelar patrones. La responsabilidad terapéutica sigue recayendo en las personas.


La pregunta clave

Nicht ob sondern wie

Generative KI wird Teil professioneller therapeutischer Arbeit werden. Das ist keine These mehr es ist eine Beobachtung des Feldes, bestätigt durch eine wachsende Zahl empirischer Studien.

Die zentrale Frage ist nicht mehr, ob generative KI genutzt wird, sondern unter welchen fachlichen, ethischen und datenschutzrechtlichen Bedingungen. Diese Frage ist keine technische sie ist eine klinische und professionell-ethische.

Herzog und Blank (2024) beschreiben diesen Engpass als «Principles-to-Practice Gap»: Normen wie Transparenz, Verantwortlichkeit und menschliche Aufsicht sind breit anerkannt aber selten in konkrete technische und organisatorische Strukturen übersetzt, die im Praxisalltag handlungsleitend sind.[16] Verantwortungsvolle KI-Nutzung bleibt so häufig eine individuelle Aushandlungsleistung ohne systemische Unterstützung.

mentalhealthGPT wurde aus dem Anspruch entwickelt, genau diese Lücke zu schliessen nicht durch Versprechen, sondern durch Architektur.


Preguntas frecuentes

La IA y la psicoterapia

¿Pueden los psicoterapeutas utilizar ChatGPT para tomar notas durante las sesiones terapéuticas?

Die Nutzung allgemeiner Sprachmodelle für Therapienotizen ist datenschutzrechtlich problematisch: Klientendaten würden im Klartext an externe Server übertragen ohne Pseudonymisierung und ohne Kontrolle über Weiterverarbeitung. Zudem fehlt diesen Systemen der longitudinale Fallkontext, der für klinisch fundierte Unterstützung notwendig wäre.

¿Cumple ChatGPT con el RGPD en lo que respecta a la psicoterapia y la documentación terapéutica?

Los modelos lingüísticos genéricos no están diseñados para utilizarse con datos sanitarios. La transferencia de datos personales de los clientes a servidores externos sin seudonimización plantea problemas según el RGPD y la Ley suiza de protección de datos. El uso de la IA conforme al RGPD requiere una arquitectura en la que los datos de los clientes solo salgan del dispositivo seudonimizados y cifrados.

¿En qué se diferencian los sistemas de IA clínicos de los modelos de lenguaje genéricos como ChatGPT?

Klinisch spezialisierte Systeme unterscheiden sich in drei wesentlichen Punkten: Sie führen einen longitudinalen Fallkontext über alle Sitzungen hinweg. Sie pseudonymisieren Klientendaten automatisch lokal, bevor irgendetwas das Gerät verlässt. Und sie sind auf klinische Fachsprache, Diagnosekriterien und therapeutische Konzepte spezialisiert nicht auf allgemeine Sprachkompetenz.


Fuentes

Bibliografía

  1. Asociación Americana de Psicología [APA]. (2025). La IA en la psicología: encuesta a profesionales de 2025. Washington, D.C.: APA.
  2. Blease, C. et al. (2024). Uso de herramientas de IA generativa por parte de los psiquiatras. Citado en: Wildhaber-Wälchli (2026).
  3. Aral, K. D. et al. (2025). Professional de ChatGPT-4o entre psiquiatras y psicólogos infantiles y adolescentes. Citado en: Wildhaber-Wälchli (2026).
  4. McBain, R. K. et al. (2025). Uso de la IA generativa para mental health entre adolescentes y adultos jóvenes. Citado en: Wildhaber-Wälchli (2026).
  5. Hillebrand, L. y Baumeister, H. (2025). «La IA como apoyo clínico: oportunidades y límites». Citado en: Wildhaber-Wälchli (2026).
  6. Torous, J. y Topol, E. J. (2025). «La IA generativa y mental health». The Lancet.
  7. Weidinger, L. et al. (2021). Riesgos éticos y sociales de los daños causados por los modelos de lenguaje. arXiv:2112.04359.
  8. Wildhaber-Wälchli, P. (2026). Ética, seguridad y requisitos clínicos de los sistemas de IA en psicología. Trabajo de fin de grado, IU Internationale Hochschule.
  9. Blease, C. y Rodman, D. (2025). Fluidez lingüística y adecuación clínica de la IA generativa en mental health . Citado en: Wildhaber-Wälchli (2026).
  10. Pandey, A. (2024). Retos éticos de los modelos de lenguaje a gran escala en aplicaciones psicológicas. Citado en: Wildhaber-Wälchli (2026).
  11. Wajid, M. et al. (2025). La inteligencia artificial en mental health: una revisión sistemática. Citado en: Wildhaber-Wälchli (2026).
  12. Wang, Y. et al. (2025). La IA generativa en mental health : una revisión sistemática de sus aplicaciones y limitaciones. Citado en: Wildhaber-Wälchli (2026).
  13. Asociación Americana de Psicología [APA]. (2017). Principios éticos y código de conducta de los psicólogos. Washington, D.C.: APA.
  14. Federación Europea de Asociaciones de Psicólogos [EFPA]. (2025). Metacódigo deontológico. Bruselas: EFPA.
  15. Organización Mundial de la Salud [OMS]. (2021). Ética y gobernanza de la inteligencia artificial en el ámbito de la salud. Ginebra: OMS.
  16. Herzog, L. y Blank, T. (2024). «Bridging the principles-to-practice gap in AI ethics». Citado en: Wildhaber-Wälchli (2026).
  17. Jonas, H. (1979). El principio de responsabilidad. Fráncfort del Meno: Editorial Insel.
Fundamentos científicos

Este artículo se basa, entre otros, en el siguiente trabajo científico:

Wildhaber-Wälchli, P. (2026).
Ética, seguridad y requisitos clínicos de los sistemas de IA en psicología.
Trabajo de fin de grado, IU Internationale Hochschule.

Descargar PDF →

Autoevaluación

mentalhealthGPT entwickelt für genau diesen Kontext

30 Tage kostenlos testen alle Features, keine Kreditkarte, keine Datenweitergabe. Oder live in einer Demo erleben.

Pruébalo ahora → Solicitar una demostración