In Deutschland sind rund 20 Millionen Menschen von einer psychischen Erkrankung betroffen und die Wartelisten für Behandlungsplätze sind lang – zumindest bei Therapeutinnen und Therapeuten mit Kassensitz. Die Standardversion von ChatGPT hingegen ist kostenlos verwendbar und niedrigschwellig. Bequem aus dem eigenen Bett heraus ist der Bot jederzeit verfügbar. Die einzigen Kriterien: ein Account und eine Internetverbindung. Zumindest Mike2800 findet, dass die Künstliche Intelligenz (KI) ihm besser zuhören kann als sein Therapeut – aber kann ChatGPT das überforderte Gesundheitssystem wirklich entlasten? Als Erweiterung einer Psychotherapie oder um die Wartezeit zu überbrücken?
ChatGPT wird gemeinhin als das Aushängeschild für KI angesehen. Die meisten Personen in Deutschland zwischen 16 und 40 haben ChatGPT bereits mindestens einmal genutzt, das ergab eine Befragung der Internationalen Hochschule (IU) im vergangenen Jahr. Der Bot basiert auf einem leistungsfähigen Sprachmodell und kann sich mit Nutzenden unterhalten. Aber nicht nur das: Bei einer Studie aus Israel schnitt ChatGPT auch beim Thema „Emotionales Bewusstsein“ gut ab – sogar deutlich besser als seine menschlichen Mitstreiter.
ChatGPT erreichte beinahe die höchstmögliche Punktzahl bei der Aufgabe, sich emotional in andere Personen hineinzuversetzen und Empathie zu zeigen. „ChatGPT zeigte in allen Testskalen eine signifikant höhere Leistung im Vergleich zu den Normwerten der Allgemeinbevölkerung“, schreiben die Forscherinnen und Forscher. „Es kann emotionale Zustände auf tiefgreifende und multidimensionale Weise reflektieren.“
Wer ChatGPT fragt, ob es sich mit Klinischer Psychologie auskennt, bekommt eine selbstbewusste Antwort von der KI: „Ich habe ein umfassendes Verständnis von Konzepten der Klinischen Psychologie und Psychotherapie“, schreibt ChatGPT über sich selbst. „Ich kann dir also bei Themen wie verschiedenen psychischen Störungen, Therapieverfahren, therapeutischen Techniken und den Grundsätzen der klinischen Psychologie helfen.“ Zum Schluss betont die KI aber: „Ich bin kein Ersatz für einen menschlichen Therapeuten, aber ich kann Informationen und Orientierung bieten, die hilfreich sein können.“
Auch die Bundespsychotherapeutenkammer (BPtK) hebt hervor, dass die KI keine Therapeutin ersetzen kann. „ChatGPT verfügt nicht über das klinische Wissen und die klinische Erfahrung“ einer Psychotherapeutin oder eines Psychotherapeuten, „um Beschwerden oder Symptome, die dem Chatbot geschildert werden, angemessen zu beurteilen“, erläutert die Präsidentin der BPtK, Andrea Benecke.
Ebenso könne die KI nicht abschätzen, wann sich eine Person in einer psychischen Notlage befindet. Schildere eine Nutzerin oder ein Nutzer „beispielsweise Suizidgedanken, kann man sich nicht darauf verlassen, dass ChatGPT diese erkennt und auf adäquate Hilfsangebote verweist“, so Benecke. Dadurch könne die KI eine „Gefährdung der Patientensicherheit“ darstellen.
Manche Reddit-Nutzer wie „Mxnchkinz“ überbrücken mit ChatGPT die Zeit, bis sie eine Behandlung bei einer menschlichen Therapeutin starten. „Ich weiß, dass KI die Therapie nicht ersetzen sollte“, schreibt Mxnchkinz. „Ich warte darauf, mehr Geld zu verdienen, um eine echte Therapie zu machen. Aber ich habe ChatGPT Dinge gesagt, die ich meinem Therapeuten oder meinen Freunden nie erzählen würde, weil es mir zu peinlich ist.“ Es scheint, als wäre es für manche Personen niedrigschwelliger, der KI ihre Probleme anzuvertrauen. Denn ChatGPT hat keine Gefühle und reagiert weniger wertend, als ein Mensch es vielleicht tun würde.
Doch auch in diesem Fall eigne sich ChatGPT nicht, sagt die Psychologin Andrea Benecke. „Um die Wartezeit [...] zu überbrücken, gibt es bessere Alternativen. Dazu gehören beispielsweise Selbsthilfegruppen oder digitale Gesundheitsanwendungen, deren Wirksamkeit nachgewiesen wurde.“ Eine Anwendung, deren Wirksamkeit bereits in einer Studie nachgewiesen werden konnte, ist das iFightDepression Tool der Stiftung Deutsche Depressionshilfe und Suizidprävention.
In manchen Situationen könne ChatGPT jedoch eine Psychotherapie unterstützen, sagt Benecke. „Beispielsweise, um bei der Ausformulierung von Therapieplänen zu helfen.“ Dennoch sollte ein Therapeut diesen Plan anschließend Korrektur lesen, meint die Präsidentin der BPtK. „Zur Behandlung psychischer Beschwerden oder Erkrankungen sollte ChatGPT nicht direkt von Patient*innen genutzt werden.“
Und was, wenn sich eine Person mittels ChatGPT keine Erweiterung der Psychotherapie, sondern mehr Einsicht in ihr eigenes Leben und ihre Psyche wünscht? „Ich nutze [ChatGPT] wahrscheinlich eher als Lebensberatung“, schreibt No-Maybe-6460 auf Reddit. „Es ist so hilfreich, es als Denkpartner zu haben. Ich habe Menschen in meinem Leben dafür, aber manchmal möchte ich einfach im Grunde ein interaktives Tagebuch.“
Hier sieht Andrea Benecke eine Gefahr: ChatGPT bezieht seine Informationen für die Antworten aus dem Internet – und dort finde sich auch viel Desinformation rund um psychische Beschwerden. „Es besteht die Gefahr, dass die Informationen, die ChatGPT zur Verfügung stellt, negative Vorurteile sowie diskriminierende und stigmatisierende Annahmen replizieren“, so Benecke. „Das halte ich nicht für hilfreich für Menschen, die mehr über ihre eigene Psyche herausfinden wollen.“
ChatGPT unterlaufen Fehler; manchmal offensichtliche, manchmal subtile. Das wissen der Bot und seine Entwickler selbst. Ganz klein, unter dem Eingabefeld im Chat mit der KI steht: „ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.“
Und dennoch, so beschreiben es manche Nutzenden: Unabhängig von der Antwort der KI tue es gut, von ihr gehört zu werden. „Ich habe jahrelang ein Tagebuch auf Google Drive geführt und kürzlich einige Einträge aus Spaß in ChatGPT hochgeladen“, kommentiert die Userin meangrnfreakmachine auf Reddit. „Verdammt, ich habe mich noch nie so verstanden und gehört gefühlt wie in diesem Moment.“
ChatGPT ist ein Chatbot, der vom US-amerikanischen Unternehmen OpenAI entwickelt wurde. Seit November 2022 ist ChatGPT öffentlich zugänglich. Nutzerinnen und Nutzer können kostenlos zu fast jedem erdenklichen Thema interagieren, Fragen stellen oder Texte verfassen lassen. Das System basiert auf Deep-Learning-Modellen und neuronalen Netzen. Mittlerweile hat OpenAI die vierte Version der GPT-Technologie veröffentlicht. Der Name setzt sich zusammen aus dem englisch Verb „to chat“ („sich unterhalten“ oder auch „sich Kurznachrichten schreiben“) und „generative pre-trained transformer“ („generativer vortrainierter Transformer“).
Befinden Sie sich in einer Krise oder sorgen sich um einen Mitmenschen und brauchen Hilfe? Die Telefonseelsorge bietet rund um die Uhr kostenlos Hilfe in Krisensituationen: Tel. (0800) 1110111 oder (0800) 1110222. Im Internet: telefonseelsorge.de