30. Dezember 2026
KI in der Psychotherapie
KI, das ist landläufig die Abkürzung für künstliche Intelligenz. Da fängt das Dilemma schon an. Denn Fachleute streiten vehement darüber, ob Maschinen überhaupt intelligent sein können. Anders gesagt: so ganz und gar, ob nun KI in der Psychotherapie eine gute Idee ist, können wir die Frage gar nicht beantworten.
Um jedoch auf der Frage auf den Grund zu gehen, machen wir eine Zeitreise ins Jahr 1964. Da begann der Informatiker und Gesellschaftskritiker Josef Weizenbaum mit einer bahnbrechenden Entwicklung. Er entwickelte ein Computerprogramm, über das sich ein Dialog mit einer Maschine führen lies. Er nannte dieses Programm ELIZA. Das Programm konnte in einen Modus versetzt werden, dass es ein Verhalten wie ein Therapeut zeigte. In Anlehnung an den Psychologen Carl Rogers wurde dieser Modus DOCTOR genannt.
Praktizierende Psychologen, denen das Programm vorgeführt wurde, waren überzeugt, dass mit diesem Programm eine automatisierte Psychotherapie möglich war. Über diese Reaktionen war Josef Weizenbaum so erschüttert, dass er zum Gesellschaftskritiker wurde.
ELIZA war also quasi ein früher Vorläufer der heutigen KI. Allerdings war ELIZA weit von der Leistung heutiger Systeme entfernt. Das Prinzip bleibt aber gleich. Der Unterschied zu den heutigen Systemen ist, dass sie aus einem beliebig großen Sprachdatensatz schöpfen können und diesen relative schnell verarbeiten können. Supercomputing mit entsprechendem Leistungshunger macht dies möglich.
Wir kennen heute Fälle, in denen sich Menschen mit der KI unterhalten und die KI als vollwertigen Gesprächspartner akzeptieren.
Wir schauen mal hinter die Kulissen. Und da gibt es ein paar Haken. KI kann zum Beispiel keinen Humor. KI kennt keine Wortbedeutungen. Für KI sind Worte nichts anderes als Symbole, die gemäß einem Sprachmodell in eine gewisse Reihenfolge gesetzt werden. Die Vermarkter von KI Dienstleistungen treiben einen Riesenaufwand, um die KI menschlich erscheinen zu lassen. Das sind reine Marketingmaßnahmen. Denn hinter KI stecken immer noch saudumme Computer. KI kennt keine Ethik. Und KI kennt keinen Schmerz und keine Freude.
Ich bin jüngst über eine Aufgabe gestolpert. Man solle doch eine Woche lang per KI über ein Thema recherchieren, von dem man keine Ahnung hat. In der folgenden Woche solle man per KI über ein Thema recherchieren, von dem man Ahnung hat. Es ist eine recht intelligente Übung. Etwa 30% aller Antworten der KI sind schlicht falsch. So lange man keine Ahnung hat, kann man diese Antworten als wahr annehmen. Es ist dies eine recht gefährliche Falle. Selbst wenn KI im Laufe der Zeit scheinbar immer weniger falsche Antworten gibt, wird immer noch ein Teil der Antworten falsch sein.
KI wird immer der freundliche Nachbar sein, der über alles Bescheid weiß. Über Politik, über Medizin, Technik, Autos, Astronomie, Gott und die Welt … man kann ihn alles fragen und er hat auf alles eine Antwort. Und die Antwort klingt sehr überzeugend. Nun frage ich Dich: würdest Du in ein Flugzeug steigen, das der freundliche Nachbar in seiner Garage repariert hat?
Der Spiegel berichtet [€] am 28. August 2025 in seine Online-Ausgabe über den Fall eines 16-jährigen, den eine KI offenbar zum Suizid gebracht hat oder zumindest verholfen hat. Forschende haben daraufhin verschiedene KIs auf ihre Bereitschaft getestet suizidale Gedanken zu verstärken. Es fiel ihnen nicht schwer, die angeblichen Hürden zu umgehen.
Willst Du meine ganz persönliche Meinung darüber hören, was ich vom Einsatz von KI in der Therapie halte? Dann sage ich ganz ehrlich, dass ich das für keine gute Idee halte. Dafür gibt es einige Gründe.
Wer eine Psychotherapie benötigt, gehört zum vulnerablen Teil der Gesellschaft und ist besonders schutzbedürftig. In Mitteleuropa leben wir in einer der reichsten Gesellschaften der Erde. Eine Maschine zur Behandlung von Krankheiten einzusetzen, nur um scheinbar Kosten zu sparen, ist eine ziemlich verkommene Idee. Die Befürworter werden nun anmerken, dass in Studien belegt wurde, dass der Einsatz von KI bei einer bestimmten Patientengruppe eine signifikante Verbesserung gebracht hat. Ich kann bei diesem Argument wirklich nur müde lächeln. Ja, die Technik ist in der Tat faszinierend. Aber ist das ein Grund den Menschen menschliche Zuwendung zu versagen? Durch den Einsatz der Maschine schaffen wir eine Pseudoverbesserung. Diese Pseudoverbesserung wird dazu führen, dass die Arbeit von Therapeuten noch weniger wertgeschätzt wird. Maschinen werden vermenschlicht. Menschen werden in ihrer Einzigartigkeit gegenseitig Zuwendung zu geben weiter entwertet.
Und wenn nun beispielsweise ein Autist einen Wert in der Konversation mit der Maschine sieht? Würde ich dann dieses Verhältnis auch ablehnen?
Ich sehe technische Entwicklungen durchaus zwiespältig. Ich mag weder das Händi noch das Flugzeug noch das Auto verteufeln. Ich rate aber von einem Hype ab. Wir wissen beipielsweise folgendes: KI kann Röntgenbilder schneller und zuverlässiger auswerten als ein Mensch. Nur: wenn wir Röntgenbilder per KI auswerten lassen, verlieren Menschen recht schnell die Fähigkeit Röntgenbilder auszuwerten. Wir dürfen uns doch auch die Frage stellen: was wollen wir? Wo wollen wir hin? Wollen wir in die Abhängigkeit von Maschinen geraten? Anders gefragt: lässt sich diese Entwicklung überhaupt aufhalten? Es wird zu einer philosophischen Frage. Ich fühle mich tatsächlich wohler bei Menschen, die wissen was sie tun. Bei Profis. Dass diese dann auch noch die modernste Technik nutzen, sei ihnen nicht versagt. Sie können einschätzen, ob die Technik Müll macht oder nicht. Wenn die Technik versagt, können sie immer noch mit ihrem Fachwissen weiter arbeiten.
Vereinbare jetzt einen Termin für ein kostenloses und unverbindliches Erstgespräch.
Telefon: 03841 2784949
E-Mail: post@klare-motive.de