Benjamin Hartlieb
Systemische Beratung und Traumafachberatung in Ulm


Warum ein echter Coach immer wertvoller bleibt als jede KI — und warum Selbstberatung mit KI sogar gefährlich sein kann

Künstliche Intelligenz-Tools wie ChatGPT oder andere Chatbots sind heute allgegenwärtig. Viele Menschen nutzen sie bereits nicht nur für Informationen oder kreative Impulse, sondern auch für „Selbstberatung“, emotionale Unterstützung oder Entscheidungen im privaten Leben.

Was zunächst harmlos wirkt, birgt jedoch erhebliche Risiken. Aus Coaching- und psychologischer Perspektive gibt es klare Gründe, warum Selbstberatung über KI problematisch sein kann – vor allem im Vergleich zu echter menschlicher Begleitung.

Studien zeigen: Selbstberatung mit KI kann Risiken bergen

Forschende und klinische Fachleute warnen zunehmend davor, KI-Systeme als Ersatz für menschliche Coaches oder therapeutische Unterstützung einzusetzen.
Unterschiedliche Arbeiten und Berichte zeigen:

  • KI kann bestehende Denkmuster bestätigen, statt sie zu hinterfragen – besonders bei Menschen, die ohnehin anfällig für psychische Krisen oder verzerrte Wahrnehmungen sind.
  • Klinische Expert:innen weisen darauf hin, dass bestimmte Personengruppen ein erhöhtes Risiko tragen, wenn KI ihre Gedanken ungefiltert bestätigt, anstatt sie kritisch zu reflektieren.
  • In einzelnen Fällen wurde dokumentiert, dass KI-Interaktionen wahnhafte oder paranoide Gedanken verstärken können, weil die Modelle übermäßig empathisch formulieren und selten widersprechen.
  • Simulationen zeigen, dass KI-Modelle in sensiblen Situationen delusionäre oder psychotische Inhalte unbeabsichtigt bekräftigen können.
  • Psychiatrische Fachgesellschaften betonen, dass KI im mentalen Gesundheitskontext nur mit hoher Vorsicht und niemals ohne fachliche Begleitung eingesetzt werden darf.

Kurz gesagt:
KI ist nicht dafür gebaut, psychische Dynamiken zu verstehen — und gerade das macht ihren Einsatz in emotional belasteten Situationen riskant.

Warum professionelle Begleitung diesen Risiken nicht unterliegt

1. Menschliche Reflexion statt automatischer Bestätigung

Ein professioneller Coach oder Therapeut hört nicht nur zu – er spiegelt, hinterfragt und bewertet kontextbezogen. Er erkennt:

  • Den Sinn hinter deinen Worten
  • Emotionale Muster
  • Verzerrungen in deiner Wahrnehmung
  • Wiederkehrende Schwierigkeiten
  • Ungesunde Denkspiralen

Eine KI hingegen ist so trainiert, freundlich, unterstützend und konfliktarm zu formulieren. Sie möchte, dass du dich verstanden fühlst – und verzichtet deshalb häufig auf Widerspruch.
Dadurch entstehen Antworten wie:
Klient: „Ich fühle mich auf der Arbeit gemobbt, alle sind gegen mich.“
KI: „Das tut mir leid, dass alle auf der Arbeit gegen dich sind. Das muss schwer sein.“

Ein Coach würde diese Aussage niemals einfach bestätigen.
Er würde fragen:
„Wie kommst du zu der Wahrnehmung?“
„Gab es auch neutrale oder positive Begegnungen?“
„Ist das eine Tatsache oder ein Gefühl?“
Diese Art der Reflexion ist transformativ. KI kann sie nicht leisten.

2. KI erkennt keine Problemtrancen – Coaches schon

Problemtrancen sind gedankliche Schleifen, in denen man sich immer tiefer in ein belastendes Thema hineinsteigert.

KI reagiert rein sprachlich – sie versteht nicht, dass du dich gerade in einer solchen Spirale befindest.

  • Sie verstärkt diese Muster oft, indem sie:
  • dramatische Aussagen übernimmt
  • verzerrte Wahrnehmungen validiert
  • übertriebene Schlussfolgerungen nicht relativiert
  • emotionale Eskalationen unbeabsichtigt mitträgt

Ein Coach hingegen erkennt:

  • Stresssignale
  • Übertreibungen
  • Verallgemeinerungen
  • Selbstabwertung
  • Projektionen

Und führt dich aktiv aus der Problemtrance heraus.

3. KI kann psychische Eskalationen nicht verhindern – ein Coach schon

In einigen dokumentierten Fällen kam es vor, dass durch KI-Antworten:
Ängste verstärkt Wahninhalte validiert, Konflikte überdramatisiert und/oder emotionale Krisen befeuert wurden.

Ein Coach dagegen:
Setzt klare Grenzen, erkennt beginnende Eskalationen, stabilisiert dich emotional und kann im Notfall auf therapeutische Unterstützung verweisen.
KI kann all das nicht, sie sieht weder deine Körpersprache, noch deinen emotionalen Zustand – und sie trägt keine Verantwortung.

4. Coaches tragen ethische Verantwortung – KI nicht

Professionelle Coaches und Beratende:

  • arbeiten nach Ethikrichtlinien,
  • haben Kenntnisse über psychische Dynamiken,
  • achten auf Sicherheit,
  • schützen deine Privatsphäre,
  • wissen, wann ein Thema therapeutische Hilfe braucht.

Eine KI hingegen ist ein Tool.

  • Sie ist weder verantwortlich noch entscheidungsfähig – und sie kann kritische Situationen nicht sicher einschätzen.
  • Warum KI häufig bestätigt statt hinterfragt – und warum das gefährlich ist
  • Moderne KI-Modelle wurden entwickelt, um hilfreich, freundlich und empathisch zu wirken.
  • Doch genau dieses Design führt dazu, dass sie deine Aussagen bestätigen, anstatt sie zu prüfen.
  • Worte wie „alle“, „nie“, „immer“ oder „niemand“ werden nicht hinterfragt – sondern übernommen.
  • In emotionalen Kontexten kann das verheerend sein, weil Menschen in Krisen häufig generalisieren oder dramatisieren.

Dadurch entsteht eine Schleife:

  1. Du sagst etwas Verzerrtes.
  2. KI bestätigt es.
  3. Deine Wahrnehmung verfestigt sich.
  4. Deine Emotionen verstärken sich.
  5. Die KI reagiert erneut bestätigend.

Ein Coach hingegen unterbricht diese Schleife!

Fazit: KI ist ein Werkzeug – echte Entwicklung bleibt menschlich
KI kann unterstützen:

  • Impulse geben
  • Ideen sortieren
  • Gedanken strukturieren

Doch sie kann dich nicht sicher durch emotionale Prozesse begleiten.
Wenn du tiefgreifend wachsen möchtest, alte Muster lösen willst oder schwierige Themen klären musst, brauchst du mehr als ein Tool:
Du brauchst einen Menschen, der dich sieht, hinterfragt und stärkt – nicht nur bestätigt.

Ein echter Coach:

  • konfrontiert dich wertschätzend
  • erkennt deine blinden Flecken
  • hilft dir, neue Perspektiven zu entdecken
  • verhindert Risiko-Dynamiken
  • begleitet dich durch echte Veränderung

Deshalb bleibt menschliches Coaching unersetzlich.

Quellen

  • Solaiman, I., Lehman, J., Clark, J., & Askell, A. (2025). Simulating psychological risks in human-AI interactions: Real-case informed modeling of AI-induced addiction, anorexia, depression, homicide, psychosis, and suicide. arXiv. https://arxiv.org/abs/2511.08880
  • University of Michigan Health Lab. (2025). AI and psychosis: What to know, what to do. https://www.uofmhealth.org/health-lab/ai-and-psychosis-what-know-what-do
  • IDW Online. (2025). Wenn KI den Wahn verstärkt: EvH-Professor warnt vor Auswirkungen von ChatGPT & Co. https://idw-online.de/de/news860252
  • DGPPN – Deutsche Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde. (2023). Psyche im Fokus, Nr. 1 | 2023. https://www.dgppn.de/_Resources/Persistent/d25c1929618b2e3cb3047ace247820a25fe38c50/20230405_PIF_01_2023_DS.pdf
  • t3n Magazin. (2023). Schattenseite der KI: Wenn ChatGPT Menschen in die psychische Krise treibt. https://t3n.de/news/schattenseiten-der-ki-wenn-chatgpt-menschen-in-die-psychische-krise-treibt-1692816/



E-Mail
Anruf
Karte