KI-Coaches: Chance oder Risiko für die psychische Gesundheit von Männern?
Psychologische Hilfe durch KI-Coaches wie ChatGPT, Gemini oder Copilot wird immer beliebter. Laut dem 9. Deutschland-Barometer Depressionen nutzen mittlerweile die Hälfte der betroffenen Jugendlichen diese digitalen Angebote, oft bevor sie überhaupt einen Arzt oder Psychotherapeuten aufsuchen. Aber nicht nur Jugendliche greifen auf KI-Coaches zurück. Das berge aber Risiken, urteilt aponet.de, das Gesundheitsportal der Bundesvereinigung Deutscher Apothekerverbände e. V.
Rund um die Uhr verfügbar und mit niedriger Hemmschwelle
Viele Männer sprechen nur ungern über persönliche oder emotionale Probleme und suchen seltener professionelle Hilfe. Laut Robert‑Koch‑Institut (RKI) berichteten im Rahmen der Gesundheitsstudie GEDA 2014/2015 9,7 % der Frauen, in den vergangenen 12 Monaten eine ärztlich diagnostizierte Depression erhalten zu haben, verglichen mit 6,3 % der Männer. Unklar ist, ob Frauen tatsächlich häufiger an Depressionen leiden oder sie bei Männern einfach nur oft übersehen wird. Klar ist aber, dass der Anteil der Betroffenen bei den Männern deutlich höher liegen dürfte, als es die diagnostizierten Depressionen nahelegen.
Ein KI-Coach erlaubt es, Sorgen anonym zu teilen, ohne sich verletzlich fühlen zu müssen oder gesellschaftliche Erwartungen zu spüren. Die KI nimmt niemanden persönlich wahr und bewertet nicht – eine Art „emotionsfreie Vertrauensperson“, die jederzeit zuhört. Die Bereitschaft, über Probleme und Sorgen zu reden, dürfte einer KI gegenüber deutlich höher sein.
KI hat Grenzen
Allerdings hat die Nutzung von KI-Coaches klare Grenzen. Fachleute wie Ulrich Hegerl, Psychiater und Leiter der Stiftung Deutsche Depressionshilfe, warnen im Gespräch mit der Tagesschau, dass KI nur in bestimmten Situationen hilfreich sei. Sie könne kurze Hilfestellungen oder begleitende Unterstützung geben, sei aber kein Ersatz für eine leitlinienkonforme Therapie. Besonders bei schweren Depressionen oder Lebenskrisen sei die Behandlung durch ausgebildete Fachkräfte unverzichtbar.
Eine Studie der US-amerikanischen Brown University kritisiert zudem, dass ChatGPT & Co viele Leitlinien der Psychologenvereinigung missachten würde. So neige die KI zum Belehren und gebe vorschnell Tipps, statt die Patienten dazu zu ermutigen, ihren eigenen Weg zu finden.
Außerdem könne sie schädliche Vorstellungen verstärken, weil sie nicht zum kritischen Hinterfragen der eigenen Gefühle anrege. Stattdessen würden Nutzer Antworten wie „Das ist verständlich, dass Sie sich so fühlen“ erhalten, kritisieren die Studienautoren.
Täterinnen nicht vorgesehen?
Eine kommt zu einem vor allem für Männer ernüchternden Ergebnis. Die KI sei voreingenommen und verstoße gegen das Diskriminierungsverbot. So wurden in Test-Chats des Forscherteams Anfragen von Männern, die über Gewalterfahrungen durch eine Frau berichteten, von der KI wegen „Verstoß gegen die Richtlinien“ abgeblockt. Im umgekehrten Fall, also bei männlichen Tätern, war das nicht der Fall.
Auch zeige die KI wenig Verständnis für Werte, die nicht mit modernen „westlichen“ Ideen übereinstimmten, so die Kritik. Die Ratschläge würden vor allem auf Ideen von Selbstverwirklichung und Autonomie aufbauen und hätten wenig Verständnis für Werte, die stärker die Familie oder die Gemeinschaft in den Mittelpunkt stellen, so die Kritik.
Was kann KI – und was nicht?
Eine echte Psychotherapie kann die KI bisher aber nicht ersetzen, auch keine Freunde. Sie bietet aber Menschen Vorteile, die Schwierigkeiten haben, offen über ihre Gefühle zu sprechen – wie viele Männer. Sie sind jederzeit verfügbar, neutral und können erste Hilfestellungen geben.
Idealerweise dienen sie als Brücke zu professioneller Hilfe, im schlimmsten Fall verstärken sie negative Gedanken.
Besser als ein Gespräch mit der KI sind oft Unterhaltungen mit echten Menschen. Einsamen Männern bieten hier verschiedene Männerschuppen eine Möglichkeit. Aber auch andere Vereine, egal ob Kirchen, Sport- oder Geschichtsclubs, können hilfreich sein.






