„Menschen, die gibt’s nur in der ersten Klasse“

Vor einigen Jahren, Flughafen Frankfurt, Kofferaufgabe. Mitreisende fremdeln mit der neuen Technik: Sie sollen Ihr Gepäck selbst aufs Band stellen und mit Hilfe des Check-in-Codes Banderole und Quittung ausdrucken. Einer ruft: „ich wünsch‘ mir Menschen dafür“. Und ein Mitarbeiter, der dies hört, reagiert: „Menschen, die gibt’s nur in der ersten Klasse“.
Dieser Satz fiel mir ein in Zusammenhang mit Künstlicher Intelligenz und Beratung. Denn längst wird in Coaching und Supervision nicht nur darüber diskutiert, ob und wie KI hier zum Einsatz kommen soll, darf und kann. Sie wird bereits eifrig genutzt.
Hier meine derzeitigen Überlegungen dazu:
- Künstliche Intelligenz ist weder „die“ noch „Intelligenz“, sondern die Berechnung von Wahrscheinlichkeiten auf der Grundlage von Mustererkennung aus Trainingsdaten.
- Die Entwicklung der sogenannten Large Language Models ist rasant: eine Einschätzung von Anfang 2024, die ChatGPT-3 aufgrund eines Selbstversuchs attestiert, dass (nur) „ein einfacher, zur Selbstreflexion anregender ‚Coaching-Dialog‘ mit Einschränkungen möglich sei“ wird man heute mit einem Fragezeichen versehen. Denn die Datenmenge wächst und das „Potential zu menschenähnlichen Interaktionen [ist] unüberseh- oder sogar unüberfühlbar“[i].
- Erste Untersuchungen weisen auf die Wirksamkeit in der psychotherapeutischen Behandlung hin: den 106 Patienten mit Depressionen, Angst- beziehungsweise Essstörungen, die acht Wochen lang von einem Chatbot beraten wurden, ging es am Ende merklich besser als denjenigen, die in der Kontrollgruppe unbegleitet blieben[ii]. Für standardisierte Coaching-Prozesse, bei „überschaubaren Herausforderungen des Berufsalltags“, werden KI-Coachs mittlerweile ähnlich gute Ergebnisse attestiert wie menschlichen Coachs[iii].
- Und für nicht standardisiertes Coaching und komplexe Herausforderungen des Berufsalltags, die in der Supervision Thema werden? Wer nur durch KI mit Coaching und Supervision in Berührung kommt, kann deren Potential nicht ermessen – und dadurch vielleicht nie erfahren, was gutes Coaching/gute Supervision ist.
- Denn als großer Vorteil der „maschinellen“ Beratung gilt ihre Verfügbarkeit – für alle und jederzeit. Die „Demokratisierung des Coachings“ scheint nahe.
- Die qualitätvolleren Bezahlversionen schaffen freilich neue Zugangsbarrieren – und wer wollte die Konzerne, die KI gerade so großzügig zur Verfügung stellen, daran hindern, die Bezahlschranke zu erhöhen, sobald die Formate etabliert sind? Hinzu kommt (jedenfalls bei ChatGPT), dass das System nicht mitteilt, wenn das Kontingent an Beratung in der besseren Version ausgeschöpft ist. Es stuft die Benutzerin einfach in eine schlechtere Version zurück. Dann nehmen auch die sogenannten Halluzinationen zu.
- Kostenloser Zugang? Wer kein Geld bezahlt, zahlt mit seinen Daten. Vertrauliche Informationen werden so in Systemen gespeichert, die für uns undurchschaubar und unberechenbar sind.
- Weil es ums Geld geht, will die KI uns bei der Stange halten: auch so entsteht ein „bias“, ein antrainiertes Vorurteil, das hier zu unseren Gunsten, aber nicht unbedingt zu unserem Nutzen ausfällt. Es droht „Gefälligkeits-Coaching“.
- Dass das antrainierte Wissen von KI aus der Vergangenheit stammt, ist das eine. Wie angemessen und vorausschauend kann also beraten werden? „Die Antworttexte sind an keiner Stelle in irgendeiner Weise kreativ im Sinne von überraschend – bieten keine neuen Anstöße oder gar positive Irritationen, welche das Denken in andere Bahnen lenken könnten… Überraschende (nonlineare) Perspektiven oder angemessene Provokationen (z.B. durch Humor) waren nicht zu erkennen“[iv] Das andere ist die mögliche Verdummung, die dadurch entsteht, dass sich KI zunehmend auf sich selbst bezieht. Je komplexer sie wird, desto weniger wissen wir, was passiert: ein „stochastischer Papagei“ auf der Grundlage der Berechnung von Wahrscheinlichkeiten[v]. „Prozesse des Maschinenlernens sind im Kern statistische Generalisierungen über große Datenmengen“[vi].
- Wenn ich mich als Beraterin von KI beraten lassen – also allgemein nach Tools zum Start eines Online-Gruppen-Coachings frage (einfach) oder nach dem Aufbau einer Supervision in einer speziellen Konfliktlage (schwieriger), erhalte ich eine Reihe von Empfehlungen. Allerdings: diese Ergebnisse helfen erst einmal nicht weiter. Für ihre Bewertung und den weiteren Umgang mit ihnen braucht es meine Expertise als Supervisorin und Coach.
- Wenn eine solche Einordnung nicht erfolgt, droht Gefahr. Die Entwickler des oben genannten Psychotherapie-Chatbots sehen das größte Risiko der Anwendung darin, dass das System „nicht so arbeitet, wie wir wollen“[vii] – also falsche Bewertungen vornimmt oder schädliche Hinweise gibt, gar ein manipulatives und intransparentes Vorgehen wählt, das intime „Beziehungen“ zu diesem Chatbot fördert und abhängig macht.
- Als wichtigster Erfolgsfaktor der Beratung gilt das „Arbeitsbündnis“, das auf einer positiven Beziehung in der Supervision/im Coaching beruht[viii]. Zwar vermag die KI in zunehmenden Maße Interesse und Empathie zum Ausdruck zu bringen – in Versuchen, in denen die Probanden im Unklaren darüber waren, ob sich eine KI oder ein Mensch äußerte, nahmen sie die KI als empathischer wahr Das änderte sich jedoch, sobald der Proband wusste oder auch nur zu wissen glaubte, wer sich da ihm gegenüber zu Wort meldete: „Wer glaubte, da säße ein Mensch am anderen Ende, empfand die Antworten als einfühlsamer. ‚Das tut mir leid‘ fühlt sich eben anders an, wenn man denkt, es komme von Herzen – nicht aus einer Serverfarm“[ix]. Empathie, so ahnen wir, kostet ein Gegenüber, das uns verstehen und vielleicht unser Wohlbefinden verbessern möchte, Mühe. „KI kennt aber keine Mühe. Sie kann nur Muster aus Trainingsdaten wiederkäuen“ – „KIs haben keine Ahnung, worüber sie reden …Eine KI will nichts und weiß nichts“[x].
- Die Rede ist hier von der psychischen Nähe (Resonanz), die eben keine Selbstverständlichkeit darstellt, sondern immer neu errungen werden will. Mit ihr entsteht eine einzigartige Arbeitsbeziehung – trotz oder vielmehr wegen unserer jeweiligen menschlichen Besonderheiten und sogar Unvollkommenheiten[xi]. Wie wir aus den Forschungen zur virtuellen Zusammenarbeit wissen, wird dieser Vertrauensaufbau durch körperliche Präsenz enorm befördert[xii].
- Aus der Beschäftigung mit den Bedingungen und Möglichkeiten von Veränderungen in Einstellungen und Verhalten (oft ein Thema in Supervision und Coaching) wissen wir, dass es hilfreich sein kann, sich anderen gegenüber zu verpflichten. Es macht einen Unterschied, ob dies gegenüber einem Menschen oder einer Maschine geschieht.
- Ohne eine gute Beziehung geht in der Beratung wenig, aber sie ist natürlich nicht alles: wenn sich Supervisorinnen und Coaches gegen KI behaupten wollen, dann müssen sie auch mit Qualität punkten – also einen Mehrwert gegenüber der Technik liefern.
- Dafür können und dürfen die Berater und Beraterinnen wiederum die Möglichkeiten der KI nutzen: „Inspirationsquelle, Sparringspartner, Schreibgehilfe, Strukturgeber und das alles gleichzeitig“, schreibt eine Kollegin, „ich selbst hatte den Eindruck, dass ich … meine Produktivität und Kreativität erheblich steigern konnte. Und das Beste: Die Arbeit macht mir viel mehr Spaß!“ Freilich auch: „GPTs sind keine Supervision im Sinne unserer Kunst, aber ein richtig gutes Werkzeug, wenn man weiß, wie man es nutzt“[xiii].
- Auch im Rahmen „menschlicher“ Beratung kann – wenn es denn für Coachees und Supervisanden gut passt – KI zum Einsatz kommen: als-Vor-Beratung, zum Üben (beispielsweise von Rollenspielen, die herausfordernde Begegnungen simulieren), als Transfer-Hilfe… Beraterkompetenz in Bezug auf qualitätvolle und datensichere Apps ist hier hilfreich. Denn wo ChatGPT womöglich nur Vorschlagslisten erstellt, wenn es um die Priorisierung der Arbeit und um Prokrastination geht, wird ein spezieller KI-Coach eher Fragen stellen, die der persönlichen Lösungsfindung dienen.
Die Zukunft, so wird in der Szene vermutet, ist hybride.
„Menschen, die gibt’s nur in der ersten Klasse“: eine Beziehung zu einer Supervisorin oder einem Coach, die/der ihre Arbeit versteht, mit hoher Qualität punktet, eine Lebensgeschichte, Intuition, Ethos, kurz: Persönlichkeit einbringt, wird daher auch (oder gerade), wenn sich die Nutzung von KI immer weiter durchsetzt, den Unterschied machen: „Qualifikation und Persönlichkeit ist alles …Wir müssen die Premium-Version liefern“! (Stefan Stenzel auf dem BTS-Forum, September 2024).
Und so gehe auch ich davon aus, dass „dass eine gute, eigenwillige, reflexive, gesprächsfokussierte Art des Beratens weiter wichtig bleibt“[xiv] – und sogar an Bedeutung gewinnt!
P.S. Das Bild wurde von Google Gemini erstellt. Der Text ist ein rein menschliches Produkt.
[i] Stefan Stenzel, Coachbots werden uns zu „besseren Menschen“ bzw. Coaches machen! (DGSv-Positionen. Beiträge zur Beratung in der Arbeitswelt 1/24)
[ii] FAZ 2.4.2025
[iii] FAZ 26.7.2025; Sie können sich das anschauen auf https://www.3sat.de/wissen/kann-ich-mit-ki/250827-coaching-kuenstliche-intelligenz-stimmungen-selbstreflexion-eric-mayer-testet-ki-als-coach-nano-102.html
[iv] Stefan Stenzel, Coachbots werden uns zu „besseren Menschen“ bzw. Coaches machen! (DGSv-Positionen. Beiträge zur Beratung in der Arbeitswelt 1/24
[v] „Stochastisch“ abgeleitet vom griechischen Verb στοχάζομαι (stochazomai☆) „etwas treffen, erraten, vermuten“ (https://de.wiktionary.org/wiki/stochastisch) wird mit „vom Zufall abhängig“, „vom Zufall beeinflusst“ übersetzt
[vi] „Eine KI weiss nicht, wovon sie spricht“. Interview mit Prof. Daniel Martin Feige (Journal Supervision der DGSv 2/25). Von ihm zuletzt erschienen: „Kritik der Digitalisierung. Technik, Rationalität und Kunst“, 2025 (https://meiner.de/fmv_de/kritik-der-digitalisierung-17366)
[vii] FAZ 2.4.2025
[viii] https://www.richtung-ziel.de/wirksamkeit-von-coaching-und-supervision/
[ix] FAZ 2.7.2025 „Gefühlt wertlos“
[x] „Eine KI weiss nicht, wovon sie spricht“. Interview mit Prof. Daniel Martin Feige (Journal Supervision der DGSv 2/25)
[xi] Stefan Stenzel, Coachbots werden uns zu „besseren Menschen“ bzw. Coaches machen! (DGSv-Positionen. Beiträge zur Beratung in der Arbeitswelt 1/24)
[xii] https://www.richtung-ziel.de/eine-frage-der-resonanz-zusammenarbeit-fuehrung-und-beratung-im-digitalen-raum/
[xiii] Birgit Permantier, Mein Co-Coach heisst GPT“, in: Journal Supervision der DGSv 2/25
[xiv] „Eine KI weiss nicht, wovon sie spricht“. Interview mit Prof. Daniel Martin Feige (Journal Supervision der DGSv 2/25)
Weitere Literaturhinweise:
Bernd Schmid, Wird der menschliche Coach durch KI entbehrlich? Urteilsvermögen, Verantwortung und KI (https://www.coaching-magazin.de/kontrovers/wird-der-menschliche-coach-durch-ki-entbehrlich, Coaching-Magazin Online, 11.04.2024)
https://www.coaching-magazin.de/themen/kuenstliche-intelligenz-im-coaching
https://www.haufe.de/personal/neues-lernen/ki-gesteuertes-coaching_589614_644488.html (28.3.2025)