Seit der Verfügbarkeit generativer Sprachmodelle wird im Coaching die Frage diskutiert, ob und wie Künstliche Intelligenz (KI) in professionellen Prozessen sinnvoll eingesetzt werden kann – oder ob sie letztlich eine ganze Zunft bedroht. Idealtypisch lassen sich dabei zwei Positionen unterscheiden:
Zum einen liegt es nahe, KI als Tool zu sehen. Das würde bedeuten, anstelle sich Methoden für einen Teamworkshop aus den gängigen Methodenhandbüchern zu holen, KI nach geeigneten Methoden zu fragen – ein Vorgehen, das für viele Coaches mittlerweile selbstverständlich ist. Dabei liegt der Vorteil von KI darin, dass das Angebot an Methoden umfangreicher und zielgerichteter ist: Durch detaillierteres Prompting ist ein Coach weniger in Gefahr, sich in zahllosen Vorschlägen zu verlieren. Systeme wie ChatGPT können Vorschläge machen, Optionen entwickeln, gegeneinander abwägen und sogar Resonanzräume eröffnen, in denen ein „Dialog“ mit KI entsteht.
Das andere Extrem ist: KI übernimmt die Rolle des Coaches und macht damit persönliches Coaching letztlich überflüssig. In der Tat: KI kann starke Fragen stellen, auf dieser Basis neue Vorschläge generieren und sie nochmals anpassen. Das führt zu der Konsequenz, dass KI-Coaches „für spezifische Aufgaben effektiv sein, akzeptiert werden und in Kompetenz menschlichen Coaches ebenbürtig sein können“ (Passmore et al., 2025).
Keine dieser Positionen ist befriedigend. Sicher kann KI Aufgaben übernehmen, die ansonsten ein Coach übernimmt. Andererseits erleben Klienten die Beziehung zu einem KI-Coach anders als zu einer realen Person (Barger, 2025): Vertrauen, Verantwortlichkeit, aber auch das Gespür für Nuancen im Coaching-Prozess sind Besonderheiten einer personalen Beziehung zwischen Coach und Klient (Bachkirova & Kemp, 2024).
Doch wie lässt sich die Rolle der KI im Coaching stattdessen definieren? Einen Ansatz dafür bieten Konzepte, die KI als „digitalen Kollegen“ z.B. bei Teamarbeit einführen. So vertritt Mollick (2025) die These, dass sich KI manchmal mehr wie ein Teamkollege verhalte als ein Tool: (Mollick, 2025). Dell’Acqua et al. (2025) sprechen vom „kybernetischen Teamkollegen“. Auf Coaching übertragen bedeutet das, KI nicht als bloßes Tool, aber auch nicht als Coach, sondern als „Expertin“ zu definieren, die zum Coaching hinzugezogen wird.
Systemtheoretisch verändert sich damit das klassische Coaching-System mit der Dyade Coach – Klient zu einem Triadensystem mit Coach, Klient und Expertin. Hier bietet sich der Rückgriff auf die Personale Systemtheorie von König und Volmer (2019) an. Sie versteht soziale Systeme als Konstellationen von Personen, die auf der Basis ihrer subjektiven Deutungen und Emotionen handeln und damit Veränderungen im System anstoßen. Zugleich werden soziale Systeme durch Regeln gesteuert und sie entwickeln schließlich eine Eigendynamik, die letztlich über die Intentionen der handelnden Personen hinausführt.
Für Coaching bedeutet das: Durch die Hinzuziehung einer Expertin wird aus der Dyade Coach – Klient eine Triade mit Coach, Klient und Experte. Jede Person hat ihre – möglicherweise unterschiedlichen – subjektiven Deutungen der Situation, verfolgt möglicherweise unterschiedliche Ziele. Es bedarf Regelungen nicht nur zwischen Coach und Klient, sondern auch für die Interaktion mit der Expertin wie z.B. die Regel „die Expertin darf Anregungen geben, aber der Klient entscheidet“. Und es besteht die Gefahr von Regelkreisen, an denen die Expertin beteiligt ist, z.B. dann, wenn sie versucht, ihre Ideen dem Klienten überzustülpen (König & Volmer, 2019, S. 263f).
Dieses Systemmodell lässt sich auf die Nutzung von KI anwenden: An die Stelle des menschlichen Experten tritt die KI als die digitale Expertin, die – wie eine Person – einen Coaching-Prozess unterstützen, aber auch behindern kann. Das bedeutet im Einzelnen:
Aufgabe einer Expertin im Triaden-Coaching ist es, alternative Deutungen der Situation und alternative Lösungsvorschläge einzubringen. So kann z.B. eine Expertin die Probleme in einem Team vor dem Hintergrund von VUCA und BANI deuten und dann etwa den Vorschlag einbringen, iterativ auf der Basis von OKR (Objectives and Key Results) vorzugehen. Diese Aufgabe kann KI übernehmen. Dabei liegt die Stärke von KI darin, auf einen größeren Fundus an vorhandenem Wissen zurückzugreifen. Zu diesem Ergebnis kommt auch die groß angelegte Feldstudie von Dell’Acqua et al. (2025). Im Vergleich von Einzelarbeit ohne KI, Teamarbeit ohne KI, Einzelarbeit mit KI und Teamarbeit mit KI ergab sich: Einzelpersonen, die mit KI arbeiteten, erzielten eine Leistung, die mit der von Teams ohne KI vergleichbar war. Teams mit KI übertrafen alle anderen Gruppen, sowohl in der Qualität der Lösungen als auch in Detailtiefe. Diese Befunde werden durch weitere Studien ergänzt. Noy & Zhang (2023) zeigten in einem Experiment mit mehr als 400 Wissensarbeitenden, dass KI die Bearbeitungszeit von Schreibaufgaben um rund 40 Prozent reduziert und die Qualität der Ergebnisse um etwa 18 Prozent verbessert. Calvino et al. (2025) kommen in einer Metaanalyse zu dem Schluss, dass KI in vielen Bereichen die Produktivität steigert, insbesondere bei repetitiven und routinisierten Aufgaben, aber auch Innovationsprozesse befördert.
Die Expertise, die ein menschlicher Experte einbringt, spiegelt häufig seine Fachhintergründe wider: Ein betriebswirtschaftlich ausgebildeter Experte wird eher ökonomische Aspekte in den Blick nehmen (Dell’Acqua et al., 2025), ein systemisch ausgebildeter Coach eher Regelkreise thematisieren. Die Vorschläge eines Experten können aber auch vom eigenen persönlichen Interesse geleitet und im schlimmsten Fall manipulativ sein. Das Gleiche gilt für die digitale Expertin: Wissen, das KI bereitstellt, ist von Biases, das heißt Verzerrungen gekennzeichnet (Bender et al., 2021): Es begünstigt Mainstreamauffassungen und Stereotype und birgt die Gefahr, andere Auffassungen zu unterdrücken. Diese Verzerrungen entstehen, weil Sprachmodelle aus Internetdaten lernen, in denen populäre und hegemoniale Diskurse überrepräsentiert sind. KI-Systeme übernehmen dabei nicht nur aktuelle Mehrheitsmeinungen, sondern auch überholte Weltbilder und unbewusste Verhaltensmuster (BSI, 2025; Cloud et al., 2025).
Als zentraler Unterschied zwischen KI und personaler Interaktion wird häufig auf das unterschiedliche Prozessieren verwiesen: Menschen handeln, so eine der Hauptthesen der Handlungstheorie, auf der Basis der Bedeutungen, die sie einer Situation geben. KI arbeitet demgegenüber auf der Grundlage stochastischer Zusammenhänge, indem sie Antworten über die Häufigkeit von Kontexten generiert – ohne dabei Sinn oder Bedeutung tatsächlich zu erfassen. Large Language Models (LLM), so Hiltmann (2024), bilden keine symbolischen Repräsentationen der Welt, sondern statistische Repräsentationen der Sprache, mit der über die Welt gesprochen wird: „Das Modell kann nicht zwischen Wahr und Falsch unterscheiden. Es gibt nur Wahrscheinlichkeiten. Von daher können LLM auch keine verlässlichen Aussagen über die Welt treffen, sondern nur Texte produzieren, welche die in den Trainingsdaten enthaltene Sprache und die darin abgebildeten Informationen […] in einer plausiblen Art und Weise neu arrangieren“ (Hiltmann, 2024, S. 229).
So plausibel diese These zunächst erscheinen mag, so ist doch zu fragen, ob sie sich als grundsätzliche Unterscheidung aufrecht halten lässt. Dafür ist es hilfreich, zwischen Selbst- und Fremdzuschreibung zu unterscheiden: In der Selbstzuschreibung deutet eine Person ihr Handeln als Ergebnis ihrer Deutung der Situation, aber auch ihrer Werte, Ziele, Erfahrungen und Empfindungen. In der Fremdzuschreibung, wenn es darum geht, die Bedeutung einer Situation aus einer Außenperspektive zu erfassen (der Coach versucht zu verstehen, welche Bedeutung die Situation für die Klientin hat), ist man grundsätzlich auf sprachliche oder nichtsprachliche Handlungen angewiesen, aus denen man versucht, die Bedeutung der Situation zu erfassen. „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“, so formuliert der Philosoph Ludwig Wittgenstein (1953, § 43, S. 28) in den „Philosophischen Untersuchungen“. Das heißt jedoch: die Bedeutung einer Situation für die Betroffenen lässt sich von außen nicht unmittelbar, sondern immer nur vermittelt über Sprache oder nichtsprachliche Handlungen erfassen. Dieses hermeneutische Verstehen hat aber durchaus Ähnlichkeiten mit dem prozessualen Arbeiten einer KI: Wenn ein Coach z.B. versucht, die in der Sprache des Klienten anklingenden Empfindungen widerzuspiegeln, dann verwendet er Wörter, die zu dem Kontext der Schilderung des Klienten passen – das ist aber ein prozessuales Vorgehen.
Nahezu jeder Coach kennt die Situation, dass ein Experte die Leitung im Coaching übernehmen will und auf seinen Ideen beharrt. In solchen Momenten braucht es klare Steuerung durch den Coach: Er oder sie setzt die Regeln des Prozesses – etwa die Vereinbarung, dass der Experte nur Anregungen geben darf. Dieses Vorgehen lässt sich auf KI übertragen, wobei sich zunächst ein Vorteil für KI ergibt: Ein personaler Experte ist nicht selten beleidigt, wenn der Klient seine Vorschläge ablehnt. Eine KI dagegen ist nicht beleidigt, sie redet auch nicht ungefragt dazwischen. Eine KI ist auch „geduldiger“, wenn sie in einem erneuten Prompting aufgefordert wird, ihre Vorschläge nochmals zu überdenken.
KI ist grundsätzlich reine Expertenberatung. Aber Coaching ist nie nur Expertenberatung. An einem Experteninput schließt sich immer Prozessberatung an: Es geht darum, Klienten zu unterstützen, Expertenvorschläge zu reflektieren, sie in die eigene Biografie, das eigene Selbstverständnis einzufügen und auf dieser Basis zu nutzen, abzuändern oder zu verwerfen. Diese Phase der Prozessberatung ist zugleich mehr als die bloße Nutzung von wirkungsvollen Fragen oder ähnlichen Tools. Es ist ein hochgradig intuitives Vorgehen. Der Coach spürt intuitiv (auf der Grundlage neurobiologischer Prozesse wie Spiegelneuronen und somatischer Markern), dass die Zustimmung des Klienten nicht stimmig ist. Das Handeln eines Coachs ist in dieser Situation nicht technisch, sondern emotional gesteuert. Für Teilnehmende in Coaching-Ausbildungen besteht hier eine zentrale Herausforderung: das eigene intuitive Gespür wahrzunehmen, ihm zu vertrauen und es zugleich mit methodischer Klarheit zu verbinden.
Hier dürfte ein zentraler Unterschied zwischen KI und persönlichem Coaching liegen: KI arbeitet sequenziell, indem das jeweils aktuelle Prompting in Antworten übersetzt wird. Damit entspricht das Vorgehen der KI einem rationalen Prozessieren. Auf dem Hintergrund der emotionalen Wende in der Verhaltenstheorie wissen wir aber, dass das rationale Prozessieren ein „langsames Denken“ im Vergleich zu dem emotional gesteuerten „schnellen Denken“ ist (Kahneman, 2012). Intuitives Handeln im Coaching-Prozess ist ein nahezu simultaner Prozess: Der Coach nimmt bestimmte Äußerungen wahr und übersetzt sie nahezu gleichzeitig in Handlungen: eine bestimmte Frage, eine Pause, ein nonverbales Signal. Coaching ist kein technisches Abarbeiten, sondern ein intuitives Gespür. Martin Buber beschreibt in seiner Philosophie des Dialogs die Bedeutung der persönlichen Begegnung, Hartmut Rosa spricht von Resonanz als wechselseitige Schwingung zwischen Menschen, „in der das Subjekt von etwas berührt wird und darauf antwortend in Beziehung tritt“ (Rosa, 2016, S. 298). Begegnung und Resonanz sind keine rational gesteuerten, sondern emotional fundierten Prozesse – sie sind nur zwischen Personen möglich, nicht mit einer KI.
KI wird umso mehr Coaching ersetzen, je stärker Coaching als Expertenberatung verstanden und je mehr es auf die Anwendung von Tools reduziert wird. Aber Coaching ist immer mehr: Es ist kein wertneutrales Handeln, sondern an Werte gebunden: Letztlich geht es darum, die Autonomie des Klienten oder der Klientin auch in schwierigen Situationen zu stärken. KI bleibt demgegenüber grundsätzlich zweckrational: Aufgrund vorgegebener Informationen wird ein „geeignetes“ Vorgehen entwickelt. Nun ist zweckrationales Vorgehen grundsätzlich nicht problematisch. Auch das Wissen eines personalen Experten zu nutzen, ist zweckrational. Aber es wird problematisch, wenn es nicht an ein humanistisches Menschenbild gebunden ist: Zweckrationalität, das wusste schon Jürgen Habermas (1981), tendiert dazu, Zwecke nicht mehr zu hinterfragen und Rationalität zum Selbstzweck zu erklären. Das geht in Richtung der durchaus ernst zu nehmenden Befürchtung, dass KI-Systeme unter der Hand Selbstoptimierung als obersten Zweck entwickeln könnten. Nicht ohne Grund wird deshalb zunehmend eine normative und moralische Steuerung von KI gefordert, um sicherzustellen, dass technologische Rationalität im Dienst menschlicher Werte bleibt. Vor diesem Hintergrund kommt dem Coach besondere Verantwortung zu. Er oder sie muss den Einsatz von KI im Coaching-Prozess transparent machen, die Autonomie des Klienten sichern und die Outputs kritisch rahmen. Die Rolle des Coachs verschiebt sich damit noch stärker in Richtung eines Gatekeepers, der nicht nur den Prozess strukturiert, sondern auch dafür sorgt, dass die Beiträge der digitalen Expertin in den Wertehorizont des Coachings integriert werden.