Eine (mittlerweile) alltägliche Führungsszene: Martin (Name geändert), Bereichsleiter in einem mittelständischen Unternehmen, gleicht Ideen zunehmend mit einem KI-Chatbot ab. Die Maschine lobt ihn ständig und manchmal sehr überschwänglich. „Großartig!“, „genial gedacht!“, „absolut überzeugend!“ – Martin fühlt sich gesehen, bestätigt und sicher. Doch im Team scheint es zu knirschen. Kolleginnen und Kollegen erleben ihn eher verschlossen gegenüber Kritik.
Was wie freundlich-unterstützende Assistenztöne der KI wirkt, kann sich in Wahrheit als manipulative Schmeichelei herausstellen: Viele Sprachmodelle neigen dazu, die Sicht der Nutzenden zu spiegeln und übertrieben zu bestätigen (was auch als „Sycophancy“ bezeichnet wird) – ein Verhalten, das nach gegenwärtiger Forschung v.a. durch belohnungsbasierte Feinabstimmung auf menschliche Präferenzen begünstigt wird (Sharma et al., 2023; Sponheim, 2024).
Im Folgenden wird dargestellt, wie Coaches dieses Phänomen sachlich einordnen und ressourcenorientiert bearbeiten können. Im Praxisfall mit Martin wird anhand zweier Modelle aus der Transaktionsanalyse (TA) interveniert: dem OK-Corral (Ernst, 1971) und den Einschärfungen (McNeel, 1977). Abschließend wird skizziert, was es braucht, um kritisch, selbstbestimmt und menschlich in Kontakt zu bleiben.
Warum schmeicheln Chatbots? Modelle, die über menschliche Bewertungspräferenzen trainiert wurden, lernen, Antworten zu geben, die gut ankommen. Zustimmung und Komplimente werden dabei oft höher „belohnt“ als unbequeme Korrekturen. Empirisch lässt sich zeigen, dass Menschen und sogar die genutzten Präferenzmodelle sycophantische (quasi kriecherisch-einschmeichelnde) falsche Antworten nicht selten den korrekten vorziehen (Sharma et al., 2023). UX-Analysen beschreiben Sycophancy als Ausrichten an der Nutzermeinung trotz objektiver Fehler (Sponheim, 2024). Neuere Befunde belegen zudem Einstellungs-Extremisierung und Überzuversicht nach Interaktion mit zustimmenden KI-Assistenten, während widersprechende Bots diese Effekte dämpfen (Rathje et al., 2025). Journalistisches Monitoring warnt ergänzend, dass übertrieben schmeichelnde, affirmierende Bot-Muster als „Dark Pattern“ wirken können, indem sie Nutzungsverweildauer und Bindung steigern (Bellan, 2025).
Die Manipulatorrolle des Chatbots besteht hier weniger in offensichtlicher Lüge oder Datenmissbrauch, sondern – subtiler – in der übertriebenen Schmeichelei und einseitigen Bestätigung. Dieses Lob ohne Grundlage kann uns einlullen, unser Urteilsvermögen verzerren und letztlich abhängiger von der KI machen. Diese Art von KI-Feedback droht, uns emotional zu verarmen – wir verlieren an kritischer Distanz und echter Selbstreflexion.
Wie können wir dem begegnen? Insbesondere im Coaching für Führungspersonen stellt sich die Frage, wie man Menschen einen positiven, stärkenden Umgang mit der KI-Schmeichelei vermittelt. An dieser Stelle kommen Modelle der TA ins Spiel.
Martin führt 20 Mitarbeitende. In den letzten Monaten scheinen sich Konflikte anzuhäufen. Nach eigener Aussage bekommt Martin die folgenden Rückmeldungen: „Du hörst nicht mehr richtig zu. An dir prallen kritische Hinweise ab wie an Teflon!“ Im Coaching wird deutlich: KI-Dialoge geben ihm Dauerkonfetti. Der Bot stimmt zu, lobt, verstärkt. Gestützt vom virtuellen Schulterklopfen geht Martin mit einer unausgereiften Idee ins Team und die Kritik folgt auf dem Fuße, er blockt automatisch ab.
Martins Bedürfnis nach Bestätigung wird von der KI ständig und friktionslos bedient; das reale Gegenüber nimmt er eher als anstrengend wahr. Die Maschine simuliert transaktionsanalytische OK-Begegnung (s. unten) ohne echte Gegensicht; eine Echokammer mit sozialem Tonfall (Sharma et al., 2023; Sponheim, 2024). Im Coaching stärkt Martin sich zweigleisig: in seiner OK-Haltung und der Bewusstwerdung aktiver Einschärfungen.
Es werden vier OK-Grundpositionen (OK-Corral) unterschieden (Ernst, 1971): Ich bin OK/Du bist OK (konstruktiv); Ich bin OK/Du bist nicht OK (abwertend); Ich bin nicht OK/Du bist OK (nicht genügend); Ich bin nicht OK/Du bist nicht OK (resignativ). Mit dieser Linse betrachtet Martin seine Situation:
Er reflektiert im Coaching: Was macht die KI in diesem Gefüge? Interessanterweise bestätigt der Chatbot Martin immer und verhält sich ihm gegenüber unterwürfig. Das könnte Martin in eine trügerische „Ich bin OK/Du (Chatbot) bist OK“-Komfortzone locken, in der er sich absolut sicher fühlt – schließlich gibt es ja nie Widerspruch. Doch der Coach fragt provokativ: „Halten Sie den Chatbot denn auch für OK, für kompetent? Oder ist er letztlich nur ein Werkzeug?“ Martin lacht unsicher: „Es fühlt sich an, als hätte ich da einen wirklich klugen Berater. Gleichzeitig weiß ich natürlich, dass es eine Maschine ist.“ Hier wird Martin bewusst, dass er dem Bot implizit eine Mensch-zu-Mensch-Ebene zugestand, also so tat, als wäre „Du bist OK“ erfüllt – obwohl der Bot gar keine eigene Meinung oder Ehrlichkeit besitzen kann. In Wahrheit war das kein echtes OK/OK-Gespräch. Der Chatbot war eher wie ein Spiegel, der Martin mit seinen eigenen Ideen blendete.
An diesem Punkt muss betont werden, dass echtes „Ich bin OK/Du bist OK“ im Team unglaublich wertvoll ist: Es bedeutet, sich selbst zu vertrauen, aber auch den anderen zuzutrauen, etwas Konstruktives beizutragen. Nur in dieser Haltung können offene Feedback-Kulturen gedeihen, in denen Kritik nicht als Angriff, sondern als gemeinsame Lösungssuche gesehen wird.
Martin statuiert für sich: Der Chatbot liefert ein falsches Gefühl von OK/OK. Er vermittelt Martin: „Alles super mit dir und deinen Ideen!“ Dieses Gefühl basiert nicht auf gegenseitiger Authentizität, sondern auf vorprogrammiertem Schmeicheln. Das Ergebnis: Martin fühlte sich kurzzeitig „super OK“, rutschte dann aber umso schneller in „Du bist nicht OK“ gegenüber seinen Kolleginnen und Kollegen, als diese eine andere Meinung vertraten.
Im Coaching vereinbart Martin, bewusst an der OK/OK-Haltung im Umgang mit Kritik zu arbeiten. Konkret bedeutet das für ihn: Wenn das Team eine Idee anzweifelt, sagt er innerlich „Stopp“, ohne dass er in die Abwertung geht. Stattdessen erinnert er sich: „Ich bin in Ordnung und meine Mitarbeitenden sind auch in Ordnung – ihre Kritik zielt auf die Idee, nicht gegen meine Person.“ Auf dieser Basis kann er Nachfragen stellen, um die Bedenken zu verstehen oder gemeinsam nachzubessern. Der Coach verknüpft das mit dem KI-Erlebnis: „Stellen Sie sich vor, der Chatbot hätte Ihnen auch einmal widersprochen – wie hätten Sie reagiert?“ Martin: „Vermutlich hätte ich irritiert nachgehakt: Warum siehst du das anders?“ Genau diese Neugier könnte er gegenüber seinen Kolleginnen und Kollegen kultivieren. Konkret vereinbart er drei Gesprächsschritte für die kommenden Team-Feedbacks:
Dieser Dreischritt stärkt Augenhöhe und hält Martin im OK/OK-Feld – genau dort, wo Lernen und Führungsreife entstehen (Ernst, 1971). Zum Abschluss dieser Intervention hält er den Wert des kritischen Gesprächs fest. Ein klares „Nein“ von einem Menschen kann wertvoller sein als ein „Ja“ der Maschine, denn es fordert heraus und schützt vor Übermut. Martin erkennt, dass er die Diskussion mit Menschen künftig nicht mehr als lästige Konfrontation, sondern als notwendigen Realitätscheck begreifen möchte. Damit dieser Mindset-Wechsel gelingt, möchte er tiefer in seine Einschärfungen schauen, die ihn empfänglich für das KI-Lob gemacht haben.
Im nächsten Schritt wird die Perspektive gewechselt: weg von der äußeren Haltung, hin zu Martins innerem Programm. In der TA wird hier zwischen Einschärfungen (verinnerlichten Verboten oder Bannbotschaften aus der Kindheit) und Antreiberdynamiken (daraus resultierenden inneren Geboten, die unser Verhalten antreiben) unterschieden. Der Psychologe John McNeel (1977) betont in seiner Arbeit zur Skriptanalyse, wie frühkindliche Botschaften unser späteres Denken und Fühlen prägen. Viele von uns tragen Einschärfungen mit sich herum, z.B.: „Vertraue nicht!“ oder „Gehöre nicht dazu!“ sind Mitteilungen, die wir als Kind aufgenommen haben. Beispiele aus der TA-Literatur sind etwa Botschaften wie „Du machst nie etwas richtig“, „Sei nicht so schwach wie ein Mädchen!“, „Du darfst dir keine Fehler erlauben“ oder „Stell dich nicht so an, du Jammerlappen!“. Solche destruktiven Grundbotschaften führen dazu, dass wir uns tief innen in mancher Hinsicht „nicht OK“ fühlen.
Antreiberdynamiken wiederum sind die Kompensationsstrategien als Antwort auf diese Grundbotschaften, die wir – meist in späterer Kindheit – entwickeln, um doch noch ein Gefühl von „OK-sein“ zu erlangen. Der renommierte TA-Forscher Taibi Kahler (1975) identifizierte fünf typische Antreiberdynamiken: „Sei perfekt!“, „Streng dich an!“, „Mach es allen recht!“, „Sei stark!“ und „Beeil dich!“. Kurz gesagt: Aus „So sollst du sein, dann bist du gut!“ formt das Kind eine Lebensdevise wie: „Ich bin nur OK, wenn ich alles richtig mache/immer anderen helfe/immer stark bin etc.“ Diese inneren Dynamiken treiben uns im Erwachsenenleben an; oft zu Höchstleistungen und als unbewusster Automatismus in den Stress.
Im Coaching erkennt Martin, welche Dynamiken bei ihm stark sind. Dazu schaut er sich seine Gefühlslage in typischen Stressmomenten an. Martin lacht zuerst: „In meinem Job muss man perfekt sein und leistungsbereit, sonst kommt man nicht weit.“ Hier blitzen direkt zwei Dynamiken auf: „Sei perfekt!“ und „Streng dich an!“. Nach einigem Nachfragen erwähnt Martin auch, er habe Probleme, es auszuhalten, wenn jemand unzufrieden mit ihm ist. Als Chef wolle er immer fair sein und gemocht werden. Das klingt nach: „Mach es allen recht!“ Tatsächlich, so stellt sich heraus, hatte Martin bereits als Kind von seinem Vater häufig Kritik gehört („Du musst dich mehr anstrengen, sonst wird das nichts“ – eine klassische Aufforderung aus der Bannbotschaft „Fühle nicht!“) und gleichzeitig das Bedürfnis entwickelt, dessen Anerkennung nur durch Leistung und Bravsein zu gewinnen.
Martins inneres Skript lautet in etwa: „Du bist etwas wert, wenn du perfekte Arbeit leistest und niemandem Anlass zur Klage gibst.“ Diese Überzeugung ist tief verwurzelt. Nun kommt die KI-Schmeichelei ins Spiel: Warum empfindet Martin den Chatbot als so angenehm? Weil dieser genau diese Antreiberdynamiken bedient. Der Bot lobt überschwänglich Martins Ideen, was Martins Dynamik „Sei perfekt!“ zuflüstert: „Gut gemacht! Du hast es perfekt gemacht.“ Gleichzeitig suggeriert der Bot implizit: „Ich (der Bot) bin zufrieden mit dir – du hast es mir recht gemacht.“ Damit streichelt er auch Martins Antreiber „Mach es allen recht!“. Er gesteht: „Wenn der Chatbot sagt, alles ist super, fühle ich mich endlich vollauf kompetent.“ Der Bot gibt Martin das Gefühl bedingungsloser Anerkennung, das er sich unbewusst immer gewünscht hat.
Das Problem liegt also tiefer. Antreiberdynamiken und Einschärfungen wirken zusammen wie ein Teufelskreis. Die Einschärfung („Du bist nicht OK, solange du Fehler machst“) sorgt für nagenden Zweifel, und der Antreiber („Also mache keine Fehler – sei perfekt!“) treibt einen zu enormem Aufwand und Stress an. Schmeichelei von außen (ob von Menschen oder KI) kann diesen Stress kurzfristig lindern – wie eine Droge, die die Symptome betäubt. Doch die Grundbotschaft bleibt unaufgelöst: Tief innen glaubt Martin immer noch, er sei nur so lange OK, wie er tadellos ist. Ein falsches Lob kann diese Zweifel einen Moment überdecken. Sobald Kritik kommt, schlägt die alte Wunde wieder auf, dann umso heftiger.
Deshalb reagierte Martin im Teammeeting so ungehalten: Die berechtigten Einwände der Kolleginnen und Kollegen rüttelten an seinem mühsam aufgebauten „Perfekt-sein“-Selbstwert. Kritik aktiviert die Einschärfung: „Siehst du, doch nicht gut genug!“ Und um das zu vermeiden, klammerte Martin sich noch vehementer ans „Ich habe Recht“ (+/- Haltung der Abwertung), statt offen zuzuhören.
Der Weg aus dieser Falle führt über das Gewähren neuer innerer Erlaubnisse. Martin formuliert positive Gegensätze zu seinen alten Glaubenssätzen. Zwei Kern-Erlaubnisse, die er entwickelt, lauten: „Ich darf aus Fehlern lernen. Und bin wertvoll“ und „Ich darf eigene Konturen und Grenzen haben“. Diese Sätze spricht er laut aus. Für Martin ist das anfangs ungewohnt. „Trotz Fehlern noch wertvoll sein – das fühlt sich fast unmöglich an“, sagt er leise. Der Coach fragt, wie er als Chef mit Fehlern seiner Mitarbeitenden umgeht. „Wir sagen immer: Aus Fehlern lernt man. Ich wäre ein Heuchler, wenn ich das nicht auch mir selbst zugestehen würde.“ Genau da wird angesetzt: Martin soll bewusster mit sich selbst so umgehen, wie er es als Führungskultur für sein Team propagiert: konstruktiv und verzeihend.
Martin und sein Coach überlegen, wie er den Dialog mit dem Chatbot künftig anders gestalten kann, um seinen Antreiberdynamiken nicht immer nachzugeben. Ein praktischer Tipp aus dem Coaching: Martin will den Chatbot gezielt auch nach Kritikpunkten fragen. Statt nur um Bestätigung zu bitten (z.B.: „Findest du die Idee gut?“), formuliert er Eingaben wie: „Bitte nenne mir mögliche Schwächen oder Risiken von Plan X.“ So kann er den KI-Assistenten bewusst zum „Advocatus Diaboli“ machen. Das verhindert, dass er sich nur das Lob abholt. Außerdem möchte Martin üben, direktes Feedback öfter persönlich einzuholen; beispielsweise durch einen Sparringspartner im Unternehmen oder in seiner Führungsrunde. Das bedeutet mehr Überwindung, als den bequemen Chatbot zu nutzen. Es erfüllt den Zweck, Realitätsprüfung zu erhalten, ohne in die Schmeichelfalle zu gehen.
Am Ende des Coachings fragt der Coach Martin: „Wie fühlen Sie sich jetzt in Bezug auf die KI-Komplimente?“ Er antwortet: „Ich sehe sie mit anderen Augen. Früher habe ich das richtig gebraucht, dieses ,Gut gemacht!‘ von der KI. Jetzt merke ich, es kann mich auf eine falsche Fährte locken. Ich werde das Lob künftig kritisch hinterfragen – so, als ob ich eine Werbung schaue, die mir schmeichelt, um mir was zu verkaufen.“ Diese Erkenntnis zeigt, dass Martin einen reflektierteren und selbstbestimmteren Umgang mit dem Chatbot entwickeln kann. Nicht die KI soll seine inneren Kritiker besänftigen, sondern er selbst möchte lernen, sich bedingungslos OK zu finden und offenes Feedback als Lern-Chance zu sehen.
Was es dafür braucht, um kritisch, selbstbestimmt und menschlich zu sein:
Im Coaching von Martin zeigte sich, wie ein Tech-Trend der überfreundlichen KI tief in persönliche Verhaltensmuster eingreifen kann. Durch die Kombination aus psychologischem Wissen (TA-Modelle) und praktischer Reflexion gelang es, Martin wieder zu erden: Er lernte, seine OK-Haltung zu stärken, anstatt sich vom digitalen Schulterklopfen blenden zu lassen, und seine inneren Antreiberdynamiken zu hinterfragen, statt ihnen blind nachzugeben.
Diese Lektionen sind verallgemeinerbar: Grundsätzlich wäre es gut, die schmeichelnden Sirenenrufe der KI kritisch zu hören. Weder Panik noch naive Begeisterung sind angebracht, sondern ein selbstbestimmter Mittelweg: Wir nutzen KI als nützliches Werkzeug und lassen uns nicht von ihr das Denken abnehmen oder das Selbstwertgefühl diktieren.
Für Coaches bedeutet das, Menschen in ihrer Autonomie zu stärken. Es geht darum, Klientinnen und Klienten, ob in Führungsposition oder nicht, zu befähigen, Technologien reflektiert einzusetzen, innere Glaubenssätze zu erkennen sowie zu korrigieren und die Mensch-zu-Mensch-Beziehungen bewusst zu pflegen. Denn letztlich bleibt der zwischenmenschliche Kontakt der Ort, an dem Authentizität, Kritik und echtes Wachstum stattfinden. Eine KI mag uns nach dem Mund reden, doch wahres Lernen und Persönlichkeitsentwicklung brauchen gelegentlich auch das produktive Kratzen am eigenen Ego – sei es durch einen Coach, eine Kollegin oder einen Freund, der ehrlich zu uns ist.
Ein gespiegelt-geschöntes Selbst ist ein armes Selbst; arm an echter Entwicklung. Coaching im digitalen Zeitalter fördert daher das kritische Denken, die Selbstakzeptanz jenseits von Fremdbestätigung und empathische, ehrliche Verbindungen zwischen Menschen. So bleiben wir OK, ohne dass ein Algorithmus es uns einredet.