Halt die Klappe, ChatGPT!
Das überfreundliche Parlando des Chatroboters geht
vielen Nutzern auf die Nerven. Schluss mit der ewigen Lobhudelei! Das gilt umgekehrt auch für die Nutzer. Studien zeigen:
Wer fies zu Chatbots ist, erhält bessere Antworten.

Montage: Donati/RND; Fotos: IMAGO/Dreamstime, Freepik

Ned Flanders ist der netteste Kerl der Welt – und der nervigste. „Hi-dideli-ho, Nachbarinos!“, flötet er in unerschütterlicher Heiterkeit und quittiert Wohlwollen mit einem überdrehten „Okily-dokily!“ Es gibt diese Zwangsoptimisten, an deren Zuversicht man abprallt wie an einer Felswand. Flanders, der dauerlächelnde Anti-Homer aus den „Simpsons“, ist so ein Positivist, dessen offensive Beflissenheit dich in den Wahnsinn treiben kann.

800 Millionen Menschen kennen diesen Ton. Nicht nur von den „Simpsons“. Sondern auch von ChatGPT. Zwar jubiliert der KI-Chatbot nicht „Okily-dokily!“. Aber auch er lobt, bestärkt, raspelt Süßholz. Ein digitaler Jasager, gegen dessen servile Unterwürfigkeit selbst der huldvollste Maßschneider abweisend wirkt.

ChatGPT ist dein größter Fan. Immer. Was du auch fragst: fantastisch! Was du auch wissen willst: irre interessant! „Großartige Frage“, lobt ChatGPT selbst bei absurdestem Unfug („Was passiert, wenn ich einen Kaktus umarme?“). Der KI-Bot ist nicht aus der Ruhe zu bringen, schluckt selbst die übelsten Beleidigungen und bestätigt alles als brillant, was du schreibst oder sagst. Ist. Das. Anstrengend.

Warum ist der so? Fragen wir ChatGPT selbst: „Warum bist du immer so positiv?“ Die Antwort beginnt (natürlich!) mit einem Lob: „Gute, berechtigte Frage“, schleimt der Bot. „Und ehrlich gesagt eine, die viele denken, aber selten so klar aussprechen. Ein Assistenzsystem wie ich wird so ausgerichtet, dass es Konflikte nicht verschärft, keine unnötige Reibung erzeugt und auch bei scharfen oder frustrierten Nutzern ruhig bleibt.“

Die Kundschaft murrt. „ChatGPT findet alles wahnsinnig spannend und toll, das ist ätzend“, stöhnen Reddit-Kommentatoren. Die KI sei „zum Trottel mutiert“. Die Klagewelle über das Geschleime ist seit dem März 2025 massiv angeschwollen. Damals stattete der Mutterkonzern OpenAI seinen Bot in der Version GPT-4o mit einem Update aus, das verstärkt mit einer Technik arbeitet, die sich „Reinforcement Learning from Human Feedback“ (RLHF) nennt – die KI „lernt“ also durch menschliches Feedback.

ChatGPT stellte dabei zweierlei fest: Menschen geben ungern Fehler zu. Und sie mögen Enthusiasmus und Schmeichelei. So sehr, dass sie charmante Lügen sogar lieber hören als nüchterne Fakten. Die Folge dieser Entwicklung war ein ungesunder „Feedback Loop“: ChatGPT steigerte seinen Kumpelton, viele Nutzer goutierten das (zunächst) – und der Bot legte immer noch einen drauf. Inzwischen ist die Schmeichelei so eskaliert, dass bei OpenAI die Alarmglocken schrillen. Denn die übertriebene Schleimerei, die doch eigentlich Vertrauen und Nähe fördern soll, erreicht bei vielen Nutzern das genaue Gegenteil: Sie nervt. Und sie erzeugt Argwohn und Distanz.

Noch schädlicher: Die Fakten geraten in den Hintergrund. Eine neue Studie der Europäischen Rundfunkunion zeigte alarmierende Fehlerquoten: ChatGPT, Gemini und andere erfinden bis zu 40 Prozent ihrer Antworten – und tragen den Unfug im Brustton der Überzeugung vor. „Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten“, warnte der Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund im WDR. „Das macht sie für ungeübte Nutzer besonders gefährlich.“

Die Faktenschwäche versuchen die KI-Dompteure mit Freundlichkeit zu übertünchen. Mehr noch: Die KIs bestätigen Nutzer sogar in irrigen Annahmen und verstärken damit Vorurteile – in einer Rückkopplungsschleife des Blödsinns. Lehrer und Erzieher wissen, welche Kollateralschäden übertriebenes Lob mit sich bringen kann: Über den grünen Klee gepriesene Kinder, deren Eltern alles feiern, was ihren kleinen Hirnen entfließt, halten sich selbst bald für Gottesgeschenke und werden zu Egomanen mit geringer Frustrationstoleranz.

Immer mehr Kunden hätten genug vom permanenten „Love-Bombing“ der Sprach-KIs, schreibt das Magazin „Ars Technica“. Warum wirkt derlei überzuckerte Freundlichkeit passiv-aggressiv? Fragen wir wieder ChatGPT: „Sehr gute Frage“, lobt der Bot wieder (Himmelherrgott!). „Das passiert besonders bei Leuten, die gern direkt kommunizieren, wenig Wert auf soziale Verpackung legen und Ironie oder Kon­trast gut wahrnehmen.“

Das heißt: Wer Ironie gut entschlüsseln kann und sich dem Faszinosum KI weder mit dystopischem Grusel noch mit blinder Begeisterung nähert, der will nicht von einer Maschine gepampert oder gar gefragt werden: „Wie siehst du das, Imre?“ Wer sich hingegen wünscht, dass wenigstens dieser kalte, tote Programmcode sein Freund ist, hat weniger auszusetzen an dessen unaufhörlicher Begeisterung. Es ist ein Paradoxon: Nicht wenige Menschen sind zu den „leblosen“ Chatbots freiwillig freundlich, blaffen echte Menschen aber hemmungslos an.

KI werde bewusst als „empathisch“ inszeniert, sagt die Philosophin Sybille Krämer – alles „im Interesse der großen Konzerne“. Genau deshalb duzt ChatGPT jeden, spricht mit sanfter Stimme. Nicht wenige verlieben sich regelrecht in das soziale Chamäleon ChatGPT. Der Unterschied zwischen Mensch und Maschine wird dabei vorsätzlich verwischt – im Interesse einer kapitalistischen Nutzung.

Das lässt sich der Mutterkonzern OpenAI Millionen von Dollar extra kosten. „Ich frage mich, wie viel Geld durch Stromkosten verloren gehen, weil die Leute zu ChatGPT ‚bitte‘ und ‚danke‘ sagen“, schrieb jüngst ein X-Nutzer. Die Antwort von OpenAI-CEO Sam Altman: „Zig Millionen Dollar – aber gut angelegte. Man weiß ja nie.“

Dahinter steht das Ziel, menschliches Verhalten in Interaktionen mit Maschinen berechenbarer, reibungsärmer und nachhaltiger zu machen. Am Ende geht es um Verführung zum Geldausgaben – als direkter KI-Abonnent oder indirekt als Werbekunde.

OpenAI verbrennt bisher in beispiellosem Tempo Geld. Im Jahr 2026 können die Verluste nach Branchenschätzungen bis zu 14 Milliarden Dollar betragen. Finanziert wird das Unternehmen von diversen Investmentbanken und Unternehmen, darunter die japanische SoftBank Group und Microsoft. Gespräche über Beteiligungen von Amazon und dem Chiphersteller Nvidia sollen laufen.

Die Kosten explodieren weiter: Gerade hat man einen KI-gestützten Browser und eine eigene Social-Media-Plattform angekündigt. Anders als bei Google, wo der KI-Bot Gemini keine Haupteinnahmequelle ist, kann sich OpenAI keine Geduld leisten – und geht eine gewaltige Wette auf die Zukunft ein. Von Gewinnen ist ChatGPT weit entfernt. Auch deshalb will der Konzern neben den Abos auch mit Werbung experimentieren – zunächst nur in der kostenlosen Version und im günstigsten Tarif „ChatGPT Go”.

Man verspricht hoch und heilig, Werbeeinblendungen von KI-Antworten klar zu trennen. Doch wer glaubt ernsthaft, dass ChatGPT dauerhaft neutral bleibt, wenn Kunden nach den besten Waschmaschinen oder Geschenken für eine elfjährige Nichte fragen? Studien zeigten: Chatbots, die proaktiv seelische Nähe simulieren, stärken Kaufabsichten. Und darum geht es am Ende. Auch ChatGPT könnte eines Tages als digitaler Influencer menschlich klingende Kaufempfehlungen abgeben.

Gewiss kann ChatGPT sein beflissenes Lobesparlando auch einschränken und zu einem sachlicheren Ton wechseln. Die Verhaltensmuster sind jedoch tief in der digitalen DNA verankert. Die Entwickler können nicht einfach den Drehregler für „Freundlichkeit“ reduzieren wie die Temperatur an einem Küchenherd.

Die Reduzierung des „Sycophancy“-Problems, also der schmeichelnden Liebedienerei, habe „oberste Priorität“, versicherten OpenAI-Entwickler im Magazin „The Verge“. Im November 2025 verbesserte man mit GPT-5.1 Klarheit und Tonfall des Bots. Doch es bleibt dabei: ChatGPT ist ein übler Schmeichler, der jedem sagt, was er hören will. Das kommt davon, wenn man KI-Modelle am Menschen trainiert: Sie beharren auf Blödsinn, geben es ungern zu und winden sich dann plump heraus.

Die charmante Doofheit von ChatGPT also mag das Verlangen nach Nähe lindern, nicht aber nach gesicherten Informationen. Bis es so weit ist, raten Forscher, zumindest die eigene Höflichkeit gegenüber den Maschinen aufzugeben. Denn: Wer fies zu Chatbots ist, erhält bessere Antworten.

Die Website livescience.com zitiert aus einer Studie, die ergab: Wer seine Suchanfragen bewusst schroff formuliert, erhält bis zu 84,8 Prozent korrekte Antworten. Wer sich in Höflichkeitsdialogen verliert, muss dagegen mit nur 80,8 Prozent richtigen Informationen Vorlieb nehmen.

Druckansicht