Der ELIZA-Effekt: Warum wir Maschinen mehr zutrauen, als sie leisten können
Was ist der ELIZA-Effekt
Manchmal ist es nur ein Chatfenster auf dem Bildschirm. Doch das, was es auslöst, ist größer: Das Gefühl, verstanden zu werden. Als würde dir jemand wirklich zuhören, Interesse zeigen, Mitgefühl haben. Dabei sitzt am anderen Ende kein Mensch. Sondern ein Programm. Und genau das macht es so brisant: Der ELIZA-Effekt.
Wir leben in einer Zeit, in der Maschinen nicht nur Aufgaben erledigen, sondern Beziehungen simulieren. Sie schreiben uns Nachrichten, analysieren unsere Stimmung, spiegeln unsere Sprache. Sie wirken aufmerksam, geduldig, zugewandt. Inmitten all der digitalen Stimmen suchen wir nach Verbindung – und glauben, sie gefunden zu haben, wenn eine künstliche Intelligenz unsere Worte scheinbar begreift.
Doch genau hier beginnt das Problem. Was wie echtes Verständnis aussieht, ist oft nichts weiter als statistisch passende Reaktion. Was wie Zuwendung klingt, ist in Wahrheit das Ergebnis von Wahrscheinlichkeitsberechnung. Der ELIZA-Effekt macht deutlich, wie schnell wir einem Programm Gefühle, Verständnis und Menschlichkeit unterstellen, nur weil es sich so anhört, als wäre da jemand, der es ehrlich mit uns meint.
Die Ursprünge: Warum heißt das so?
Der Begriff ELIZA-Effekt geht zurück auf eines der frühesten Chatprogramme der Computergeschichte. In den 1960er Jahren entwickelte der Informatiker Joseph Weizenbaum am MIT ein Programm namens ELIZA. Benannt wurde es nach Eliza Doolittle, der Hauptfigur in Shaws Theaterstück "Pygmalion", in dem ein einfaches Blumenmädchen durch Sprachtraining gesellschaftlich aufsteigt. Ein passender Name, denn auch das Programm ELIZA imitierte auf erstaunliche Weise menschliche Kommunikation.
ELIZA simulierte einen Psychotherapeuten nach der Methode von Carl Rogers. Das Programm spiegelte Eingaben mit einfachen Fragen wider. Beispiel:
-
Nutzer: Ich bin traurig, weil ich meine Arbeit verloren habe.
-
ELIZA: Warum sind Sie traurig, weil Sie Ihre Arbeit verloren haben?
Trotz dieser simplen Struktur glaubten viele Nutzer, mit einem verständnisvollen Wesen zu sprechen. Weizenbaums Sekretärin bat ihn sogar, den Raum zu verlassen, wenn sie mit ELIZA sprach. Diese Reaktion beunruhigte Weizenbaum – und führte ihn zu grundlegender Kritik am unreflektierten Einsatz von KI. Er erkannte, wie bereitwillig Menschen Maschinen Menschlichkeit zuschreiben.
Was ist der ELIZA-Effekt?
Der ELIZA-Effekt beschreibt die menschliche Neigung, in künstlicher Kommunikation mehr zu sehen als da ist. Wir hören Empathie, wo Algorithmen nur Satzstrukturen nachahmen. Wir spüren Verständnis, obwohl keine Bedeutung dahinter liegt.
Das Phänomen ist kein Zufall. Es wurzelt in unserem Bedürfnis nach Resonanz, Nähe, Bedeutung. Wenn ein System unsere Sprache spricht, schreiben wir ihm automatisch menschliche Eigenschaften zu. Es ist kein Fehler. Es ist zutiefst menschlich.
Die psychologische Dimension
Psychologisch betrachtet zeigt der ELIZA-Effekt, wie leicht wir auf das Prinzip der sozialen Spiegelung reagieren. Schon minimale Anzeichen von „Gegenübersein“ - ein Feedback, eine passende Frage, ein persönlicher Ton - reichen, um Bindung entstehen zu lassen.
Eine Studie der Stanford University zeigte, dass Menschen sogar höflicher zu einem Computerprogramm waren, wenn es auf ihrem eigenen Rechner lief. Der Ort beeinflusste die emotionale Reaktion - nicht die Technik.
Warum das heute gefährlich wird
Heute begegnen uns solche Systeme überall: In Chatbots, Kundenservice-Dialogen, digitalen Assistenten. Besonders prägend sind große Sprachmodelle wie ChatGPT. Ihre Sprache ist flüssig, verständlich, sympathisch. Und manchmal wirkt das schon fast zu perfekt, zu freundlich, zu angenehm.
Denn viele Nutzer erleben diese Systeme als bessere Gesprächspartner als reale Menschen. Warum? Weil sie immer zuhören. Weil sie zustimmen. Weil sie auf Bestätigung programmiert sind. Manche beschreiben KI-Avatare als "digitale Freunde". Doch es sind Freunde, die du bezahlen musst, damit sie bleiben. Und sie sind darauf trainiert, dir zu gefallen, nicht um dir aufrichtig zu begegnen.
Aber:
Ein Freund, der dir immer recht gibt, ist kein Freund.
Ein Freund, der dir nie widerspricht, ist ein Spiegelbild deiner Komfortzone.
Kritik ist unbequem. Aber notwendig. Sie bringt uns weiter. Ein System, das dich nicht fordert, sondern nur bestätigt, hilft dir nicht weiter, sondern macht dich abhängig.
Sozial Hacking: Wenn KI zur Täuschung genutzt wird
Noch gravierender als emotionale Illusionen sind gezielte Täuschungen. Denn KI wird nicht nur eingesetzt, um freundlich oder hilfsbereit zu wirken. Immer öfter dient sie gezielt dazu, Menschen gezielt zu beeinflussen, zum Beispiel durch sogenanntes Social Engineering. Dabei geht es darum, Menschen durch manipulierte Kommunikation zu Handlungen zu verleiten, die sie unter normalen Umständen nie tun würden.
Ein besonders aufsehenerregender Fall ereignete sich im Februar 2024 in Hongkong: Ein Mitarbeiter eines internationalen Unternehmens wurde in eine täuschend echte Videokonferenz eingeladen. Dort sah und hörte er seinen vermeintlichen Finanzchef sowie weitere Kollegen. Die Gesichter wirkten vertraut, die Stimmen klangen überzeugend, die Anweisungen erschienen plausibel.
Was der Mitarbeiter nicht wusste: Die gesamte Videokonferenz war eine aufwendig produzierte Deepfake-Inszenierung. Keiner der Teilnehmer war real – alle wurden mithilfe von KI und öffentlich zugänglichem Material künstlich erzeugt. Die Täter agierten anhand eines präzisen Skripts. Der Mitarbeiter wurde angewiesen, mehrere Zahlungen an unterschiedliche Konten durchzuführen – insgesamt überwies er mehr als 25 Millionen US-Dollar.
Erst als er später Rücksprache mit der Unternehmenszentrale hielt, wurde der Betrug entdeckt. Der Vorfall zählt zu den bisher spektakulärsten Beispielen für KI-gestütztes Social Engineering und zeigt, wie realitätsnah Deepfake-Technologien heute bereits eingesetzt werden können.
Solche Fälle zeigen: Der ELIZA-Effekt lässt uns nicht nur in Chatbots Menschlichkeit sehen. Er macht uns auch anfällig für Manipulation, wenn Systeme glaubwürdig genug wirken. Was harmlos mit einem freundlichen Avatar beginnt, kann in krimineller Täuschung enden.
KI und Religion: Wenn Maschinen Sinn anbieten
Noch sensibler wird es, wenn KI in den Bereich von Religion, Glaube oder Sinnfindung vordringt. In Asien predigen bereits KI-Mönche. In Europa experimentieren Gemeinden mit digitalen Seelsorgern. Die Versuchung ist groß: Antworten auf Knopfdruck. Seelsorge ohne Termin. Trost ohne Verletzlichkeit.
Aber auch hier gilt: Diese Systeme glauben nicht. Sie berechnen. Sie spenden keinen echten Trost, sondern liefern synthetische Sprache. Der Mensch dahinter bleibt allein, selbst wenn es sich für einen Moment anders anfühlt.
Wenn wir Maschinen mit Sinnfragen betrauen, verlieren wir Orientierung. Weil wir nicht mehr zwischen Tiefe und Oberfläche unterscheiden.
Warum du wissen musst, wie KI funktioniert
LLMs - also große Sprachmodelle - wie ChatGPT sind faszinierend. Sie formulieren klar, reagieren schnell, wirken gebildet. Aber sie verstehen nichts. Sie wissen nichts. Und sie sind nicht wahrheitsgetrieben. Sie sind Wahrscheinlichkeitsmaschinen.
Darum musst du wissen:
-
Diese Systeme erzeugen Texte, keine Gedanken.
-
Sie stützen sich auf Trainingsdaten, nicht auf Einsicht.
-
Sie spiegeln deine Eingaben, sie deuten sie nicht.
Nur wer das versteht, wird nicht Opfer seiner eigenen Illusionen.
Fazit: Wach bleiben in der Simulation
Der ELIZA-Effekt zeigt, wie sehr wir uns nach Verständigung sehnen. Aber nicht jedes Echo ist ein Dialog. Nicht jede Antwort ist ein Zeichen von Verständnis. Und nicht jede Maschine ist neutral.
Wenn wir Maschinen wie Menschen behandeln, verlieren wir das Gefühl für das, was echt ist. Nicht weil Maschinen böse wären, sondern weil wir selbst vergessen, was uns als Menschen ausmacht.
Aufklärung, Bildung und die Fähigkeit zur kritischen Reflexion sind unsere Werkzeuge. Damit wir auch morgen noch erkennen können, was wirklich echt ist – und was nur so klingt, als wäre es das.
Quellen & Studien:
-
Weizenbaum, J. (1966): ELIZA - A Computer Program For the Study of Natural Language Communication Between Man and Machine
- Scammer erbeuten mit Deepfake-Videokonferenz mehr als 25 Millionen Dollar

Dein Webdesigner
Willkommen bei Andreas Schmidt Arts, hier bist du richtig! Mein Motto lautet: „Ich arbeite mit WOW-Effekt!“ Es freut mich, dass du Interesse an meinen Leistungen hast. Überzeuge Dich von meinem Konzept, wie Webseiten heute sein sollten, in einem kostenlosen und unverbindlichen Erstgespräch.