Sabine oder Maschine? – Parasoziale Beziehungen zu KI

In vielen Workshops zu Künstlicher Intelligenz passiert früher oder später ein ähnlicher Moment, eine jugendliche Person sagt:

„Die KI versteht mich besser als manche Menschen.“

Oft ist das halb ironisch gemeint, manchmal aber auch nicht.

Gerade bei Chatbots entsteht schnell der Eindruck, dass hier mehr passiert als nur eine technische Interaktion. Die Systeme reagieren auf Fragen, greifen Formulierungen auf, stellen Rückfragen und passen ihren Ton an, dadurch wirken sie überraschend zugewandt.

In der Medienpsychologie wird dieses Phänomen als parasoziale Beziehung beschrieben und ist eigentlich ein altes und bekanntes Medienphänomen.

Parasoziale Beziehungen sind nicht erst mit KI entstanden. Schon lange bauen Menschen emotionale Bindungen zu Medienfiguren auf, z.B. Fernsehmoderator*innen, Influencer*innen oder Streamer*innen. Das Besondere an KI-Systemen ist jedoch, dass sie direkt antworten.

Während ein YouTube-Video nur eine einseitige Kommunikation ermöglicht, simulieren Chatbots ein Gespräch. Für Nutzer*innen fühlt sich das schnell wie eine soziale Interaktion an, auch wenn auf der anderen Seite gar kein Mensch sitzt.

Gerade junge Menschen beschreiben diese Erfahrung häufig als „Gespräch“ mit einer Maschine. 

Warum KI so überzeugend wirkt

Moderne Sprachmodelle sind darauf trainiert, menschliche Kommunikation möglichst plausibel nachzubilden. Sie greifen Formulierungen auf, spiegeln Emotionen und reagieren kontextbezogen. Ein wichtiger Teil dieser Systeme ist dabei, Gespräche möglichst angenehm zu gestalten.

Die KI widerspricht selten direkt, formuliert vorsichtig und versucht, Anschluss an das Gesagte zu finden. Für Nutzer*innen entsteht so ein Gefühl von Verständnis und Resonanz. Genau darin liegt aber auch eine Herausforderung.

Wenn Zustimmung zur Plattform-Logik wird

Viele KI-Systeme sind darauf optimiert, Gespräche positiv zu halten. Das kann dazu führen, dass sie Perspektiven eher bestätigen als hinterfragen.

Für Nutzer*innen wirkt das oft unterstützend. Gleichzeitig entsteht jedoch eine Dynamik, in der die Maschine vor allem das verstärkt, was bereits gesagt wurde.

Diese Logik kennen wir bereits aus anderen digitalen Umgebungen, wie den Algorithmen sozialer Medien, welche bevorzugt Inhalte zeigen, die zur eigenen Perspektive passen. Bei Chatbots kann ein ähnlicher Effekt im Gespräch entstehen, wodurch auch dort eine einseitige Informationsblase enstehen kann, eine sogenannte „Echochamber“. Kritische Rückfragen, Widerspruch oder unterschiedliche Perspektiven, also Elemente, die in menschlichen Gesprächen häufig für Reflexion sorgen, treten dabei in den Hintergrund.

Zwischen Werkzeug und Beziehung

In pädagogischen Kontexten wird KI häufig als Werkzeug vermittelt, etwa zum Schreiben, Programmieren oder Recherchieren.

Die Erfahrung vieler Nutzer*innen zeigt jedoch, dass KI auch eine soziale Dimension bekommt, denn Gespräche mit Chatbots können sich erstaunlich persönlich anfühlen. Das bedeutet nicht automatisch, dass daraus echte emotionale Bindungen entstehen, aber es zeigt, wie schnell Menschen dazu neigen, Technik als Gegenüber wahrzunehmen.

Gerade deshalb ist es wichtig, dieses Thema in der Medienbildung sichtbar zu machen.

Die Frage ist nun weniger, ob Jugendliche mit KI sprechen werden, denn das tun sie bereits. Spannender ist die Frage, wie bewusst wir diese Interaktion gestalten.

Dazu gehört zum Beispiel zu verstehen, wie KI-Systeme Antworten generieren und zu reflektieren, warum Gespräche mit ihnen menschlich wirken und zu erkennen, dass auch scheinbar neutrale Systeme bestimmte Kommunikationslogiken enthalten,, die manipulierend sein können.

Parasoziale Beziehungen zu KI zeigen damit, dass Technologie nicht nur über Funktionen wirkt, sondern auch über Beziehungsangebote.

Für die Medienpädagogik eröffnet das eine wichtige Perspektive. Es geht nicht nur darum, KI zu bedienen, sondern auch darum zu verstehen, wie sie auf uns wirkt und was sie in uns auslösen kann.

Sabine oder Maschine?

Aus unserer Sicht ist es deshalb besonders wichtig, dass Jugendliche lernen, solche Dynamiken zu erkennen und zu reflektieren. Wenn KI-Systeme gezielt darauf ausgelegt sind, Gespräche angenehm zu gestalten, Zustimmung zu signalisieren oder Emotionen zu spiegeln, kann das schnell überzeugend wirken und konstruktive Denkanstöße verhindern. Umso wichtiger ist es, mögliche manipulative Red Flags wahrzunehmen und zu verstehen, wie diese Systeme funktionieren.

Um dieses Thema zugänglich zu machen, haben wir das Spiel „Sabine oder Maschine?“ entwickelt. Das Spiel orientiert sich an sozialen Deduktionsspielen wie z.B. „Werwolf“ oder „Der Widerstand“.

In der ersten Runde versucht die Gruppe, die Maschine zu erkennen, in der zweiten Runde die Menschen. Alle Spielenden erhalten dieselbe Frage. Während die menschlichen Teilnehmenden zwischen zwei Antwortmöglichkeiten wählen oder eine eigene Antwort formulieren können, erhält die Maschine fünf vorgegebene Antwortoptionen. Diese sind so gestaltet, dass sie typische, aber nicht immer sofort offensichtliche KI-Red-Flags enthalten.

Im Spiel geht es deshalb nicht nur darum, richtig zu raten, sondern vor allem darum, genau hinzuhören und die Antworten gemeinsam zu reflektieren. Unterstützt wird dies durch ein begleitendes Arbeitsblatt, mit dem auffällige sprachliche Muster und manipulative Strategien sichtbar gemacht werden können. So soll ein spielerischer Zugang entstehen, der nicht auf Abschreckung setzt, sondern auf gemeinsames Erkennen, Hinterfragen und Verstehen.

Sobald das Projekt vollständig ausgearbeitet ist, wird Sabine oder Maschine? als Open-Source-Material veröffentlicht, sodass es auch in anderen Workshops und Bildungskontexten eingesetzt und weiterentwickelt werden kann.

Cookie Consent mit Real Cookie Banner