ChatGPT
"Wir erliegen einer großen Illusion"
Das Unternehmen hinter ChatGPT versprach Gemeinwohl. Jetzt setzt es auf Werbung. Medienwissenschaftler Björn Staschen erklärt im Interview die Gefahren großer KI-Konzerne und zeigt Alternativen auf
Large banners with a ChatGPT advertising campaign in Chicago
Große Banner mit ChatGPT-Werbekampagnen in Chicago. Jetzt hat das Unternehmen angekündigt, bald auch Werbung innerhalb des Chatbots auszuspielen
Jamie Kelter Davis/NYT/Redux/laif
02.02.2026
5Min

chrismon: OpenAI vertritt mit ChatGPT seit Jahren das Narrativ, Künstliche Intelligenz als gesellschaftliches, demokratisches Gut zu entwickeln. Nun hat das Unternehmen verkündet, in den USA eine Testphase mit Werbung zu starten. Ist dieses Narrativ damit endgültig zerfallen?

Björn Staschen: OpenAI entlarvt sich damit endgültig als ein ganz normales, maximal gewinnorientiertes Unternehmen, das sich gesellschaftlichen Nutzen nur so lange auf die Fahne schreibt, wie es dem Wachstum hilft. OpenAI war einmal gemeinnützig organisiert und hatte zugesagt, Forschungsergebnisse öffentlich zugänglich zu machen. Von diesen Zusagen ist das Unternehmen längst zurückgetreten.

Es gibt Berichte über einen möglichen Börsengang. Spielt das aus Ihrer Sicht eine zentrale Rolle?

Absolut. OpenAI folgt, soweit man das von außen beurteilen kann, einer einzigen Maxime: Scale, also massives Wachstum. CEO Sam Altman ist bekannt dafür, alles immer verzehnfachen zu wollen. Die Einführung von Werbung ist deshalb nur der nächste für ihn folgerichtige Schritt. Er will die Gewinne maximieren, auch um die Milliardeninvestitionen zurückzahlen zu können, die Geldgeber in das Unternehmen gesteckt haben.

Privat

Björn Staschen

Björn Staschen ist Mitgründer der Initiative "Save Social - Networks For Democracy". Der Medienwissenschaftler und Journalist beschäftigt sich seit Jahren mit den Herausforderungen der Digitalisierung in unserem Mediensystem, unter anderem auch als Autor des Buches "In der Social Media Falle". Er lehrt am Journalistischen Seminar der Universität Mainz.

OpenAI betont, dass sie die Werbung klar kennzeichnen und keine Nutzerdaten an Dritte weitergeben. Also doch nicht so schlimm?

Auf die Versprechen von OpenAI würde ich nicht zu viel geben. Das Unternehmen hat in der Vergangenheit zahlreiche Zusagen gebrochen. Gleichzeitig sind sie sehr gut darin, sich als Liebling der Politik zu inszenieren, weil sie hervorragende PR machen.

Es bleibt hochproblematisch, einem weiteren US-Konzern als Nutzer massive Datenmengen zu überlassen. Was im Hintergrund damit passiert, werden wir nie erfahren. Selbst wenn OpenAI sagt, sie würden keine Daten an Dritte verkaufen, werden unsere Daten selbstverständlich für Targeted Advertising genutzt, also auf Nutzer zugeschnittene Werbung. Nur so lassen sich Werbekunden überzeugen. Für die Nutzerinnen und Nutzer ist das Ergebnis dasselbe: Ich sehe nicht die Werbung, die mir hilft, sondern die, mit der OpenAI am meisten verdient.

OpenAI sagt, Werbung werde klar gekennzeichnet. Gleichzeitig zeigt die Erfahrung mit anderen Plattformen, dass diese Grenzen oft verschwimmen …

Das ist ein klassischer Prozess, den der kanadisch-britische Blogger und Journalist Cory Doctorow als "Enshittification" beschrieben hat. Im ersten Schritt werden die Nutzer geködert und möglichst lange gehalten. Im zweiten Schritt geschieht dasselbe mit Werbekunden. Dann sind die Nutzenden bereits zweitrangig. Im letzten Schritt geht es darum, die Unternehmensgewinne maximal zu steigern, dann sind sogar die Werbekunden egal. Viele Plattformen sind diesen Weg gegangen. X ist da vielleicht am weitesten, aber auch Instagram und andere folgen. Gekennzeichnete Werbung ist dabei oft der erste Schritt. Danach beginnen Inhalte und Werbung zu verschwimmen.

Könnte Werbung, die auf mich zugeschnitten ist, nicht auch ein Vorteil sein? Wo liegt die konkrete Gefahr?

Wir als Nutzende erliegen einer großen Illusion: nämlich der, dass Sprachmodelle wie ChatGPT bestmöglich für uns antworten. Das ist Unsinn. Dahinter steht ein Algorithmus, der vor allem über Wahrscheinlichkeiten funktioniert. Wir wissen außerdem, dass diese Modelle mit teils diskriminierenden Inhalten trainiert werden.

Wenn wir die KI als denkendes Wesen wahrnehmen, denken wir vielleicht, der antwortende Roboter habe unser Bestes im Sinn. Tatsächlich hat er aber ausschließlich das Beste von Sam Altman und den Investoren im Sinn. Denn so wurde er programmiert. Wir werden nicht die besten Angebote sehen, sondern die wirtschaftlich attraktivsten für OpenAI. Die große Gefahr ist eine Welt, in der wir keine freien Konsumentscheidungen mehr treffen, sondern in der wir selbst – und unsere Daten – das Produkt sind, mit dem andere Milliarden verdienen.

Stimmt, viele Menschen scheinen zu vergessen, dass es sich um eine Maschine handelt. Einige verlieben sich in die KI, andere erzählen ChatGPT die persönlichsten Probleme …

Ja, das ist ein weiteres Problem. Durch die neue Sprachfunktion entsteht zum Beispiel schnell der Eindruck, man spreche mit einem Freund, der Empfehlungen ausspricht. Werbung von einem vermeintlichen Freund wirkt ungleich stärker als klassische Suchanzeigen.

Und man darf nicht vergessen: Der Preis, den wir schon jetzt zahlen, ist massiv: Jede Suchanfrage bei ChatGPT verbraucht Unmengen an Energie. Wenn wir für Klimaschutz demonstrieren, sollten wir nicht gleichzeitig ein ressourcenfressendes Sprachmodell nach Urlaubsempfehlungen fragen. Mal davon abgesehen, dass die Empfehlungen nicht auf sinnhaften Überlegungen basieren.

Was meinen Sie damit?

Diese Modelle berechnen lediglich, welcher Text statistisch am wahrscheinlichsten als Nächstes kommt. Wenn viele Texte "schöner Urlaub" mit einem bestimmten Ort verbinden, wird genau das ausgegeben. Das hat nichts mit Verständnis oder Bewertung zu tun. Dass dahinter Wahrscheinlichkeitsberechnungen stehen, verschleiert das Programm durch die "menschliche Kommunikation". Und wenn man genau hinsieht, zeigt sich außerdem, wie oft diese Modelle Unwahrheiten ausspielen.

Das wird vor allem problematisch, wenn Menschen Informationen ungefragt übernehmen. So beispielsweise auch in den KI-Zusammenfassungen von Google, die ja immer relevanter werden. Ändert sich gerade das Suchverhalten grundlegend?

Absolut, wir sehen bereits jetzt, dass die Zugriffszahlen bei Medienhäusern sinken, weil Nutzerinnen und Nutzer bei KI-generierten Textsnippets hängenbleiben und nicht mehr auf die Originalseiten klicken. Dabei sind viele der Zusammenfassungen schlecht und fehlerhaft – und den Medienhäusern gehen Werbeeinnahmen verloren. Dieses Geschäftsmodell füllt die Taschen von OpenAI und Co, während Qualitätsmedien ausbluten. Die Frage ist eher, ob Nutzerinnen und Nutzer noch bereit sind, Informationen kritisch zu prüfen oder einfach den bequemsten Weg wählen.

Lesetipp: KI statt Therapie?

Was bedeutet das politisch? Braucht es stärkere Regulierung für Techkonzerne?

Wir müssen uns klarmachen, was hier passiert: In einem zentralen Bereich demokratischer Meinungsbildung haben sich Monopole gebildet. Es geht nicht darum, diese Konzerne zu benachteiligen, sondern ihre massiven Privilegien zu überprüfen.

Privilegien?

Es kann beispielsweise nicht sein, dass einige Plattformen wie Instagram verbieten oder erschweren, Links zu setzen, die von der Plattform wegführen. Zudem müssen wir über Entflechtung sprechen: Darf ein Unternehmen gleichzeitig Verbreitungsweg, Inhalte, Werbung und Infrastruktur kontrollieren? Diese Frage stellt sich bei Suchmaschinen, sozialen Netzwerken und Messengern gleichermaßen. Zusätzlich halte ich eine Digitalabgabe für richtig, vor allem, um das zu stärken, was Techkonzerne geschwächt haben: eine resiliente digitale Informationsinfrastruktur.

Was verstehen Sie darunter?

Eine Infrastruktur, in der wir als Gesellschaft die Regeln unseres demokratischen Gesprächs festlegen – und nicht einzelne Milliardäre. Dafür gibt es dezentrale Ansätze wie das Fediverse, zu dem beispielsweise auch der Dienst Mastodon gehört, eine Alternative zum Netzwerk X (ehemalig Twitter). Diese sollte man stärken. Hier können dann auch Stiftungen, Vereine oder die Bundesregierung selbst einen Teil des Netzwerks betreiben. Der Vorteil ist, dass sie dann nicht mehr abhängig von den Entscheidungen einer einzelnen Person wie Elon Musk sind.

Gibt es auch Alternativen zu ChatGPT?

Ja. Es gibt Sprachprognosemodelle, die sehr viel weniger Energie verbrauchen. Die nicht mit massivem Urheberrechtsbruch trainiert werden. Und bei denen die Daten auf diskriminierende Inhalte sorgfältiger ausgewählt werden. Das zu überprüfen ist aus meiner Sicht unter anderem eine Aufgabe für Universitäten und die öffentliche Hand. Wir brauchen dahingehend gezielte Investitionen, um Gegengewichte zu schaffen. Ein besserer europäischer Ansatz ist beispielsweise Mistral AI.

Karen Hao: Empire of Ai, Penguin Books Ltd. 496 Seiten, £12.99

Haben Sie zum Schluss eine Leseempfehlung zu diesem Thema?

Ja! Allen, die sich damit auseinandersetzen möchten, welche Marktmacht große KI-Konzerne besitzen und wie wichtig es ist, diese aufzubrechen, empfehle ich "Empire of AI" von Karen Hao.

Die Kommentarfunktion ist nur noch für registrierte Nutzer verfügbar. Um einen Leserkommentar schreiben zu können, schließen Sie bitte ein Abo ab, schreiben Sie uns eine Mail an leserpost@chrismon.de oder diskutieren Sie auf Instagram, Facebook und LinkedIn mit.