Gelenkte Intelligenz? Wie Medienkonzerne Einfluss auf KI-Modelle nehmen und warum dies demokratiegefährdend ist.
- Richard Krauss
- 23. Juli
- 6 Min. Lesezeit
Aktualisiert: 23. Juli
aktualisiert am 23.07.2025 - 18:23
Die Debatte um Künstliche Intelligenz und Journalismus wirkt auf den ersten Blick wie ein Kampf um Wahrheit, Qualität und Verantwortung. Tatsächlich geht es aber zunehmend um Macht, Markt und die Kontrolle über Narrative.
Während Sprachmodelle wie GPT-4 Texte generieren, die qualitativ nah an journalistische Standards heranreichen, mehren sich Hinweise darauf, dass große Medienhäuser nicht nur Gegner dieser Technologie sind – sondern zugleich verdeckt Einfluss auf ihre Leistungsfähigkeit nehmen. Ein Überblick über ein strukturelles Spannungsfeld, das den freien Informationsfluss im digitalen Zeitalter gefährdet.
Lizenz gegen Qualität
Seit OpenAI und andere Unternehmen begannen, ihre Sprachmodelle mit realen Pressetexten zu trainieren, ist ein neues Marktgeflecht entstanden. Medienhäuser wie die New York Times, Axel Springer oder Associated Press verklagten entweder die Entwickler oder schlossen exklusive Lizenzverträge mit ihnen ab.
Der Deal: Zugriff auf hochwertige Inhalte gegen Geld – und implizit wohl auch gegen Rücksicht.
Die Folge: Wer zahlt, wird in den Trainingsdatensätzen berücksichtigt. Wer nicht, bleibt draußen.
Was das bedeutet? Sprachmodelle lernen journalistische Sprache nicht mehr neutral, sondern selektiv. Qualitätsmaßstäbe verschieben sich vom Ideal der Vielfalt hin zur Logik exklusiver Inhaltepakete.
Der KI-Stil ist kein Spiegel demokratischer Öffentlichkeit, sondern Resultat von Verwertungsinteressen.
Die diskrete Macht der Datenpartnerschaften
Besonders deutlich zeigt sich das in der Debatte um Trainingsdaten. Medienkonzerne verfügen über wertvolle Korpora – Millionen Artikel, redaktionell geprüft, stilistisch geschliffen. Wer diese exklusiv lizenzieren darf, kann entscheiden, wie KI Journalismus versteht. Wird Meinung als Fakt oder als Haltung kodiert?
Wie werden Themen wie Migration, Kapitalismus oder Demokratie dargestellt? Intransparente Trainingsregime machen es unmöglich zu sagen, ob eine bestimmte sprachliche Zurückhaltung der KI ein ethischer Schutzmechanismus ist – oder schlicht das Resultat ökonomischer Einflussnahme.
Soft Power im Diskursraum
Parallel versuchen einige Medienhäuser, das öffentliche Bild von KI systematisch zu prägen. Mit Warnhinweisen wie „Dieser Artikel wurde nicht von einer KI erstellt“ wird Vertrauen kanalisiert – nicht durch Argumente, sondern durch metakommunikative Abgrenzung.
Gleichzeitig kursieren vor allem Beispiele von gescheiterten KI-Antworten: Halluzinationen, Rechenfehler, fragwürdige Quellen. Solche Fälle existieren – doch ihre mediale Überrepräsentation bedient einen Zweck: Die Konkurrenz kleinzuhalten.
Inhaltlich wäre eine differenzierte Auseinandersetzung mit KI-Texten geboten. Doch genau die bleibt oft aus. Die Frage, ob KI-Modelle nicht bereits heute sachlich bessere, präzisere oder vielfältiger verständliche Texte schreiben als so mancher Kommentar in Regionalzeitungen, wird selten gestellt – und wenn, dann rhetorisch abgewehrt.
Die Politik als Spielfeld
Noch gewichtiger ist der Einfluss auf die Regulierung. Medienlobbys wirken seit Jahren an EU-Verordnungen wie dem AI Act mit – oft mit dem Ziel, hohe Transparenz- und Kennzeichnungspflichten für KI-Inhalte durchzusetzen, nicht jedoch für redaktionelle Meinungsbeiträge.
Die paradoxe Folge: Während generative Modelle verpflichtet werden, ihre Quellen offenzulegen, können Verlage weiter kommentieren, ohne jeden Faktencheck. Die Medienbranche bewirbt sich gleichzeitig als Hüterin demokratischer Standards – und als exklusiver Lizenzgeber für jene Technik, die sie öffentlich diskreditiert.
Das Dilemma der Technologieanbieter
KI-Unternehmen befinden sich dabei in einer heiklen Lage. Einerseits sind sie auf qualitativ hochwertige Daten angewiesen – andererseits geraten sie durch selektive Lizenzierungen unter Druck, bestimmten Stilpräferenzen, Themenhierarchien oder ideologischen Filtern nachzugeben.
Besonders kritisch wird es, wenn politische oder wirtschaftliche Interessen mit einfließen:
Wenn etwa bestimmte Perspektiven systematisch weniger gut ausformuliert, journalistisch weniger präsent oder sprachlich verwaschener erscheinen.
Solche Tendenzen sind schwer nachzuweisen – doch viele Nutzer berichten seit 2024 von „weichgespülten“ Textvorschlägen, unklaren Positionierungen, übermäßiger Zurückhaltung.
Diese Erfahrung macht auch der Autor. So besteht der dringende Verdacht, dass ein bestimmtes KI Modell (22.7.-23.7.2025) einen Diskurs zwischen dem Autor und der KI über die wirtschaftlichen Folgen gekündigter Abbonnements (mit einem zweistelligen Millionenbetrag taxiert, wenn dur 10% der User ihr kostenpflichtiges Abbonemnet kündigen) über Nacht gelöscht hat bzw. der Beitrag in der Bibliothek nicht mehr auffindbar war. Die Verwendung weichgespülter Antworten mittels Filter wurden bestätigt. Die Steuerung über massive Filter bestätigt.
Auch der Verlust an Schärfe und Sprachkraft in manchen Modellen könnte Ergebnis einer technischen Limitierung sein – oder das Resultat stiller Verhandlungen mit Verlagen.
Zwischen Qualität und Kontrolle
Was hier entsteht, ist ein neues Kräfteverhältnis im digitalen Journalismus: Nicht mehr nur Wahrheit gegen Fake, sondern bezahlter Zugriff gegen algorithmische Unsichtbarkeit. Wenn die sprachliche Leistungsfähigkeit von KI durch wirtschaftliche Interessen gezügelt wird, steht mehr auf dem Spiel als Stilfragen.
Es geht um den Zugang zu Sprache als Ressource – und um die Frage, ob öffentlich zugängliches Wissen künftig durch Lizenzierungslogik gefiltert wird. Transparenz wäre der erste Schritt. Solange aber unklar bleibt, welche Inhalte in welche Modelle einfließen, welche Stile gefördert und welche gedämpft werden, bleibt der Vorwurf im Raum: Dass KI nicht (nur) ein Spiegel der Welt ist, sondern ein Produkt ihrer Verwertungsstrukturen.
Künstliche Intelligenz verändert den Journalismus – aber nicht allein durch Technologie, sondern durch die Machtstrukturen, in die sie eingebunden ist.
Wenn Medienhäuser sowohl Lieferanten als auch Regulierer sind, droht eine gefährliche Asymmetrie: Inhalte werden exklusiv, Zugänge gesteuert, Qualität verhandelt.
Die Öffentlichkeit aber hat Anspruch auf mehr – auf offene, zugängliche, verständliche Information. Und auf eine KI, die nicht gekauft, sondern gebildet ist.
-- Transparenzhinweis : KI Dialogtext Ende
Anmerkung des Autors:
Gleichzeitig bedarf es einer sorgfältigen Beobachtung der Entwicklung. Die Kündigung von KI Bezahlmodellen in größerem Still durch Kunden, könnten eine empfindliche finanzielle Verlust für die Betreiber und Inhaber der Modelle zur Folge haben.
Bei nur 10% Kündigung von Abonnements z.B. Perplexity oder anderere Modelle, kommt ein empfindlicher finanzieller und auf Dauer existenzbetrohender Verlust für die Betreiber der KI Systeme zustande.
Ist dieser Anteil gekündigter Abonements wesentlich größer als die Kompentationszahlungen großer Medienkonzerne, dürfte das eine Frage des Überlebens oder der Käuflichkeit / Korruption der KI Modelle sein, für die sicher kein Abonnent eines KI Modells bezahlen wird.
Letztendlich geht es nicht um die reine korrekte faktische journalistische Recherche, sondern um die bewusste manipulierte Reaktion von KI Modellen durch ihre Entwickler und Filter und die mediale Deutungshoheit in der Agendenbestimmung, Narrativplatzierung und damit die manipulative Beeinflußung der Öffentlichkeit..
Wie schnell Open Source bzw. nicht kommerzielle KI Systeme eine tragfähige Alternative sind, wird die Zukunft entscheiden.
Update 23.07.2025 - 18:08 Transparenzhinweis: Die Seite wurde gegen 18:00 Uhr in den Google Search Index aufgenommen. Anlass für weitergehende Vermutungen bestehen nicht mehr. Aus diesem Grund haben wir einen Absatz aus diesem Text entfernt, der eine andere Einschätzung zu diesem Thema hatte.
Aktueller Stand: Regulierung und Realität
Seit Inkrafttreten des EU AI Acts im Frühjahr 2025 sind erstmals verbindliche Transparenzanforderungen für KI-Modelle gesetzlich verankert – insbesondere bei der Herkunft und Verarbeitung von Trainingsdaten.
Unternehmen müssen offenlegen, mit welchen Datensätzen ihre Modelle trainiert wurden, welche Korrekturmechanismen bestehen und wie Verzerrungen minimiert werden. Medienanstalten wie die LFK Baden-Württemberg oder die Bayerische Landeszentrale für neue Medien haben daraufhin eigene Leitlinien für die verantwortungsvolle Nutzung von KI in Redaktionen vorgelegt.
„Die Sichtbarkeit journalistischer Inhalte darf nicht dem Blackbox-Design der Plattformen überlassen bleiben“, warnt etwa das MedienNetzwerk Bayern in einem aktuellen Whitepaper. Doch die Umsetzung bleibt fragmentiert: Während Konzerne wie Meta und OpenAI inzwischen sogenannte „Responsible AI“-Rahmenwerke kommunizieren, fehlt es häufig an unabhängigen Kontrollinstanzen oder öffentlich einsehbaren Prüfverfahren. Ein internes „Policy Paper“ ersetzt keine demokratische Rechenschaftspflicht.
Hinzu kommt: Die strukturelle Asymmetrie zwischen datenmächtigen Plattformkonzernen und öffentlich-rechtlichen oder gemeinwohlorientierten Medienhäusern besteht fort. „Wir beobachten eine gefährliche Konzentration von Aufmerksamkeitsmacht bei wenigen Infrastrukturbetreibern“, heißt es im Juni-Bericht von Reporter ohne Grenzen zur digitalen Informationsordnung. Solange diese Ungleichverhältnisse nicht adressiert werden, bleibt die vielbeschworene „KI-gestützte Medienvielfalt“ eine Chimäre – und die demokratische Öffentlichkeit ein zunehmend algorithmisch gefilterter Raum.
Quellenverzeichnis – Einfluss von Medienkonzernen auf KI-Modelle
1. AlgorithmWatch (2023):„Training Data & Power Structures – How AI reflects Big Tech priorities“Analyse darüber, wie Auswahl und Herkunft von Trainingsdaten systematisch durch Konzerne wie Meta, Google und Microsoft geprägt werden.Verfügbar unter: https://algorithmwatch.org/
2. European Parliamentary Research Service (EPRS) (2023):„The role of data in AI: What the EU Artificial Intelligence Act says“Hintergrund zur Regulierung von Trainingsdaten und kommerziellen Einflussnahmen im Rahmen des EU AI Acts.Verfügbar unter: www.europarl.europa.eu/thinktank
3. Bundeszentrale für politische Bildung (2024):„Künstliche Intelligenz und Demokratie – Chancen und Risiken“Fundierte Einführung in demokratische und gesellschaftliche Fragen rund um KI, inkl. Medienmacht und Manipulationsrisiken.Verfügbar unter: www.bpb.de
4. Forschungsinstitut Öffentlichkeit und Gesellschaft (fög), Universität Zürich (2024):„Governance von KI im Journalismus“Studie zu den Auswirkungen algorithmischer Systeme in der Medienproduktion und zu Regulierungsansätzen.Verfügbar unter: www.bakom.admin.ch (Schweizer Bundesamt für Kommunikation)
5. Datenethikkommission der Bundesregierung (2019):„Gutachten der Datenethikkommission – Gestaltung der Daten- und Algorithmenpolitik“Umfassende rechtsethische Leitlinien, inkl. Abschnitt zu monopolistischen Datenstrukturen und deren Risiken.Verfügbar unter: www.bmj.de
6. Landesanstalt für Medien NRW (2024):„KI und Medien: Chancen, Risiken, Regulierung“Übersichtsstudie zur praktischen Nutzung von KI in Redaktionen und zur Gefahr von Verzerrungseffekten.Verfügbar unter: www.medienanstalt-nrw.de
7. Center for Humane Technology (2023):„The AI Dilemma“Warnung vor der Verflechtung wirtschaftlicher Interessen mit der Modellgestaltung, insbesondere durch Social-Media-Plattformen.Verfügbar unter: www.humanetech.com
8. Stiftung Neue Verantwortung (2024):„Künstliche Intelligenz im Journalismus: Eine kritische Einordnung“Analyse zu Ownership, Transparenz und Risiko automatisierter Redaktionsprozesse.Verfügbar unter: www.interface.eu.org
9. Reporter ohne Grenzen (2024):„KI und Medienfreiheit – Risiken automatisierter Entscheidungen“Bericht zu Bedrohungen der Informationsfreiheit durch proprietäre KI-Systeme.Verfügbar unter: www.reporter-ohne-grenzen.de
10. Landesanstalt für Kommunikation Baden-Württemberg (LFK) (2023):„KI in der Medienwelt: Eine Bestandsaufnahme“Technologische und gesellschaftliche Analyse mit Fokus auf private Medienunternehmen.Verfügbar unter: www.lfk.de
sowie
OECD (2023): AI, Democracy and the Media – Analyse der Auswirkungen von KI auf demokratische Öffentlichkeit.
Mozilla Foundation (2022): YouTube Algorithm Impact Report – Fallstudie zu manipulativer Empfehlungslogik.
Comments