Mythos Massenmedien

Allgemein
B. Lauring
(Bild: KI-generiert mit ChatGPT)
(Bild: KI-generiert mit ChatGPT)

Forschungsergebnisse belegen: Die auch beim Militär weit verbreitete Annahme, wie massenmediale Propaganda, Desinformation und Fake News auf uns wirken, ist oft falsch oder zumindest stark übertrieben. Das sollten wir im Kopf behalten, wenn wir über den Informationskrieg nachdenken.

Definition

Vorneweg drei Begriffsbestimmungen zum gemeinsamen Verständnis:

Propaganda

Propaganda versucht, die öffentliche Meinung gezielt zu „formen“ bzw. Zustimmung herzustellen (Engineering of Consent), Menschen also in deren Einstellungen und Verhalten zu beeinflussen. Oft verfolgt sie politische oder ideologische Ziele. Propaganda arbeitet meist mit emotionalen und vereinfachten Botschaften. Sie braucht die Inszenierung, die Umdeutung (Framing), mitunter die Strahlkraft von Meinungsführern und sie streut ihre Inhalte in mannigfaltigen Kanälen wie etwa in sozialen Netzwerken; und all das mit einer langfristigen Perspektive. Wer darüber mehr erfahren will, dem sei Edward L. Bernays Werk „Propaganda. Die Kunst der Public Relations“ empfohlen. Der Autor, Sigmund Freuds Neffe, ist in Wien geboren und wurde vom Life Magazin im Jahr 1990 unter die 100 einflussreichsten Menschen des 20. Jahrhunderts gewählt. Bernays‘ Prinzipien von damals, als Propaganda übrigens noch gar keinen negativen Anstrich hatte, finden sich unter anderem in der (kognitiven) Kriegsführung von heute wieder.

Desinformation

Desinformation verbreitet absichtlich falsche oder irreführende Informationen. Sie will Menschen täuschen und Schaden anrichten. Oft soll sie politische Gegner schwächen oder verwirren. Desinformation kann das Vertrauen in Institutionen wie Regierungen oder Medien untergraben. Die Urheber von Desinformation verbergen häufig ihre Identität. Sie nutzen etwa soziale Netzwerke und gefälschte Webseiten, um Desinformation zu verbreiten.

Fake News

Fake News sind Falschnachrichten. Sie ahmen das Aussehen und den Stil von echten Nachrichten nach, um möglichst glaubwürdig zu wirken. Fake News verbreiten oft erfundene oder stark verzerrte Inhalte. Sie sollen Menschen täuschen oder unterhalten. Ein Hauptmotiv für Fake News ist oft finanzieller Gewinn. Die Ersteller verdienen Geld durch Klicks und Werbung; manchmal verfolgen sie auch politische Absichten. Fake News verbreiten sich mitunter sehr schnell, vor allem über soziale Netzwerke.

(Bild: KI-generiert mit ChatGPT)
(Bild: KI-generiert mit ChatGPT)

Strategische „Waffe“

In einer digital vernetzten Welt voller geopolitischer Spannungen ist allen dreien gemeinsam: Wechselweise und kombiniert mit anderen Instrumenten setzen sie verschiedene Akteure auf strategischer Ebene als Waffen ein, die ohne kinetische Energie auskommen. Sie sollen in einem Informationsraum ihre Wirkung entfalten: Bürger im Wege von Massenmedien (Radio, TV, Printmedien, soziale Netzwerke) beeinflussen, worüber wir nachdenken, wie wir kalkulieren, welche Gefühle in uns aufkommen und welche Absicht in uns reift (Einstellung) sowie, was und wie wir etwas letztendlich tatsächlich tun (Verhalten).

Gleichermaßen richten wir auch unsere eigenen „Gegen- oder Abwehrmaßnahmen“ aus. Die Mechanismen, derer wir uns in der westlichen Welt bedienen, sowie die Ziele, die wir uns setzen, sind nahezu dieselben, wenn meist auch mit einem anderen Motiv unterlegt. Wer dazu etwa in einschlägigen militärischen Publikationen schmökert, wird dergleichen schnell auffinden, etwa wenn es um zentrale Wirkungsforderungen geht. So zum Beispiel in der „Allied Joint Doctrine for Strategic Communications“ der NATO (kurz AJP-10.2023), die von Narrativen spricht, die das Verhalten einer Zielgruppe beeinflussen sollen oder im noch immer gültigen Militärstrategischen Konzept aus dem Jahr 2017, das unter dem Begriff „Beeinflussen“ eine Einsatzart der Informationskräfte versteht, „bei der ausgewählte Zielgruppen durch zielgerichtete Maßnahmen zu einer Änderung ihrer Einstellung, ihres Verhaltens oder des Verständnisses für eigene Maßnahmen beeinflusst werden“.

(Bild: KI-generiert mit ChatGPT)
(Bild: KI-generiert mit ChatGPT)

Wirkung

Die angesprochenen Kommunikationsmethoden, -mittel oder -maßnahmen stützen sich auf strategischer Ebene meist auf massenmediale Distributionskanäle wie klassische Massenmedien (Radio, TV, Printmedien) und soziale Netzwerke. All das klingt plausibel, zumal wir heutzutage im Schnitt neun Stunden täglich damit verbringen, Massenmedien zu konsumieren – insgesamt also mehr als 30 Jahre unseres Lebens.

Aber wirken massenmediale Propaganda, Desinformation und Fake News bzw. die Massenmedien selbst tatsächlich so, wie landläufig vermutet wird? Erfüllen sich damit all die Wirkungsforderungen, die in militärischen Konzepten aufgestellt sind? Sind massenmediale Propaganda und Desinformation in der Lage, unsere Einstellungen quasi von Schwarz auf Weiß zu verändern, von Ja auf Nein? Ist es möglich, dass sie unser Verhalten steuern, uns zu lenken vermögen wie ein Puppenspieler eine Marionette?

Die kurze Antwort darauf: Nein! Propaganda, Desinformationskampagnen und Fake News wirken sich meist nur in geringem Maß aus. Versuche, die Massen zu beeinflussen, schlagen in aller Regel fehl, auch wenn langfristige, kumulative Effekte, die sich über Monate und Jahre durch die ständige, unterschwellige Konfrontation mit bestimmten Narrativen entfalten könnten, wissenschaftlich nachgewiesen sind.

Zu dieser Erkenntnis gelangten jedenfalls Experten wie der französische Kognitionswissenschaftler Hugo Mercier, der Soziologe Chris Bail oder die Forschungsgruppe um Ceren Budak, um nur einige zu nennen. Die Forscher fanden ferner heraus, dass Falschinformationen je nach Plattform, Land und Jahr rein quantitativ lediglich zwischen 0,1 und 6,7 Prozent des gesamten Nachrichtenkonsums ausmachen; und nur ein kleiner Anteil der Nutzer (1–5 Prozent) ist für das Gros der Fake News verantwortlich. Diese „Supersharer“ sind meist Menschen mit starken, mitunter extremen politischen Meinungen und geringem Vertrauen in Institutionen. Die Algorithmen sozialer Netzwerke haben eher geringe Effekte auf Meinungen und Emotionen der Nutzer und schlagen den meisten Menschen moderate Posts und Videos vor. Experimente, bei denen diese Algorithmen in Feeds deaktiviert wurden, zeigten keine messbaren Effekte auf politische Einstellungen, Wahlverhalten oder die gefühlte Polarisierung.

So belegen auch zwei aktuelle Studien: Die russischen Desinformationskampagnen während der US-Wahlen 2016 hatten keine messbaren Effekte auf Einstellungen oder Wahlverhalten. Nur 1 Prozent der Twitter-Nutzer hatte etwa 70 Prozent der russischen Propaganda während der US-Wahl 2016 „konsumiert“. Die Inhalte erreichten somit hauptsächlich bereits überzeugte Wähler; sie haben also vorhandene Einstellungen verstärkt anstatt neue zu schaffen.

Warum diese Art der „massenmedialen Manipulation“ überraschend ineffektiv ist, erklären die Wissenschaftler so: Menschen verfügen über eine Art „mentales Immunsystem“, das Informationen kritisch auf ihre Quelle (Kompetenz und Wohlwollen des Informanten) und ihren Inhalt (Übereinstimmung mit bestehendem Wissen) prüft. Denn blinder Glaube wäre für den Menschen evolutionär von Nachteil, zumal wir eine Spezies sind, die auf Kommunikation angewiesen ist. Der Mensch ist also „von Natur aus“ skeptisch und es gelingt weder klassischen Massenmedien (Radio, TV, Printmedien) noch sozialen Netzwerken besonders gut, dessen Einstellungen zu beeinflussen – und erst gar nicht dessen tatsächliches Verhalten.

Die Schweigespirale

Die „Schweigespirale“ beschreibt ein von Elisabeth Noelle-Neumann in den 1970er-Jahren entwickeltes Modell zur Dynamik öffentlicher Meinung. Menschen neigen dazu, ihre Ansichten zurückzuhalten, wenn sie glauben, damit in der Minderheit zu sein – aus Furcht vor sozialer Isolation. Massenmedien können dieses Meinungsklima prägen, indem sie bestimmte Positionen als Mehrheitsmeinung erscheinen lassen. Wer sich dadurch isoliert fühlt schweigt und verstärkt so den scheinbaren Konsens. In sozialen Netzwerken kann dieser Effekt durch Algorithmen und Bots zusätzlich verstärkt werden. Die Schweigespirale zeigt, wie stark der Wunsch nach Zustimmung die öffentliche Meinungsbildung beeinflusst – und wie wichtig Widerspruch bleibt.

Beeinflussung

Wie bereits ausgeführt widerlegt die Wissenschaft die weit verbreitete Annahme, wie massenmediale Propaganda, Desinformation und Fake News auf uns als Gesellschaft wirken. Sie sagen jedoch wenig darüber aus, wie effektiv etwa Psychologische Operationen (PSYOPS) auf taktischer Ebene sein können. Denn „taktische PSYOPS“ zielen nicht darauf ab, komplexe Einstellungsmuster abzuändern, sondern vielmehr darauf, unmittelbar Verhalten zu lenken; und dies in einer spezifischen, oft hochgradig stressbehafteten Situation. Ein Flugblatt, das einem eingekesselten feindlichen Soldaten einen sicheren Weg aufzeigt, sich zu ergeben, oder eine Lautsprecherdurchsage, die Zivilisten vor einem Minenfeld warnt und auf einen sicheren Korridor lenkt – dergleichen funktioniert nach völlig anderen psychologischen Prinzipien. Hier geht es nicht darum, quasi die Weltanschauung zu ändern, sondern darum, in einer Situation von Unsicherheit, Angst und Gefahr einen klaren, glaubwürdigen und eigennützigen Handlungspfad anzubieten.

Solche gezielten taktischen Maßnahmen wirken – auch dies ist empirisch gut belegt. Eine Fallstudie zur Geiselnahme in Sauk (Malaysia) im Jahr 2000 zeigte beispielsweise, wie der gezielte PSYOPS-Einsatz (unter anderem Appelle von Familienangehörigen, Ausnutzung von psychologischen Schwachstellen) die Geiselnehmer destabilisierte und den Weg für Verhandlungen ebnete, die zur unblutigen Aufgabe führten. Es kommt also auf die Ebene und das Ziel an: Während die strategische Massenbeeinflussung eher eine Illusion bleibt, ist die taktische Verhaltenslenkung ein bewährtes und effektives militärisches Mittel zum Zweck.

» Wenn Menschen Falschinformationen akzeptieren, ist das selten ein Zeichen von Dummheit, sondern von Loyalität zu einer Gruppe. «

Polarisierung und Vertrauenserosion

Gefährlich auf strategischer Ebene ist hingegen, dass sich der gesellschaftliche Zusammenhalt verliert. Der Soziologe Chris Bail beschreibt treffend, dass soziale Medien nicht wie ein Spiegel die Gesellschaft abbilden, sondern wie ein Prisma wirken, das unsere Wahrnehmung verzerrt.

Dieses Prisma belohnt systematisch extremistische und polarisierende Aussagen mit Aufmerksamkeit (Likes, Shares), während moderate, differenzierte Stimmen von beiden Seiten angegriffen werden und sich zurückziehen (siehe: das Phänomen der „Schweigespirale“). In der Folge zerfällt eine Gesellschaft in unversöhnliche Lager, die einander verachten. Wir wissen, dass staatliche Akteure diesen Mechanismus gezielt nutzen, wobei ihre Strategie oft nicht darauf abzielt, dass wir einer spezifischen Lüge glauben. Das Ziel ist subversiver, zumal das Vertrauen in alle Informationsquellen untergraben werden soll: in Regierungen, Medien und Wissenschaft. 

Diese als „Firehose of Falsehood“ (Schlauch der Falschheit) bekannte Taktik überflutet den Informationsraum mit widersprüchlichen, absurden und emotionalisierenden Narrativen. Das Resultat ist Verwirrung, Zynismus und politische Apathie. Eine Bevölkerung, die glaubt, „man könne niemandem mehr trauen“, ist im Krisen- oder Verteidigungsfall nicht mehr handlungs- und widerstandsfähig. Die relevante Metrik für den Erfolg solcher Operationen ist also nicht „Wie viele Menschen haben eine Falschnachricht geglaubt?“, sondern „Um wie viel ist das Vertrauen in demokratische Institutionen gesunken?“.

Katalysator

Was überdies nicht außer Acht gelassen werden darf, ist die Rolle von Propaganda, Desinformation und Fake News im Zusammenhang mit der Radikalisierung extremistischer Gruppen. In deren Mikrokosmos dienen sie als ideologischer Kitt und Katalysator für gewaltbereite Minderheiten.

Innerhalb von Online-Echokammern und auf verschlüsselten Plattformen werden Desinformation und Verschwörungstheorien nicht zur Überzeugung von Außenstehenden eingesetzt, sondern zur Festigung des Binnenzusammenhalts. Sie schaffen ein geschlossenes, alternatives Weltbild, bestätigen Vorurteile, legitimieren Hass und senken die Hemmschwelle zur Gewalt. Diesen Prozess befeuert ein stetiger Strom von Falschinformationen, die das Gefühl erzeugen sollen, man sei existenziell bedroht und ein Befreiungsschlag gelinge bloß mit Gewalt.

(Bild: KI-generiert mit ChatGPT)
(Bild: KI-generiert mit ChatGPT)

Lösungsansätze

Was bedeutet all das nun für uns als Volk und für die Streitkräfte? Unbestritten ist: Staatliche und nicht-staatliche Akteure versuchen immer wieder, mit massenmedialer Propaganda, Desinformation und Fake News unsere Einstellungen zu verändern und unser Verhalten zu beeinflussen. Es ist wichtig, diese Versuche auf Basis wissenschaftlicher Erkenntnisse einzuordnen und nicht zu überschätzen, welche Wirkung sie auf uns als Gesellschaft haben.

Die Bedrohung im Informationsraum zu verharmlosen, wäre jedoch eine fatale Fehleinschätzung. Die realen Gefahren – gesellschaftliche Zersetzung durch Polarisierung, systemische Vertrauenserosion und die Radikalisierung von Teilgruppen – sind real und erfordern eine entschlossene Antwort. Mit reaktiver Kommunikation oder technischen Abwehrmaßnahmen alleine zu antworten, wäre zu wenig. Vielmehr müssen wir die gesamtstaatliche Resilienz langfristig stärken. Und genau hier findet ein Konzept seine wissenschaftliche Legitimation, das in der Vergangenheit oft als Relikt des Kalten Krieges abgetan wurde: die Umfassende Landesverteidigung (ULV), insbesondere ihre geistige Komponente. 

Die Geistige Landesverteidigung (GLV) kann die zentrale strategische Antwort auf alle hier skizzierten Bedrohungen sein. Das demokratische Bewusstsein zu festigen, das kritische Denken fördern, Medienkompetenz vermitteln oder den Wehrwillen zu heben, das sind jene Maßnahmen, die das „mentale Immunsystem“ der Bevölkerung zu trainieren und zu stärken vermögen. Die GLV wirkt präventiv gegen Entwicklungen, die das Vertrauen zersetzen und die Gesellschaft spalten. Die wissenschaftlichen Erkenntnisse über die Grenzen massenmedialer Propaganda, Desinformation und Fake News sind daher kein Grund zur Entwarnung, sondern das stärkste Argument dafür, die GLV als zentrales Element der österreichischen Sicherheitsvorsorge massiv aufzuwerten. Sie ist keine veraltete Doktrin, sondern eine hochaktuelle Notwendigkeit im Informationszeitalter.

Basierend auf den dargelegten wissenschaftlichen Erkenntnissen sollten Planer und Ausbildungsverantwortliche darüber nachdenken, den abstrakten Begriff „Beeinflussen“ aufzugeben und stattdessen Begriffe zu verwenden, welche die Lücke zwischen Doktrin und wissenschaftlicher Realität zu schließen vermögen und die ferner als erreichbare, operative Ziele auch messbar sind.

Hinweis

Die Bilder in diesem Artikel wurden ausschließlich mit KI generiert. Dieses Experiment zeigt, wie moderne KI-Technologien in der Medienproduktion eingesetzt werden und welchen Einfluss sie auf unsere Wahrnehmung haben können. Gerade im Kontext von Deepfakes und automatisierten Bots ist es wichtig, kritisch zu hinterfragen, wie visuelle Inhalte entstehen und welche Wirkung sie entfalten. Mit diesem experimentellen Einsatz von KI-Bildern möchten wir die Leserschaft dazu anregen, die mediale Realität reflektiert wahrzunehmen und die Mechanismen hinter der Informationsvermittlung bewusster zu erkennen.


Autor

Ministerialrat Brigadier Mag. Bernhard Lauring

Leiter der Abteilung Eigene Medien in der Direktion Kommunikation des BMLV

Publikationen

Dieser Beitrag erschien in folgenden Publikationen:

Truppendienst 04/2025 (406): Gamechanger Drohnen

Im vorliegenden Heft wird deutlich, wie vielfältig die Aufgaben moderner Streitkräfte sind. Reinhard Lemp erläutert, was Joint Fire Support in der Praxis bedeutet und welche technischen, taktischen und organisatorischen Voraussetzungen notwendig sind, um diese Fähigkeit wirksam einzusetzen. Moritz…