KI im Fokus

Kaum eine technologische Entwicklung der vergangenen Jahre polarisiert so stark wie die Künstliche Intelligenz (KI). Zwischen Effizienzversprechen und ethischen Bedenken wird ihr Potenzial kontrovers diskutiert – auch im militärischen Kontext. Doch wie funktioniert sie, welche sicherheitsrelevanten Herausforderungen ergeben sich und in welchen Bereichen kann KI künftig die militärische Aufgabenerfüllung unterstützen?
Definition KI
Das Thema Künstliche Intelligenz ist kein modernes Phänomen. Die Idee dahinter wurzelt in zwei grundverschiedenen Strängen der technik- und ideengeschichtlichen Entwicklung: zum einen in der kulturhistorischen Vorstellung, ein künstliches Wesen zu erschaffen, das dem Menschen als Werkzeug, Helfer oder gar Gefährte dient – sei es im Mythos (Talos, Prometheus, Golem), in der Literatur (Fausts Homunculus, Pygmalion) oder in frühen Automatenkonstruktionen (Jacques de Vaucanson, Pierre Jaquet-Droz). Zum anderen in dem seit der frühen Neuzeit verfolgten Bestreben, kognitive Prozesse – etwa Zählen, Rechnen oder logisches Schließen – technisch zu formalisieren und an Maschinen auszulagern. Von den Denkmaschinen des Raimundus Lullus über Blaise Pascal und Gottfried Wilhelm Leibniz bis zu Charles Babbage und Herman Hollerith reichen die Versuche, menschliches Denken technisch nachzubilden oder zu entlasten.
In dieser historischen Verschränkung aus mechanischer Rationalität und anthropotechnischer Vision liegt der Ursprung dessen, was heute als KI Eingang in verschiedene gesellschaftliche und sicherheitspolitische Bereiche findet. Lange Zeit war die praktische Umsetzung entsprechender Konzepte jedoch durch die verfügbare Rechenleistung begrenzt. Erst mit dem exponentiellen Anstieg der Verarbeitungskapazitäten in den vergangenen Jahren konnten algorithmische Verfahren mit ausreichend hoher Rechengeschwindigkeit ausgeführt werden –
eine Voraussetzung für die heutige Vorstufe der so genannten „schwachen Künstlichen Intelligenz“. Diese benötigt umfangreiche, strukturierte Datenmengen als Grundlage.
Erst im Zusammenspiel von leistungsfähigen Algorithmen und einer hinreichenden Datenbasis entsteht das, was heute als KI wahrgenommen wird – etwa in Form von Chatbots, die innerhalb von Sekundenbruchteilen kontextadäquate Antworten liefern, dabei jedoch auf vorgegebene Muster und Regeln zurückgreifen. Für die Entwicklung der „starken Künstlichen Intelligenz“ bedarf es einer zusätzlichen, entscheidenden Komponente: der Fähigkeit zum autonomen Lernen und Handeln.
Erst wenn ein System nicht mehr bloß auf vorab definierte Algorithmen und Datenstrukturen zurückgreift, sondern eigenständig Zusammenhänge erkennt, Entscheidungen trifft und seine eigenen Lernprozesse sowie algorithmischen Strukturen weiterentwickelt, nähert man sich jenem Ideal, das als starke KI bezeichnet wird. Derzeit befindet sich die Forschung in diesem Bereich noch im konzeptionellen Stadium. Die meisten realisierten Anwendungen – etwa im Bereich der Sprachverarbeitung, Objekterkennung oder teilautonomen Steuerungssysteme – fallen in die Kategorie der schwachen KI.
Visionen von „Superintelligenzen“, die über menschenähnliches Bewusstsein, Kreativität oder sogar freien Willen verfügen können, verbleiben bislang im Bereich spekulativer Zukunftstechnologien. Gleichwohl sind derartige Szenarien Gegenstand intensiver wissenschaftlicher Forschung – nicht zuletzt aufgrund des erwarteten strategischen Potenzials für zivile wie militärische Anwendungsfelder.
KI im Bundesheer
Die Künstliche Intelligenz hat sich längst als Querschnittstechnologie etabliert – auch im Bereich der militärischen Landesverteidigung. Ihre strategische Relevanz ergibt sich aus der Fähigkeit, komplexe Datenmengen in Echtzeit zu analysieren, Entscheidungsprozesse zu beschleunigen und operative Abläufe auf verschiedenen Ebenen zu optimieren. Die Unverzichtbarkeit KI-gestützter Systeme für zukunftsfähige Streitkräfte ist evident: Ob bei der Erstellung lagebildbasierter Einschätzungen, bei logistischen Planungsprozessen, bei der medizinischen Versorgung oder gar in der präzisen Zielerfassung autonomer Waffensysteme – KI wird sämtliche Bereiche militärischer Handlungsfähigkeit durchdringen.
Aktuelle Konflikte wie der Ukraine-Krieg verdeutlichen bereits die operative Wirksamkeit algorithmischer Unterstützungssysteme auf dem Gefechtsfeld. Vor diesem Hintergrund verfolgt auch das Bundesheer einen technologieoffensiven Ansatz: Ziel ist es, eigene KI-Kompetenzen aufzubauen und von der Konzeptualisierung in die anwendungsorientierte Umsetzung zu gelangen. Dabei steht nicht die kurzfristige Beschaffung extern entwickelter Lösungen im Vordergrund, sondern der systematische Aufbau interner Forschungs-, Entwicklungs- und Umsetzungskapazitäten. Denn: Wer künftig mit einem technologisch hochgerüsteten Gegner konfrontiert ist, wird ohne eine integrierte KI-Unterstützung nicht mehr verteidigungsfähig sein.
KI als Substitutionsfaktor
Obgleich die Künstliche Intelligenz längst Einzug in nahezu alle Lebensbereiche gehalten hat und im sicherheitspolitischen Diskurs an Bedeutung gewinnt, bestehen nach wie vor tiefgreifende Befürchtungen hinsichtlich ihrer potenziell substituierenden Wirkung. Die Vorstellung, KI-Systeme könnten menschliche Arbeitskraft nicht nur ergänzen, sondern vollständig obsolet machen, schürt bekanntlich Ängste, wie sie bereits im Zuge der Digitalisierung durch den Personal Computer in den 1980er-Jahren virulent wurden. Ein historisch informierter Rückblick zeigt jedoch: Technologische Innovationen führten bislang nicht zur generellen Verdrängung menschlicher Arbeitskraft, sondern eröffneten vielmehr neue, oftmals höherqualifizierte Tätigkeitsfelder.
Im Kontext der Künstlichen Intelligenz lässt sich daraus ableiten, dass deren erfolgreiche Integration nicht nur technologische, sondern auch bildungspolitische Weichenstellungen erfordert. Bereits in der Ausbildung müssen jene Schlüsselkompetenzen vermittelt werden, die den produktiven Umgang mit der KI ermöglichen. Tätigkeiten mit stark repetitivem oder standardisiertem Charakter – etwa in der Logistik oder Industrieproduktion – werden dabei tendenziell zuerst automatisiert.
Diese Logik ist jedoch nicht ohne Weiteres auf alle Funktionsbereiche übertragbar. Exemplarisch sei der Dienstführende Unteroffizier – der „Spieß“ – genannt: Neben administrativen und logistischen Aufgaben übernimmt er eine zentrale vermittelnde, fürsorgende sowie disziplinarische Rolle innerhalb der militärischen Gemeinschaft. Als personalisierte Vertrauensinstanz, Vorbildfigur und Ansprechpartner für individuelle Anliegen ist seine Funktion in zwischenmenschlichen Dynamiken verankert. Eine vollständige Substitution durch KI-Systeme ist – jenseits dystopischer Spekulationen und Science-Fiction – gegenwärtig weder technologisch realisierbar noch institutionell wünschenswert.
KI als digitales Schutzschild
KI-gestützte Systeme sind zunehmend in der Lage, gefährliche, bislang ausschließlich durch Menschen ausgeführte Aufgaben zu übernehmen – etwa im Bereich der Minenräumung. Der Schutz des Soldaten – dem zentralen Gut jeder militärischen Operation –
bildet hierbei das übergeordnete Ziel. Durch den Einsatz autonomer Drohnen, die mittels KI Minen erkennen und unschädlich machen, kann das Risiko für menschliches Leben signifikant reduziert werden. Erste Feldversuche lassen auf eine breite Anwendbarkeit in naher Zukunft schließen – auch in schwer zugänglichem, urbanem Gelände.
Darüber hinaus eröffnet der Einsatz von KI in der automatisierten Sensor- und Bilddatenanalyse neue Dimensionen der Gefechtsfeldüberwachung. Während in Konflikten früher menschliche Beobachter maßgeblich für die Lagebeurteilung verantwortlich waren, erfolgt diese heute zunehmend durch ein Netzwerk aus Sensoren – etwa Infrarot-, Bewegungs- oder Wärmebildsysteme. KI-Systeme übernehmen die Vorverarbeitung großer Datenmengen, erkennen Veränderungen im Gefechtsraum, klassifizieren Objekte nach Typ, Zugehörigkeit sowie mutmaßlicher Intention und tragen so zum Erstellen eines differenzierten, dynamischen Lagebildes bei.
Diese algorithmisch gestützte Entscheidungsassistenz mündet nicht nur in einer Erhöhung der Reaktionsgeschwindigkeit, sondern auch in der Optimierung militärtaktischer Maßnahmen: KI kann dem Kommandanten auf Grundlage der analysierten Bedrohungslage konkrete Handlungsoptionen vorschlagen, wodurch sich die Effektivität operativer Entscheidungen steigern lässt. Trotz dieser tiefgreifenden Veränderungen bleibt die Letztverantwortung beim Menschen – das System agiert nicht autonom im rechtlichen oder ethischen Sinne, sondern dient als hochentwickeltes, datengestütztes Werkzeug zur Entscheidungsunterstützung.
Besonders in Demokratien wie Österreich ist dieser Aspekt zentral: Die endgültige Entscheidung über Einsatz und Wirkung von Waffengewalt obliegt stets dem menschlichen Wesen – nicht der Maschine. Dies entspricht nicht nur einem militärischen Selbstverständnis, sondern ist Ausdruck einer ethisch fundierten Wertebasis. Gleichzeitig muss realistisch eingeschätzt werden, dass potenziell nicht alle Staaten dieselben Prinzipien vertreten. In einem sich technologisch rasant wandelnden sicherheitspolitischen Umfeld könnte man der Versuchung erliegen, Maschinen aus Gründen der Effizienz die Entscheidungshoheit zu übertragen – insbesondere dann, wenn daraus ein strategischer Vorteil resultiert. Umso wichtiger ist es, diese Entwicklung kontinuierlich auf nationaler wie internationaler Ebene politisch, rechtlich und gesellschaftlich zu begleiten.
KI als Datenschutzrisiko
Der Fortschritt der Künstlichen Intelligenz geht mit einer wachsenden Abhängigkeit von großen Datenmengen einher. Insbesondere öffentlich zugängliche Inhalte – Texte, Bilder, Videos – dienen als Trainingsmaterial für KI-Systeme. Das birgt nicht nur (urheber-)rechtliche Herausforderungen im zivilen Bereich, wie Proteste von Künstlern gegen die ungenehmigte Verwendung ihrer Werke gezeigt haben, sondern ist auch sicherheitspolitisch von höchster Relevanz. Denn die Frage, wer Zugriff auf welche Daten hat und wofür sie genutzt werden, ist zentral.
Im militärischen Bereich ist die Antwort eindeutig: Während viele zivil genutzte KI-Modelle auf öffentlich verfügbare Daten aus dem Internet zurückgreifen, verfolgt das Bundesheer einen gänzlich anderen Ansatz. Militärisch relevante Daten gelten als Kronjuwelen, die in abgeschotteten Systemen – abseits des Internets – gespeichert werden. Diese strikte Trennung ist essenziell, um die Integrität operativer Informationen zu wahren und ein potenzielles Abgreifen durch feindliche Akteure zu verhindern. Eine Vernetzung mit offenen KI-Plattformen – wie sie im zivilen Raum üblich ist – kommt daher nicht infrage.
Doch selbst ohne Datenzugang zu militärischen Systemen stellt KI im digitalen Raum eine wachsende Bedrohung dar. Deepfakes, Phishing-Mails, manipulierte Bilder und synthetische Stimmen – die Möglichkeiten, Desinformation zu erzeugen und gezielt zu streuen, haben mit der KI ein nie dagewesenes Niveau erreicht. Der Informationsraum ist längst zu einem eigenen Kampfraum geworden – und wird in hybriden Konflikten ebenso gezielt genutzt wie Panzer oder Raketen. Die Fähigkeit, Fakten von Fiktion zu unterscheiden, ist nicht mehr nur Aufgabe von Experten, sondern wird zur Schlüsselkompetenz einer demokratischen Gesellschaft.
Das Bundesheer sieht es als Teil seiner sicherheitspolitischen Verantwortung, für den Ausbau der Medienkompetenz breiter Bevölkerungsschichten zu appellieren – etwa durch Aufklärungsarbeit und schulische Bildungs-initiativen. Denn nur wer die Mechanismen moderner Informationslenkung durchschaut, kann souverän mit der digitalen Realität umgehen. Ein gesunder Umgang mit KI bedeutet nicht, ihr per se zu misstrauen. Ihre Möglichkeiten und Risiken müssen jedoch realistisch eingeschätzt werden können.
KI als Instrument zur Ressourcenschonung
Neben Risiken birgt der Einsatz Künstlicher Intelligenz enormes Potenzial zur Effizienzsteigerung – insbesondere in Bereichen, in denen Ressourcenverbrauch eine zentrale Rolle spielt. Ein anschauliches Beispiel ist die militärische Ausbildung: Statt aufwendige reale Übungen mit hohem Treibstoffverbrauch und Emissionsausstoß durchzuführen, kommen vermehrt KI-gestützte Simulationen zum Einsatz, z. B. für Panzerfahrten oder Flugsysteme.
Je realistischer ein Simulator ist, desto effektiver kann er reale Ausbildungsszenarien ersetzen. Die KI übernimmt dabei zunehmend die Rolle eines intelligenten Systems, das die Lernumgebung dynamisch adaptiert, sich an individuelle Reaktionen anpasst und komplexe Situationen nachbildet. Dies spart nicht nur Treibstoff, Materialverschleiß und Kosten, sondern reduziert auch Umweltbelastungen wie Lärm oder CO2-Emissionen.
Gleichzeitig darf der Energieverbrauch der KI selbst nicht ausgeblendet werden. Große Rechenzentren und KI-Farmen verbrauchen enorme Mengen an Strom. Dennoch gilt: Wenn durch KI-Anwendungen ein breiter Nutzen entsteht – etwa durch Einsparungen im operativen Bereich oder durch effizientere Entscheidungsprozesse –, überwiegt der ökologische sowie der ökonomische Gewinn in der Gesamtbilanz bei Weitem.
Kontrolle versus Kreativität
Mit zunehmender Leistungsfähigkeit der Künstlichen Intelligenz stellt sich nicht nur die Frage nach ihrer Einsatzbreite, sondern auch jene nach ihrer Autonomie. Je komplexer die Systeme, desto schwieriger gestaltet sich deren Nachvollziehbarkeit – das so genannte Black-Box-Phänomen. Während vorgegebene Algorithmen in ihren Entscheidungswegen transparent bleiben, entziehen sich lernende Systeme mitunter einer lückenlosen Kontrolle durch den Menschen.
Ein prominentes Beispiel lieferte das Strategiespiel Go: In einer international beachteten Partie setzte das KI-System „AlphaGo“ einen Zug, der zunächst als taktischer Fehler interpretiert wurde, sich jedoch als spielentscheidend erwies. Dieser Zug – Nummer 37 – war nicht einprogrammiert, sondern Ergebnis eines iterativen Lernprozesses. Er veranschaulicht, dass KI nicht nur bekannte Strategien imitiert, sondern neue, eigenständige Lösungen generiert – mitunter jenseits menschlicher Intuition.
Diese kreative Eigenlogik ist Chance und Risiko zugleich: Sie eröffnet innovative Lösungsräume, wirft aber zugleich ethische und sicherheitsrelevante Fragen in Hinblick auf die Autonomie eines Systems sowie die Grenzen zwischen intelligentem Assistenzsystem oder unkontrollierbarem Akteur auf.
Chancen und Risiken
Der Einsatz Künstlicher Intelligenz ist von Ambivalenz geprägt: Während Potenziale zu Effizienzsteigerung und Ressourcenschonung evident sind, bergen sicherheitsrelevante Anwendungen erhebliche Risiken. In hochdynamischen Einsatzszenarien kann die Geschwindigkeit der Datenverarbeitung durch KI-Systeme entscheidende Vorteile bringen – etwa in der Aufklärung, in der medizinischen Erstversorgung oder bei der Koordination komplexer Operationen.
Zugleich sind KI-Modelle anfällig für systemimmanente Verzerrungen. Fehlerhafte, lückenhafte oder diskriminierende Trainingsdaten können zu Fehlentscheidungen führen – ein Problem, das unter dem Begriff „algorithmic bias“ diskutiert wird. Diese Verzerrungen sind oft schwer zu erkennen, weil sie sich in einem scheinbar objektiven mathematischen System verbergen, tatsächlich aber soziale, kulturelle oder politische Vorannahmen reproduzieren. Besonders im sicherheitspolitischen Kontext können solche Fehlsteuerungen gravierende Folgen haben.
Erweitert wird das Ganze um eine geopolitische Dimension: Die Entwicklung einer leistungsfähigen KI gilt zunehmend als strategischer Faktor in internationalen Machtkonstellationen. Staaten investieren massiv in die KI-Forschung, nicht zuletzt mit Blick auf militärische Dominanz. Es droht ein technologisches Wettlauf-Szenario, bei dem sicherheitsethische Überlegungen gegenüber Effizienzmaximen in den Hintergrund treten. Umso wichtiger ist es, einen verantwortungsvollen Ordnungsrahmen zu etablieren, der Innovation ermöglicht, Missbrauch jedoch konsequent verhindert.
Mensch im Zentrum
Angesichts technologischer Entwicklungen, etwa autonomer Waffensysteme oder roboterhafter Unterstützungseinheiten, stellt sich die Frage nach der Relevanz des klassischen Infanteristen auf einem zunehmend digitalisierten Gefechtsfeld. Trotz wachsender technischer Unterstützung bleibt der Mensch ein unverzichtbarer Bestandteil militärischer Operationen – insbesondere dort, wo physische Präsenz, taktische Flexibilität und moralische Urteilskraft gefordert sind.
Die Geschichte militärischer Innovation zeigt, dass neue Technologien den Handlungsspielraum erweitern, nicht jedoch den Menschen als Träger operativer Verantwortung ersetzen. Krieg bleibt ein von Unsicherheiten, situativen Entscheidungen sowie physischen Anforderungen geprägtes Phänomen. Der Besitz von Gelände, die Durchhaltefähigkeit unter Extrembedingungen sowie die Fähigkeit zur spontanen Reaktion auf unvorhergesehene Lagen zählen weiterhin zu den Kernkompetenzen militärischer Handlungsfähigkeit – und lassen sich nicht digital replizieren (siehe Artikel „Militärische Führung“ auf Seite 252 in dieser Ausgabe).
Selbst im Kontext hochgradig vernetzter Gefechtssysteme, in denen autonome Komponenten agieren, bleibt der Mensch der zentrale Entscheidungsträger. Intelligente Systeme können Entscheidungsprozesse unterstützen, doch ethische Bewertung, situatives Urteilsvermögen und die Bereitschaft, Verantwortung zu übernehmen sind untrennbar mit menschlicher Präsenz verbunden. Damit ist klar: Auch in einer zunehmend digitalisierten Gefechtsführung bleibt der Mensch das entscheidende Element.
Brigadier Mag. Christof Tatschl;
stellvertretender Direktor und Chef des Stabes der Direktion 6 (IKT&Cyber)

Dieser Artikel erschien im TRUPPENDIENST 3/2025 (405).