• Veröffentlichungsdatum : 12.01.2024
  • – Letztes Update : 22.01.2024

  • 10 Min -
  • 1968 Wörter

PerspektivenReich: Video killed the radiostar?

Katharina Reich

Doch was kann die KI im Krieg bzw. bei der Verteidigung leisten? Die Frankfurter Rundschau schrieb am 2. Juli 2023 in ihrem Online-Auftritt vom „russischen Monster“. Wo ist bei dieser Aussage die Sachlichkeit geblieben? Infolge der Informationsflut sind Medienmacher derzeit überfordert, die Datenmengen zu bewältigen, die auf die Redaktionen einprasseln. Das Ergebnis sehen wir in ähnlichen Schlagzeilen in Österreich. Kann die KI hier helfen? In diesem Zusammenhang ist festzustellen, dass eine Facette im Journalismus-Feld ebenso wichtig ist. Der Mensch beurteilt anders als Maschinen. Die Maschine zieht einzig Daten als Basis heran, die sie zusammenfasst und auswertet. Menschen hingegen treffen Entscheidungen auch aufgrund ihrer Werte und Erfahrungen. Hinzu kommt, dass durch Schieflagen in der Datenbasis von KI-Texte fehlerhaft sein können. Eine Anpassung und Prüfung durch den Menschen ist demnach elementar.

Die Datenlagerung ist eine große Herausforderung bei der Nutzung von KI. Beispielsweise haben F-35-Kampfflugzeuge, die in den USA produziert werden, eine überdurchschnittlich hohe Dichte an Informationsverarbeitung durch moderne Technologie, unter anderem KI. Im Cockpit gibt es einen Bildschirm, auf dem sich der Pilot alle Informationen, die er braucht, individuell gestalten kann. Er trägt eine spezielle Brille, mit der er sogar den Raum unter sich wahrnehmen kann, obwohl ein Boden im Cockpit vorhanden ist. Die Datenserver für die F-35 stehen in den USA. Wird eine F-35 von einem anderen Staat gekauft, werden die Daten trotzdem in den USA gelagert und gespeichert. In diesem Zusammenhang stellen sich zwei Fragen: Erstens, was passiert, wenn die Technologie ausfällt und die Bildschirme keine Steuerung mehr zulassen? Stichwort: Übertechnisierung; kann das Flugzeug nochmals gestartet werden oder stürzt der Pilot inklusive seines hochtechnisierten Geräts ab? Zweitens, kann Europa eine Serverinfrastruktur entwickeln, die nur Europa gehört? Stichwort: Datensicherheit, die nur die Europäer selbst gewährleisten können. Diese Serverlandschaft fehlt jedoch derzeit.

Wo kann die KI helfen? Es gibt mittlerweile eine KI von Microsoft, mit der man einen Dialog führen kann. Sie denkt nach und gibt Antworten, derzeit jedoch noch ziemlich allgemein. Ziel ist es, eine KI mit einem leistungsfähigen Reaktionsrahmen zu kreieren. In Zukunft werden diese Tools beispielswiese eine Zusammenfassung von Online-Meetings generieren oder beim Formulieren von Fragen unterstützen.

Ein kritischer Umgang mit KI ist jedenfalls bei Vertragsfragen erforderlich. Microsoft bietet in diesem Bereich nur KI-Interaktionen mit Daten bis zum Jahr 2021 an. Danach tut sich eine Lücke auf, wodurch der Mensch zum Denken und Faktensammeln bzw. -ergänzen aufgefordert ist. Ein Bespiel aus Österreich: Werden Entscheidungen der ordentlichen Gerichte im Rechtsinformationssystem des Bundes – kurz RIS – publiziert, sind diese für alle einsehbar. Vorab müssen alle personenbezogenen Daten sowie Informationen, die einen Rückschluss auf die Sache oder die Person ermöglichen, entfernt werden – ein bislang manueller Prozess, der beachtliche Personalkapazitäten beansprucht. Durch den Einsatz von KI könnte die Effizienz des Prozesses deutlich gesteigert und der notwendige Personalaufwand erheblich reduziert werden. Dieses Projekt wurde vom Bundesministerium für Justiz gemeinsam mit dem Bundesrechenzentrum initiiert und hat den eAward 2022 in der Kategorie „Machine Learning und künstliche Intelligenz“ gewonnen.

Derzeit ist es bei vielen Menschen in Mode eine KI-App zu installieren. Die Apps mit Chat-Interaktionsangeboten durch KI erscheinen endlos. Allerdings besteht dabei auch die Gefahr beim Download eine Schadsoftware mit zu installieren. Daher empfiehlt Microsoft, wohl auch aus Vermarktungsgründen, nur die geprüfte und kostenpflichtige Software zu nutzen, die sie selbst anbieten.

OpenAI funktioniert anders als herkömmliche KI. Der Unterschied liegt darin, dass OpenAI die Daten von Nutzern speichert, während die KI dies nicht tut und demnach nicht nur auf die aktuelle Interaktion bezogen denkt und arbeitet. OpenAI merkt sich personenbezogene Daten, die KI tut das nicht. Darin begründet sich auch der dringende Bedarf bezüglich Datensicherheit im EU-Act. ChatGPT ist ein KI-Chatbot, der von OpenAI entwickelt wurde. Es ist ein textbasiertes Dialogsystem, das auf dem GPT-Sprachmodell von OpenAI basiert und in nahezu natürlicher Sprache auf Benutzereingaben reagiert. OpenAI ist eine Forschungsorganisation, die sich auf die Entwicklung von künstlicher Intelligenz als Unternehmen spezialisiert hat. Sie haben verschiedene KI-Technologien entwickelt, darunter auch ChatGPT, das ein Produkt von OpenAI ist.

In der Mensch-zu-Mensch Kommunikation gibt es große Unterschiede, im Gegensatz zu einer KI-zu-Mensch Kommunikation. Es ist nachprüfbar, ob eine Interaktion mit einer KI, die als Eigenleistung eines Menschen verkauft wurde, tatsächlich menschlichen Ursprungs ist. In diese Richtung arbeitet auch der Datenschutz des AI-Acts. Man möchte eine Kennzeichnungspflicht für KI-generierte Daten einführen. Dies soll über Marker für Bilder, Filme bzw. Filmsequenzen, Texte oder Sprache geschehen.

Wie ist es im Verteidigungsbereich um den Einsatz von KI bestellt? Es ist wichtig, dass der Einsatz von KI im Militär verantwortungsbewusst erfolgt. Die US-Regierung hat beispielsweise im Februar 2023 eine Erklärung veröffentlicht, in der sie die Grundsätze für den verantwortungsbewussten Einsatz von KI im Militär darlegt. Diese umfasst unter anderem die Einhaltung des humanitären Völkerrechts, die Verantwortlichkeit für den Einsatz von KI und die Berücksichtigung von Risiken und Vorteilen.

Heute nutzen autonome Waffenplattformen eine Form von KI, die Computer Vision, um Ziele zu identifizieren und zu verfolgen. Eine autonome Waffe wird in erster Linie dann autonom, wenn das System in der Lage ist, Ziele in dem Raum, in dem diese eingesetzt wird, zu identifizieren und zu verfolgen. Bei dem Ziel kann es sich um ein feindliches Flugzeug handeln, das mit extremer Geschwindigkeit in den Luftraum fliegt, um eine Rakete, die auf eine Stadt abgefeuert wird oder um einen gepanzerten Mannschaftstransporter, der auf einer Nebenstraße fährt. Die künstliche Intelligenz, die hinter der Zielerfassung steht, müsste darauf trainiert werden, festzustellen welches Ziel es wert ist, bekämpft zu werden. Es bedarf des Bedieners, der die Plattform überwacht und das Feuer auslöst. Der menschliche Bediener muss demnach die letzte Instanz der Entscheidung sein.

Autonome Waffentürme von Kampffahrzeugen arbeiten mit Machine-Learning-Modellen, die hinter dieser Zielsoftware stehen. Sie werden mit visuellen Daten von Kameras trainiert, die auf anderen Waffenplattformen montiert sind, die von früheren Projekten des Herstellers stammen. Diese Bilder und Filmaufnahmen haben Daten über gegnerische Ziele, Aktionen oder Gelände aus verschiedenen Blickwinkeln und Lichtverhältnissen gesammelt. Dann durchlaufen sie den Algorithmus für maschinelles Lernen, der darauf trainiert ist, Sequenzen und Muster binär zu erkennen.

Streitkräfte auf der ganzen Welt verarbeiten täglich enorme Mengen an visuellen Überwachungs- und Aufklärungsdaten. Diese kommen aus Telefonkameras, Laptop-Feeds, Videoüberwachung, diversen installierten Kameras, Drohnen oder Satellitenaufnahmen. Die Herausforderung besteht nicht in der Sammlung von Daten, sondern in deren Verarbeitung. Hier kann maschinelles Sehen und KI von Nutzen sein. KI kann dazu beitragen, große Mengen an Daten aus verschiedenen Quellen zu sammeln, zu analysieren und zu verarbeiten, um Bedrohungen zu erkennen. Der Algorithmus hinter der Software wäre in der Lage, den Inhalt des Filmmaterials zu bestimmen und alle Anomalien oder relevanten Objekte zu identifizieren und zu kennzeichnen, auf die er trainiert wurde. Das System alarmiert dann einen Soldaten als Bediener und hebt die markierten Objekte in der Anzeige hervor.

KI kann auch dazu beitragen, die Logistik und Versorgung von Truppen zu optimieren, indem sie beispielsweise Routen plant, Lieferungen koordiniert oder Bestände verwaltet. Die Geschwindigkeit, mit der Entscheidungen getroffen und ausgeführt werden, ist dabei der Vorteil. Mit Hilfe einer geeigneten Konversationsschnittstelle und einem Logistikexperten kann die Effektivität erheblich gesteigert werden. Zum Beispiel könnte der Kommandant eines Schlachtkreuzers während des Gefechtes automatisch alarmiert werden, wenn die Munition einer Geschützbatterie unter einen kritischen Wert sinkt und dann die nötigen Befehle erteilen.

Cyberangriffe erkennen und abwehren, indem sie beispielsweise den Netzwerkverkehr überwacht, Anomalien erkennt und Gegenmaßnahmen ergreift, wäre ein weiteres Betätigungsfeld von KI. KI-Lösungen für die Cybersicherheit haben deshalb eine hohe Nachfrage. Das ist aufgrund des hohen Risikos, das mit dem Datenschutz in Militärnetzwerken verbunden ist, verständlich. Mehrere KI-Anbieter und Rüstungsunternehmen scheinen bereits maschinelles Lernen zu nutzen, um Sicherheitsprodukte anzubieten, die Bedrohungen erkennen und vorhersagen können, bevor sie tatsächlich eintreten. Hacker nehmen private Einrichtungen genauso ins Visier wie jene des Militärs. Cybersicherheitsbedrohungen gibt es jedoch in zahlreichen Formen und Größen. KI kann eine wesentliche Rolle bei Präventionsmaßnahmen beim Militär spielen. Heutzutage gibt es Software, die digitale Situationen erkennen kann, wie eine E-Mail oder ein Flash-Laufwerk, das wahrscheinlich eine Falle bzw. ein Werkzeug zum Einschleusen von Malware ist. Danach kann sie diese Cyberbedrohung neutralisieren, bevor sie aktiv wird.

Zu guter Letzt bleibt die Frage offen, was der Unterschied zwischen OpenAI und Chat GPT ist. Bei einer OpenAI gibt es einen wissenschaftlichen Hintergrund und eine definierte Schnittstelle. Tatsächlich handelt es sich bei einer AI ebenfalls um eine KI, konkret um ein KI-Modell. Dieses bietet Zugriff für eine On-Demand-Intelligenz und liefert Daten sofort und ohne Rahmen. Die Verarbeitung bzw. Umsetzung dieser Daten erfolgt in generativen AI-Komponenten. So können costumizable AI-Modelle „Visionen entwickeln“, sprechen, Sprachen lernen und sich weiterentwickeln, beispielsweise weitere Sprachen lernen. Ein Chat-Bot von OpenAI liefert Ideen bei der Erstellung von Inhalten, kann allgemeine Fragen beantworten und unterstützt seinen Nutzer bei der Codegenerierung oder der Konversation.

Was bedeutet nun Intelligenz und Artificial Intelligence? Was ist Machine Learning, Learning from data oder Weekly supervised learning? Wie lassen sich diese Begriffe definieren?

Intelligenz ist die Fähigkeit eines Individuums, abstrakt und rational zu denken und daraus zweckvolles Handeln abzuleiten. Es gibt viele Definitionen von Intelligenz. Eine gängige ist die von Robert Sternberg, der sie als „die mentalen Fähigkeiten, die für die Anpassung an, sowie die Gestaltung und Auswahl von, jedem Umweltkontext notwendig sind“ definiert hat.

Artificial Intelligence (AI), auch Künstliche Intelligenz (KI) genannt, ist ein Teilgebiet der Informatik, das sich mit der Entwicklung von Algorithmen und Systemen befasst, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.

Machine Learning ist ein Teilbereich der künstlichen Intelligenz. Es versetzt Systeme in die Lage, automatisch aus Erfahrungen – Daten – zu lernen und sich zu verbessern ohne explizit programmiert zu sein. Machine-Learning-Algorithmen sind statistische Modelle, die auf Trainingsdaten beruhen. Das heißt, es werden nicht einfach Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in Daten erkannt. Deshalb kann das System unbekannte Daten beurteilen, aber beim Lernen unbekannter Daten auch scheitern.

Learning from data ist der Prozess, bei dem Algorithmen des maschinellen Lernens (Machine Learning) Daten analysieren und Muster erkennen, um Vorhersagen oder Entscheidungen zu treffen. Dieser Prozess beinhaltet das Sammeln und Aufbereiten von Daten, das Trainieren von Algorithmen anhand von Trainingsdaten und das Testen von diesen.

Weakly supervised learning ist ein Teilbereich des maschinellen Lernens, der sich mit der Verwendung von unvollständigen oder ungenauen Überwachungsinformationen befasst. Das soll die Kosten für die manuelle Annotation durch menschliche Experten senken und die Menge an verfügbaren sowie beschrifteten Daten für das Training erhöhen. So ist bei der unvollständigen Überwachung nur ein Teil der Daten beschriftet. In den meisten Fällen zwar korrekt und genau, aber zumeist nicht ausreichend für das Training eines Modells. Es gibt zwei Techniken, aktives Lernen und halbüberwachtes Lernen. Ein Mensch ist dabei in jedem Fall erforderlich.

Trotz aller Fortschritte und der Bezeichnung ist festzuhalten, dass „die KI“ im eigentlichen Sinn noch nicht entwickelt wurde. Derzeit handelt es sich vielmehr um Maschinen, die an sie gestellte Aufgaben durchprobieren und aus Fehlern lernen. Das bringt eine enorme Zeitersparnis für den Menschen. Von einer „richtigen“ Künstlichen Intelligenz wie bei Blade Runner, sind wir derzeit noch weit entfernt. Vielmehr können wir Inseln an Können entwickeln. Während Filme wie Blade Runner – mit dem Veröffentlichungsjahr 1982 – eine Zukunft zeigen, in der KI und Roboter menschenähnliche Fähigkeiten haben, sind wir in der Realität noch weit davon entfernt. KI ist zwar bereits praxistauglich und kann Menschen in vielen Bereichen unterstützen, sie ist aber noch lange nicht so fortgeschritten, wie sie in Science-Fiction-Filmen dargestellt wird. Es gibt noch viele Herausforderungen und Gebiete, die erforscht werden müssen, bevor die Menschheit diese Fähigkeiten erreichen kann. Die Angst, dass „Video killed the Radio Star“ eintritt, ist daher unberechtigt.

Relevant sind jedoch der kritische Blick und die Kenntnis von Entwicklungen sowie Begriffen, sowie des Einsatzes von Technologie in juristischer und ethischer Sicht. KI kann, wenn sie reglementiert ist, dazu beitragen menschliche Fähigkeiten zu verbessern und zu ergänzen. Durch kollaborative Intelligenz können Menschen und KI aktiv die komplementären Stärken des anderen verstärken und dessen Schwächen ausmerzen.

Link Teil 1

Mag. Katharina Reich ist Privatdozentin zu sicherheitsrelevanten Infrastrukturen, Ökonomie und komplexem Denken an diversen Universitäten und Fachhochschulen.

 

Ihre Meinung

Meinungen (0)