Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten

Inhaltsverzeichnis:

Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten
Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten

Video: Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten

Video: Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten
Video: Diese SCHWÄCHE kann RUSSLANDs MILITÄR das GENICK BRECHEN! | VisualPolitik DE 2024, Kann
Anonim
Bild
Bild

Widersprüchlicher ATLAS

Anfang letzten Jahres weckte das US-Militär die Welt mit der Nachricht von der Entwicklung des ATLAS-Systems (Advanced Targeting and Lethality Aided System), das Kampfeinsätze auf ein neues Automatisierungsniveau heben soll. Die Initiative löste bei einfachen Leuten und aufgeklärten Militärexperten eine gemischte Reaktion aus. Ein Großteil der Schuld lag bei den Entwicklern (das militärische C5ISR-Zentrum und das Rüstungszentrum des Verteidigungsministeriums), die der wohlklingenden Abkürzung ATLAS zuliebe die Begriffe "Lethalität" und "verbesserte Zielbezeichnung" in den Namen aufgenommen haben. Verängstigt von Geschichten über rebellische Roboter kritisierten die Amerikaner die Armeeinitiative, sie widerspreche der Ethik des Krieges. Insbesondere verwiesen viele auf die Pentagon-Richtlinie 3000.09, die die Übertragung des Rechts, das Feuer zu eröffnen, auf ein automatisiertes System verbietet. Die Integration von künstlicher Intelligenz und maschinellem Lernen in Bodenfahrzeuge könnte laut Demonstranten zu überstürzten Opfern unter Zivilisten und befreundeten Truppen führen. Unter den Kritikern befanden sich durchaus angesehene Wissenschaftler - zum Beispiel Stuart Russell, Professor für Informatik an der University of California in Berkeley.

Bild
Bild

Dass ATLAS nichts mit den hypothetischen „Killerrobotern“zu tun hat, von denen die Menschheit seit dem ersten „Terminator“träumt, erklärten die Entwickler ganz vernünftig. Das System basiert auf Algorithmen, um mit verschiedenen Sensorsystemen ein Ziel zu finden, die wichtigsten auszuwählen und den Bediener darüber zu informieren. Jetzt wird in den USA der Schützenpanzer M113 mit dem integrierten ATLAS-System getestet. Dem Betreiber der Waffe zeigen Algorithmen der künstlichen Intelligenz nicht nur die gefährlichsten Ziele auf dem Bildschirm an, sondern empfehlen auch die Art der Munition und sogar die Anzahl der Schüsse für eine garantierte Niederlage. Die endgültige Entscheidung über den Treffer liegt laut den Entwicklern beim Schützen und er ist für das Ergebnis verantwortlich. Die Hauptaufgabe von ATLAS in einer gepanzerten Version besteht darin, die Reaktionsgeschwindigkeit auf eine potenzielle Bedrohung zu erhöhen - im Durchschnitt eröffnet ein Panzer (BMP oder gepanzerter Mannschaftswagen) das Feuer auf ein Ziel mit einem automatischen Assistenten dreimal schneller. Natürlich kann ein gepanzertes Fahrzeug mit Gruppenzielen effizienter arbeiten. In diesem Fall wählt die Künstliche Intelligenz zeitnah Ziele in der Reihenfolge der Panzergefahr aus, lenkt die Waffe selbstständig und empfiehlt die Munitionsart. Seit Anfang August werden auf dem Aberdeen Proving Ground verschiedene Typen gepanzerter Fahrzeuge mit integrierten ATLAS-Systemen getestet. Basierend auf den Ergebnissen der Arbeit wird über militärische Tests und sogar über die Einführung solcher Waffen entschieden.

Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten
Panzerpanik. Das Pentagon will gepanzerte Fahrzeuge mit künstlicher Intelligenz ausstatten

Panzer sind heute eines der konservativsten Ziele auf dem Schlachtfeld. Viele von ihnen haben sich jahrzehntelang nicht grundlegend verbessert und sind in Bezug auf die technische Entwicklung in den 70-80er Jahren des letzten Jahrhunderts geblieben. Oft ist diese Trägheit mit der weit verbreiteten Verwendung von Panzern in einzelnen Ländern verbunden. Um eine gepanzerte Armee von vielen Tausend ernsthaft zu modernisieren, sind enorme Ressourcen erforderlich. Aber die Mittel zur Abwehr von Panzern entwickeln sich sprunghaft. Ein hervorragendes Beispiel ist der aktuelle Konflikt in Berg-Karabach, in dem türkische und israelische Drohnen äußerst effektiv gegen armenische Panzer sind. Wenn wir Verluste ignorieren, macht die Berechnung des Preis-Leistungs-Verhältnisses solcher Panzerabwehrwaffen sie einfach zu den Königen des Schlachtfelds. Natürlich schützt ATLAS nicht vor Bedrohungen aus der Luft, aber es kann ein gutes Werkzeug sein, um panzergefährdende Ziele wie ATGM-Besatzungen oder einzelne Granatwerfer frühzeitig zu warnen.

Bild
Bild

Das Pentagon betrachtet das ATLAS-System nicht als einzelne militärische Struktur, sondern als Teil eines großen Projekts Konvergenz. Diese Initiative sollte das Bewusstsein der Truppen auf die nächste Stufe heben. Durch maschinelles Lernen, künstliche Intelligenz und die beispiellose Sättigung des Schlachtfeldes mit Drohnen hoffen die Amerikaner, die Kampffähigkeit ihrer Einheiten ernsthaft zu steigern. Die Kernidee ist nicht neu – alle Objekte auf dem Schlachtfeld mit einer gemeinsamen Informationsstruktur zu verbinden und die umgebende Realität zu digitalisieren. Bisher ist ATLAS aufgrund fehlender Fähigkeiten zum Datenaustausch mit "Nachbarn" nicht vollständig in das Projekt Konvergenz einbezogen, aber in Zukunft werden die künstlichen Gehirne des Panzers zum Allgemeingut. Im Werbespot für das Projekt werden übrigens China und Russland als eindeutige militärische Ziele bezeichnet.

Kein Vertrauen in Elektronik

Amerikanische Truppen haben bereits negative Erfahrungen mit bewaffneten Robotersystemen gemacht. Im Jahr 2007 wurden drei kleine Raupenplattformen SWORDS (kurz für Special Weapons Observation Reconnaissance Detection System), bewaffnet mit M249-Maschinengewehren, in den Irak geschickt. Und obwohl sie keine vollständig autonomen Fahrzeuge waren, schafften sie es, die Soldaten mit ihren periodischen chaotischen Bewegungen der Maschinengewehrläufe zu erschrecken, während sie durch die Straßen von Bagdad patrouillierten. Dies schien dem Pentagon ein Zeichen der Unberechenbarkeit zu sein, und die verfolgten Maschinengewehrschützen wurden langsam nach Hause geschickt. Im Jahr 2012 wurde eine Richtlinie erlassen, die besagt, dass automatisierte und ferngesteuerte Waffensysteme nicht von selbst feuern dürfen. Formal wurde ATLAS vollständig im Rahmen dieser Bestimmung entwickelt, aber es gibt nicht weniger Fragen zur Innovation. Einige Experten (insbesondere Michael S. Horowitz, Assistenzprofessor für Politikwissenschaft an der University of Pennsylvania) werfen der Neuheit vor, den Prozess des Treffens eines Ziels zu stark zu vereinfachen. Tatsächlich macht dieser Automatisierungsgrad der Suche und Zielbestimmung den Kampf zu einem gewöhnlichen Spiel wie World of Tanks für den Schützen. Im ATLAS-Leitsystem wird das vorrangige Ziel rot hervorgehoben, ein Alarm ertönt und die Technik stimuliert nach Möglichkeit eine Person zum Eröffnen des Feuers. Unter extremen Kampfbedingungen bleibt wenig Zeit, um eine Entscheidung über das Schießen zu treffen, und dann ermutigt Sie der „intelligente Roboter“. Dadurch hat der Kämpfer einfach keine Zeit, die Situation kritisch zu beurteilen, und eröffnet ohne Verständnis das Feuer. Es ist notwendig zu bewerten, wie ATLAS die Ziele nach dem Schießen richtig ausgewählt hat. Inwieweit ist dieser Ansatz ethisch und entspricht er der berüchtigten amerikanischen Richtlinie? Microsoft hat es übrigens bereits geschafft, für ein solches helmmontiertes Zielbestimmungssystem für das Militär in die öffentliche Verurteilung zu geraten, bis hin zu einem User-Boykott. In den Vereinigten Staaten wird seit vielen Jahren über die Robotisierung von Erkennungs- und Leitsystemen diskutiert. Als Beispiel nennen Kritiker Beispiele für Fehler des Autopilot-Systems auf öffentlichen Straßen, die bereits zu Opfern geführt haben. Wenn die Autopiloten selbst nach Millionen von Kilometern nicht zu 100% zuverlässig sind, was können wir dann über einen völlig frischen ATLAS sagen, der Tanker dazu bringen kann, mit einem 120-mm-Projektil auf eine unschuldige Person zu schießen. Moderne Kriege sind jetzt gerade deshalb so blutig, weil das Militär die Fähigkeit erlangt hat, aus der Ferne zu töten und sich hinter einer zuverlässigen Barriere zu verstecken. Das Beispiel des erwähnten Berg-Karabachs bestätigt diese Wahrheit einmal mehr. Wird dem Kämpfer auch die Möglichkeit genommen, die Parameter des Ziels kritisch zu beurteilen (genau dazu führt ATLAS), dann kann es viel mehr Opfer geben und die Schuld für den Mord kann bereits teilweise auf die Maschine abgewälzt werden.

Und schließlich war das Hauptargument gegen Systeme vom Typ ATLAS unter pazifistischen Kommentatoren das praktisch fehlende Verbot der Öffnung von automatischen Feuern. Jetzt verbieten nur die ethischen Vorgaben des Pentagons (die auch viele Vorbehalte haben) eine Vollautomatisierung des Mordprozesses. Mit der Einführung von ATLAS wird es dafür keinerlei technische Hindernisse geben. Wird die US-Armee in der Lage sein, eine so vielversprechende Gelegenheit aufzugeben, die Reaktionszeit auf eine Bedrohung weiter zu beschleunigen und ihre Kämpfer vor Angriffen zu schützen?

Empfohlen: