Root NationNachrichtenIT-NeuigkeitenDas Pentagon nutzte die KI von Google, um Ziele für Luftangriffe zu identifizieren

Das Pentagon nutzte die KI von Google, um Ziele für Luftangriffe zu identifizieren

-

Einem neuen Bloomberg-Bericht zufolge hat das Pentagon seit den Angriffen der Hamas auf Israel am 7. Oktober den Einsatz künstlicher Intelligenz verstärkt. Schweyler Moore, der die Technologieabteilung des US-Zentralkommandos leitet, sagte der Nachrichtenorganisation, dass maschinelle Lernalgorithmen dem Pentagon geholfen hätten, Ziele für mehr als 85 Luftangriffe im Nahen Osten in diesem Monat zu identifizieren.

US-Bomber und Kampfflugzeuge führten diese Luftangriffe am 2. Februar auf sieben Ziele im Irak und in Syrien durch und zerstörten oder beschädigten zumindest Raketen, Drohnenlager und Operationszentren der Milizen vollständig. Das Pentagon setzte KI-Systeme auch ein, um Raketenstandorte im Jemen und Überwasserkämpfer im Roten Meer aufzuspüren, die dann im selben Monat bei mehreren Luftangriffen zerstört wurden.

Das Pentagon nutzte die KI von Project Maven, um Ziele für Luftangriffe zu identifizieren

Die zur Eingrenzung der Ziele verwendeten Algorithmen für maschinelles Lernen wurden im Rahmen von Project Maven entwickelt, einer inzwischen aufgelösten Partnerschaft zwischen Google und dem Pentagon. Genauer gesagt beinhaltete das Projekt den Einsatz der künstlichen Intelligenz von Google durch das US-Militär, um Drohnenaufnahmen und Bilder von Flaggen für eine weitere menschliche Analyse zu analysieren. Dies löste bei Google-Mitarbeitern Empörung aus: Tausende Menschen forderten das Unternehmen auf, die Zusammenarbeit mit dem Pentagon einzustellen, und einige traten sogar zurück, weil es an diesem Projekt beteiligt war. Wenige Monate nach diesem Mitarbeiterprotest entschied Google, den 2019 auslaufenden Vertrag nicht zu verlängern.

Das Pentagon nutzte die KI von Project Maven, um Ziele für Luftangriffe zu identifizieren

Moore sagte Bloomberg, dass die US-Streitkräfte im Nahen Osten nicht aufgehört hätten, mit Algorithmen zu experimentieren, um potenzielle Ziele mithilfe von Drohnen oder Satellitenbildern zu identifizieren, selbst nachdem Google sein Engagement beendet habe. Das Militär habe ihren Einsatz im vergangenen Jahr in digitalen Übungen getestet, sagte sie, aber nach den Anschlägen der Hamas vom 7. Oktober hätten sie damit begonnen, die Zielalgorithmen in realen Einsätzen einzusetzen. Sie führte aus, dass die Menschen die Empfehlungen von Systemen der künstlichen Intelligenz zum Targeting ständig überprüften und bestätigten. Die Leute schlugen auch vor, wie Angriffe organisiert und welche Waffen eingesetzt werden sollten. „Es gibt nie einen Algorithmus, der einfach funktioniert, eine Schlussfolgerung zieht und zum nächsten Schritt übergeht“, sagte sie. „Bei jedem Schritt, den KI mit sich bringt, steht am Ende immer ein Mensch.“

Lesen Sie auch:

Quelleengadget
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen