`
Sonntag, Juli 21, 2024
More

    Wie funktioniert die Killer-KI im Gaza-Krieg?

    Teilen

    Künstliche Intelligenz (KI) erlebt spätestens seit dem Erfolg von ChatGPT und Dall-E  einen enormen Boom. Ein Anwendungsbereich, der in der öffentlichen Diskussion aber lange eine sehr untergeordnete Rolle gespielt hat, ist das Militär. Im Gaza-Krieg werden hier Menschen zu Zielen – z.B. auf Basis ihrer WhastApp-Gruppe, der sie angehören. – Wie funktionieren „Lavender” und „Gospel”?

    Künstliche Intelligenz wird nicht nur zum Schreiben von Texten oder zur Erstellung von Bildern genutzt. Auch im militärischen Bereich wird immer öfter auf Maschinen gesetzt, die mit Datensätzen trainiert werden – und auf deren Basis automatisiert Entscheidungen getroffen werden. Was genau das für die Kriegsführung der Zukunft bedeutet, soll anhand des aktuellen Beispiels Israel erläutert werden. Denn automatisierte Waffensysteme und Killer-Roboter klingen zwar nach gruseligem Science Fiction.Doch wir sind heute schon mit einer Welt konfrontiert, in der ehemalige Fiktion zur Realität wird. Wir erleben eine Welt, in der Aufgaben überall von KI ergänzt und teilweise ersetzt werden sollen – davor schrecken auch Staaten in ihrer Kriegsführung nicht mehr zurück.

    Gospel“ und „Lavender“

    Aufmerksamkeit erregte das Thema, als im April im +972 Magazine Enthüllungen des israelischen Investigativ-Journalisten Yuval Abraham erschienen: Den Aussagen von sechs Geheimdienstmitarbeitern der israelischen Armee IDF zufolge sind es keine Menschen, sondern die KI-Systeme „Gospel“ und „Lavender“, welche die Entscheidung treffen, wer ein potentielles Ziel für israelische Luftschläge ist.

    In vergangenen Einsätzen wie etwa 2014 und 2021 war es ein Problem für die israelische Luftwaffe, dass ihr durch die hohe Intensität der Angriffe nach einer gewissen Zeit die Ziele ausgingen. Diese konnten durch menschliche Einschätzung in nur geringerem Ausmaß gefunden werden – ein Problem, das man versuchte, mit der Nutzung von KI zu „lösen“... Denn die KI findet in kürzerer Zeit und höherer Intensität Ziele – nämlich Menschen.

    Während die zuvor intensivste militärische Operation „Protective Edge” im Jahr 2014 in 51 Tagen zwischen 5.266 und 6.231 Ziele angegriffen hatte, waren es allein im ersten Monat des Gaza-Krieges 2023 mit Nutzung von KI über 15.000. Inzwischen sind es über 29.000 – ein Ausmaß, dass in Relation zur Geschwindigkeit und Größe des betroffenen Gebiets das Ausmaß aller anderen Konflikte des 21. Jahrhunderts bei weitem übersteigt.

    Dump Bombs“ nach Infos von „Where’s Daddy“

    Es ist schon länger bekannt, dass das israelische Militär künstliche Intelligenz für die Auswahl von Zielen im Gaza Krieg verwendet: Das System „Gospel” identifiziert dabei diejenigen Orte von, denen aus „feindliche” Raketen abgefeuert werden. Diese werden dann von der israelischen Luftwaffe eliminiert. Der Artikel aus dem April diesen Jahres enthüllt aber zusätzlich den Einsatz eines zweites KI-Systems mit dem Namen „Lavender”. Während Gospel Gebäude und Strukturen als potentielle Ziele von Luftangriffen ausmacht, identifiziert Lavender Menschen als potentielle “Terroristen” und setzt sie auf eine Art „Abschuss-Liste”.

    Die Eliminierung der Zielpersonen erfolgt dann auf Basis eines dritten KI-Systems names „Where‘s Daddy”. Dieses ermittelt zunächst das Zuhause der Zielperson und trackt deren Bewegungen. Zur tatsächlichen Eliminierung wird das Ziel erst freigegeben, wenn es sein Zuhause betritt – denn dann ist die Tötung mittels billiger, unpräziser „dump bombs” möglich, die das gesamte Haus gleichzeitig mit in Schutt und Asche legen. Der Tod anderer Zivilist:innen wird dabei bereitwillig in Kauf genommen.

    Wenn die Socialmedia-Nutzung über Leben oder Tod entscheiden könnte

    Die Kriterien, auf denen die Entscheidung über Leben und Tod basieren, sind offiziell nicht bekannt. Doch in einem 2021 veröffentlichten Buch eines Brigadegenerals der israelischen „Elite-Geheimdiensteinheit 8200” werden potentielle Kriterien für ein vergleichbares KI-System beschrieben. Darunter werden unter anderem die gemeinsame Mitgliedschaft in einer WhatsApp-Gruppe mit einem bekannten militanten Gegner oder der häufige Wechsel des Mobiltelefons oder der Adresse genannt.

    Zwar lässt sich nicht überprüfen, welche genauen Kriterien nun wirklich die Basis der durch die KI getroffenen Entscheidungen darstellen. Doch klar ist: Lavender ordnet auf Grundlage großer Datenmengen den Menschen in Gaza eine Wertung zwischen 1 und 100 zu, die für die Wahrscheinlichkeit stehen soll, dass eine Person in Verbindung mit der Hamas steht. Dieses „Scoring” ist aufgrund der genutzten Daten und Datenmengen für einen Menschen nicht einfach nachvollziehbar.

    Israel automatisiert den Völkermord: KI-Einsatz und menschliche Schuld

    „Automation Bias” und die Illusion menschlicher Kontrolle

    In Diskussionen über einen “ethischen Einsatz” von künstlicher Intelligenz im Militär wird häufig hervorgehoben, wie entscheidend es sei, die primäre Kontroll- und Entscheidungsfunktion dem Menschen selbst zu überlassen. Letztlich sollten KI-Systeme demnach nur einen Vorschlag über ein mögliches Vorgehen liefern, der dann von einem Menschen kontrolliert wird, bevor dieser eine endgültige Entscheidung trifft.

    Was sich in der Theorie beruhigend anhört, stellt sich in der Praxis jedoch meist als reine Illusion heraus: So berichtet im +974 Magazine eine:r der Geheimdienstmitarbeiter:innen davon, für die einzelnen Eliminierungs-Entscheidungen im Schnitt nur 20 Sekunden (!) Zeit gehabt zu haben. Das habe schließlich dazu geführt, dass die einzige Kontrolle darin bestanden habe, ob es sich bei dem potentiellen Ziel um einen Mann handelte. Dass Entscheidungen trotz mangelnder Zeit und Undurchsichtigkeit getroffen werden, liegt an der „Automation Bias”, der Eigenschaften des Menschen, eher blind den Entscheidungen automatisierter Systeme zu vertrauen und keine Fehler zu vermuten.

    Einen tatsächlichen Fehler der KI zu erkennen, bleibt damit im Gaza-Krieg eine Illusion. Aber auch die Bundeswehr plant neue Konzepte für die Kriegsführung. Sie haben gemein, dass die Nutzung von Unmengen an Daten die Entscheidungen für den Menschen nicht mehr nachvollziehbar machen. Somit verlieren sie faktisch die Kontrolle über den Krieg, da Entscheidungen abseits der Einschätzungsfähigkeit von Menschen getroffen werden.

    Das alles ist bereits bitterer Alltag – und zwar, ohne dass Grundprobleme der Künstlichen Intelligenz behoben worden wären.

    Grundprobleme der KI

    KI-Systeme werden anhand von großen Datensätzen trainiert. Dabei kann es zu Fehlern im Lern-Algorithmus kommen, die nur schwer feststellbar sind. Das lässt sich anhand eines Beispiels erklären:

    Wenn wir einen Algorithmus darauf trainieren wollten, Bilder von Katzen erkennen zu können, erscheint es sinnvoll, alle mögliche Arten von Katzen in unterschiedlichsten Farben im Datenset zur Verfügung zu stellen. Wenn aber z.B. alle Bilder von Katzen in der Natur auf grünen Wiesen aufgenommen wurden, wird der Algorithmus automatisch lernen, dass eine Katze eine variierender Farbfleck auf grünem Hintergrund ist, anstatt die Form oder Eigenschaften einer Katze von denen eines Hundes unterscheiden zu können.

    Solche Fehler des Trainings zu entlarven, stellt eine hohe Herausforderung dar und erfordert einen immer größeren und diverseren Datensatz, mit dem solche Beeinflussungen ausgeschlossen werden könnten – dafür müssen wir sie aber erst einmal erkennen und um sie wissen.

    Diese Zusammenführung immer komplexerer Datensätze macht einen weiteren Grundwiderspruch auf: mit ihrer Komplexität steigt auch die Komplexität der Entscheidungsfindung, und ein Algorithmus wird noch undurchsichtiger für seine menschliche Überprüfung. Vereinfacht gesagt: der Algorithmus wird „gefährlicher“, je sicherer wir ihn machen wollen.

    Wir können also immer erst bei der Nutzung sehen, ob es eine Beeinflussung („Bias”) im Datenset gibt und ob das Ergebnis in eine bestimmte Richtung beeinflusst wird. In der Praxis bedeutet das für die Kriegsführung, dass der KI ein Bild antrainiert wird, das den politischen Feind charakterisieren soll: Das ist dann etwa ein religiöser Mensch, dessen Ortungskoordinaten häufiger die einer Moschee sind, ein kräftiger Mann, der einen Bart trägt oder eben eine Person, die häufig ihre Handynummer wechselt und immer wieder in den gleichen WhatsApp-Gruppen auftaucht.

    Letztendlich bleibt die Gefahr bestehen, dass Entscheidungen aufgrund von Eigenschaften getroffen werden, welche die KI nur durch das Training selbst erlernt, in dem Zusammenhänge zwischen Eigenschaften hergestellt werden, die von außen nicht einsehbar sind. Wir lassen also eine Maschine aufgrund von erlernten Faktoren bestimmen, ob ein Mensch sterben oder leben soll – wir können dabei nicht wissen, ob der vermeintliche „Terrorist“ nicht einfach nur auf einer grünen Wiese saß und deswegen für eine Katze gehalten wird.

    Mehr lesen

    Perspektive Online
    direkt auf dein Handy!

    Weitere News