Israel benutzt künstliche Intelligenz, um Ziele zu identifizieren, welche dann gebombt werden:
https://www.theguardian.com/world/2...i-database-hamas-airstrikes?CMP=twt_b-gdnnews
Die meisten Menschen werden nun nicht verstehen, wie genau ein solches System funktioniert. Im Grunde genommen ist das aber völlig einfach. Das System wird mit Informationen gefüttert, und dann spuckt es irgendeine Zahl aus. "Mit 75% Wahrscheinlichkeit befindet sich auf Koordinate XYZ irgendein Hamas-Kämpfer." Das wird dann an irgendeinen Vorgesetzten gemeldet, und dieser entscheidet dann, ob eine Bombe dorthin geschickt wird oder nicht, völlig ohne auch nur annähernd zu wissen, ob die Informationen, welche in das System einflossen, auch wirklich korrekt und vollständig waren oder nicht, wer oder was sich dort wirklich befindet.
Das heisst: In diesem Beispiel gibt es mit 25% Wahrscheinlichkeit es an jenem Ort keinen Hamas-Kämpfer, sondern irgendwelche Zivilisten.
Das ist erklärt teilweise, wieso so unglaublich viele Zivilisten scheinbar wahllos vom israelischen Militär getötet werden.
Das ist aber noch längst nicht alles. Das System erkennt, wenn die Chance besonders hoch ist, dass sich ein Hamas-Kämpfer zuhause aufhält. Das israelische Militär hat also einen Anreiz, genau dann zuzuschlagen, wenn die Person inmitten der eigenen Familie ist. So ist dieses System nun mal gebaut. Unabhängig davon, ob die Familie nun die Hamas-Aktivitäten unterstützt oder nicht, erhöht sich dadurch weiter die Opferzahl unter den Zivilisten. Die KI ist da völlig ohne Gewissen, sie operiert einfach aufgrund von Zahlen und Wahrscheinlichkeiten.
Es gibt sogar Schwellwerte, wieviele Zivilsten getötet werden dürfen, bloss um einen einzigen hochrangigen Hamas-Kämpfer zu kriegen. Das heisst, es dürfen "Kollateralschäden" in Kauf genommen werden, bloss um eine einzige Person dranzukriegen. Teilweise dürfen bis 20 Personen getötet werden. All das basierend auf ziemlich wackligen Zahlen, die aus diversen Quellen zusammengekratzt und in die KI gefüttert werden.
Damit verringert sich die Genauigkeit des Systms also auf 1:20, also ungefähr auf 5%. Also unglaublich schlecht.
Wir haben es also beim isralischen Militär mit einer Maschine zu tun, die am Ende des Tages mittels purer Statistik und Bürokratie entscheidet, ob Menschen getötet werden dürfen. (Das US-Militär hat übrigens ähnliche Software im Einsatz, inwiefern andere Länder das auch haben, das weiss ich nicht. Mit ziemlicher Sicherheit setzt auch die Ukraine solche Software gegen die russischen Besatzer ein.)