"Wenn man einen solchen Entscheid anhand einer KI-gestützten Datenauswertung trifft, bedeutet das, dass der Mensch ein gewisses Mass an Kontrolle abgibt. Das führt wiederum dazu, dass die menschliche Verantwortung in den Hintergrund rückt."
Das ist generell ein Problem beim Einsatz von Software, durch KI wird das "nur" vervielfacht.
"Viele Länder fordern ein rechtlich bindendes Verbot von autonomen Waffen, die selbständig menschliche Ziele identifizieren und angreifen."
Ich fände eine allgemeine Haftung für Software-/KI-Einsatz wünschenswert. Wenn solche Systeme eingesetzt werden und Fehler machen, dann müssen die die den Einsatz veranlasst haben auch für die Folgen verantwortlich sein. Anstatt wie bisher Software/KI als "Verantwortungkiller" einzusetzen wo am Ende niemand für irgendwas verantwortlich ist.
Und genauso zweifellos wird es noch schlimmere Folgen haben den CO₂-Ausstoß noch mehr zu erhöhen und weniger schlimme Folgen wenn man ihn verringert. Aufgeben hilft nur den Ausbeutern die Zukunft noch mehr auszubeuten.