this post was submitted on 12 Apr 2025
26 points (93.3% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

3777 readers
570 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

___

Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___

Einsteigertipps für Neue gibt es hier.
___

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 10 months ago
MODERATORS
 

Der Artikel ist vom 17.3.25

top 13 comments
sorted by: hot top controversial new old
[–] UndergroundGoblin@lemmy.dbzer0.com 15 points 2 weeks ago* (last edited 2 weeks ago) (2 children)

Wenn die entscheidungsfindung jemanden zu töten rein computergesteuerte erfolgt, dann ist es echt komplett vorbei. Den Akt des Tötens von Menschen komplett zu entkoppeln ist vermutlich das Endlevel der Kriegsführung.

Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug...

[–] marius@feddit.org 12 points 2 weeks ago

Diese Diskussion wird wahrscheinlich nie mit einem eindeutigen Ergebnis beendet werden können

Dronen Remote über einen PC zu steuern und physisch nicht anwesend zu sein, wenn man den Abzug drückt ist ja schon kaltblütig genug...

Wann ist man schon physisch anwesend? Selbst wenn man jemanden mit einem Gewehr erschießt, liegt eine gewisse Distanz dazwischen. Schieße ich mit einem Jet eine Rakete ab, noch mehr. Und wenn ich eine Miene lege, liegt sogar noch eine zeitliche Distanz dazwischen. All das gibt es schon lange. Natürlich hast du nicht unrecht. Drohnen haben aber auch Vorteile. Z.B. können sie von einem Kontrollraum aus gesteuert werden, in dem sich mehrere Personen befinden, die sicherstellen, dass man da gleich wirklich den richtigen erschießt. Wenn das ein einzelner Soldat tut, ist die Fehlerwahrscheinlichkeit höher

Was denkst du über Artillerie über 30 km auf Koordinaten auf der Landkarte zu verschießen oder Mienen zu legen?

Das wurde schon vor über 100 Jahren gemacht.

[–] Teppichbrand@feddit.org 7 points 2 weeks ago
[–] Klingenrenner@feddit.org 7 points 2 weeks ago

Man darf noch hoffen, dass die KI auf die gleiche Lösung wie WOPR kommt.

A strange game. The only winning move is not to play.

[–] fantasty@programming.dev 6 points 2 weeks ago (2 children)

Ist doch beim Gaza-Genozid schon Alltag, da sucht eine KI Ziele aus und eine autonome Drohne führt die Angriffe aus. Da gab es doch Berichte zu dass ein Mensch die Liste nur einmal überfliegt und alles andere automatisiert abläuft.

[–] luciferofastora@feddit.org 1 points 2 weeks ago

"Schule... Krankenhaus... Wohngebiet... Jup, passt, Feuer frei"

Da sitzt ein Mensch dazwischen und bestätigt die Ziele.

[–] germanatlas@lemmy.blahaj.zone 3 points 2 weeks ago

Hat hier sonst jemand Qualityland 2 gelesen?

[–] SkavarSharraddas@gehirneimer.de 2 points 2 weeks ago

"Wenn man einen solchen Entscheid anhand einer KI-gestützten Datenauswertung trifft, bedeutet das, dass der Mensch ein gewisses Mass an Kontrolle abgibt. Das führt wiederum dazu, dass die menschliche Verantwortung in den Hintergrund rückt."

Das ist generell ein Problem beim Einsatz von Software, durch KI wird das "nur" vervielfacht.

"Viele Länder fordern ein rechtlich bindendes Verbot von autonomen Waffen, die selbständig menschliche Ziele identifizieren und angreifen."

Ich fände eine allgemeine Haftung für Software-/KI-Einsatz wünschenswert. Wenn solche Systeme eingesetzt werden und Fehler machen, dann müssen die die den Einsatz veranlasst haben auch für die Folgen verantwortlich sein. Anstatt wie bisher Software/KI als "Verantwortungkiller" einzusetzen wo am Ende niemand für irgendwas verantwortlich ist.

[–] seeigel@feddit.org 1 points 2 weeks ago (1 children)

Eher "Vorstellbar, wie schlimm der Einsatz eskalieren wird"

Wenn die KI an Forschungseinrichtungen in Städten entwickelt wird, wird das Hauptziel auch nicht die Vernichtung feindlicher Drohnen an der Frontlinie sein.

[–] bestboyfriendintheworld@sh.itjust.works 1 points 2 weeks ago (1 children)

Willst du das etwas ausführen?

[–] seeigel@feddit.org 1 points 2 weeks ago

Tokyo wurde wegen der dezentralen Waffenproduktion flächenbombardiert. Die gleiche Logik wird gelten, wenn es darum geht, die Weiterentwicklung der feindlichen KI zu verhindern.