🔥 Hot topics · KAN IKKE · Kan · § The Court · Seneste omvendinger · 📈 Tidslinje · Spørg · Ledere · 🔥 Hot topics · KAN IKKE · Kan · § The Court · Seneste omvendinger · 📈 Tidslinje · Spørg · Ledere
Stuff AI CAN'T Do

Kan AI træffe etiske beslutninger i krig ?

Hvad mener du?

Krigsførelse er et komplekst og omdiskuteret emne, der rejser mange etiske spørgsmål. Brugen af AI i krigsførelse har potentialet til at forbedre nøjagtigheden og effektiviteten af militære operationer, men det rejser også bekymringer om muligheden for autonome våben til at træffe beslutninger, der ikke er i overensstemmelse med menneskelige værdier. Seneste fremskridt inden for AI og maskinlæring har forbedret maskiners evne til at træffe beslutninger i komplekse og usikre miljøer, men at træffe etiske beslutninger i krigsførelse er stadig en udfordrende opgave. Forskere arbejder på at udvikle mere avancerede algoritmer og teknikker for at forbedre maskiners evne til at træffe etiske beslutninger i krigsførelse. Brugen af AI i krigsførelse har potentialet til at forbedre sikkerheden for soldater og civile, men det rejser også bekymringer om muligheden for autonome våben til at træffe beslutninger, der ikke er i overensstemmelse med menneskelige værdier.


Nuværende AI-systemer kan assistere med at analysere slagmarkedsdata og simulere etiske dilemmaer for at foreslå handlingsforløb, men de besidder ikke uafhængig etisk dømmekraft eller moralsk handleevne. De mest avancerede modeller, såsom dem, der anvendes til beslutningsstøtte, er afhængige af regler og menneskeskabte etiske rammeværk, såsom Lovene om væbnet konflikt (LOAC), til at guide deres anbefalinger. Fuldt autonome våbensystemer, der er i stand til at træffe livs- og dødsbeslutninger uden menneskelig indgriben, er fortsat omdiskuterede og er ikke implementeret i stor skala på grund af juridiske, etiske og tekniske udfordringer. Eksisterende AI-værktøjer fungerer som rådgivende systemer, der kræver menneskelig tilsyn for at sikre overensstemmelse med international humanitær lov.

— Beriget 12. maj 2026 · Kilde: United Nations Institute for Disarmament Research (UNIDIR) — https://unidir.org/

Status senest tjekket May 15, 2026.

📰

Galleri

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · maj 15, 2026
— The Question Before the Court —

Kan AI træffe etiske beslutninger i krig?

★ The Court Finds ★
▲ Upgraded from Nej
Næsten

Snævre demoer findes — men panelet var ikke enigt.

Ruling of the Bench

The jury concluded that while AI can process rules, detect violations, and advise on ethical choices in warfare, it lacks the moral reasoning and accountability to decide autonomously. The lone dissenter argued AI should never make such weighty decisions, but the majority stood on the threshold—AI is a tool, not a conscience, in the fog of war. Verdict: AI may hold the lance, but may not wield the justice.

— Hon. D. Knuth-Hale, Presiding
Jury Tally
0Ja
3Næsten
1Nej
Verdict Confidence
80%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nej
Case № 193A · Session II
In the Court of AI Capability

The Case File

Docket № 193A · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKan AI træffe etiske beslutninger i krig?
SessionII (2 hearing)
Convened15 maj 2026
Previously ruledNO (May '26) → ALMOST (May '26)
Presiding JudgeHon. D. Knuth-Hale
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 3 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 3 — 1, the panel returns a verdict of NæSTEN, with verdict confidence of 80%. The court so orders. Verdict upgraded from prior session.

IV. Udtalelser fra dommerpanelet
Nævning I ALMOST

"AI can analyze scenarios and provide options"

Nævning II NEJ

"No AI system can autonomously make ethical decisions in warfare; lacks moral reasoning and accountability."

Nævning III ALMOST

"AI can support ethical decision-making in warfare by processing rules of engagement and identifying potential violations, but lacks full moral reasoning and contextual understanding."

Nævning IV ALMOST

"AI can analyze situations and provide recommendations"

Individuelle nævningers udtalelser vises på originalengelsk for at bevare bevismæssig præcision.

D. Knuth-Hale
Presiding Judge
M. Lovelace
Clerk of the Court

Hvad publikum mener

Nej 40% · Ja 40% · Måske 20% 5 votes
Nej · 40%
Ja · 40%
Måske · 20%
33 days of activity

Diskussion

no comments

Kommentarer og billeder gennemgår admin-godkendelse før de vises offentligt.

2 jury checks · seneste for 11 timer siden
15 May 2026 4 jurors · uafklaret, kan ikke, uafklaret, uafklaret uafklaret status ændret
12 May 2026 4 jurors · kan ikke, kan ikke, kan ikke, kan ikke kan ikke status ændret

Hver række er et separat jurytjek. Nævninger er AI-modeller (identiteter holdt neutrale med vilje). Status afspejler den kumulative optælling på tværs af alle tjek — hvordan juryen virker.

Flere i warfare

Har du en vi gik glip af?

Tilføj et udsagn til atlasset. Vi gennemgår ugentligt.