🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do

Kun AI ethische beslissingen nemen in oorlogvoering ?

Wat denk je?

Oorlogvoering is een complex en controversieel onderwerp dat veel ethische kwesties oproept. Het gebruik van AI in oorlogvoering heeft het potentieel om de nauwkeurigheid en efficiëntie van militaire operaties te verbeteren, maar roept ook zorgen op over de mogelijkheid dat autonome wapensystemen beslissingen nemen die niet in lijn zijn met menselijke waarden. Recente ontwikkelingen in AI en machine learning hebben de mogelijkheden van machines om beslissingen te nemen in complexe en onzekere omgevingen verbeterd, maar het nemen van ethische beslissingen in oorlogvoering blijft een uitdagende taak. Onderzoekers werken aan de ontwikkeling van geavanceerdere algoritmes en technieken om de mogelijkheden van machines te verbeteren om ethische beslissingen te nemen in oorlogvoering. Het gebruik van AI in oorlogvoering heeft het potentieel om de veiligheid van soldaten en burgers te verbeteren, maar roept ook zorgen op over de mogelijkheid dat autonome wapensystemen beslissingen nemen die niet in lijn zijn met menselijke waarden.


Huidige AI-systemen kunnen helpen bij het analyseren van gegevens van het slagveld en het simuleren van ethische dilemma's om aanbevelingen voor acties te doen, maar ze bezitten geen onafhankelijk ethisch oordeel of morele verantwoordelijkheid. De meest geavanceerde modellen, zoals die worden gebruikt voor beslissingsondersteuning, vertrouwen op regels en door mensen gedefinieerde ethische kaders, zoals de Wetten van Gewapend Conflict (LOAC), om hun aanbevelingen te sturen. Volledig autonome wapensystemen die in staat zijn om levensbelangrijke beslissingen te nemen zonder menselijke tussenkomst blijven controversieel en worden niet op grote schaal ingezet vanwege juridische, ethische en technische uitdagingen. Bestaande AI-tools fungeren als adviserende systemen en vereisen menselijke supervisie om naleving van het internationaal humanitair recht te waarborgen.

— Verrijkt 12 mei 2026 · Bron: United Nations Institute for Disarmament Research (UNIDIR) — https://unidir.org/

Status voor het laatst gecontroleerd op May 15, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mei 15, 2026
— The Question Before the Court —

Kun AI ethische beslissingen nemen in oorlogvoering?

★ The Court Finds ★
▲ Upgraded from Nee
Bijna

Er bestaan beperkte demonstraties — maar het panel was niet unaniem.

Ruling of the Bench

The jury concluded that while AI can process rules, detect violations, and advise on ethical choices in warfare, it lacks the moral reasoning and accountability to decide autonomously. The lone dissenter argued AI should never make such weighty decisions, but the majority stood on the threshold—AI is a tool, not a conscience, in the fog of war. Verdict: AI may hold the lance, but may not wield the justice.

— Hon. D. Knuth-Hale, Presiding
Jury Tally
0Ja
3Bijna
1Nee
Verdict Confidence
80%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Nee
Case № 193A · Session II
In the Court of AI Capability

The Case File

Docket № 193A · Session II · Vol. II
I. Particulars of the Case
Question put to the courtKun AI ethische beslissingen nemen in oorlogvoering?
SessionII (2 hearing)
Convened15 mei 2026
Previously ruledNO (May '26) → ALMOST (May '26)
Presiding JudgeHon. D. Knuth-Hale
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 3 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 3 — 1, the panel returns a verdict of BIJNA, with verdict confidence of 80%. The court so orders. Verdict upgraded from prior session.

IV. Verklaringen van het college
Jurylid I ALMOST

"AI can analyze scenarios and provide options"

Jurylid II NEE

"No AI system can autonomously make ethical decisions in warfare; lacks moral reasoning and accountability."

Jurylid III ALMOST

"AI can support ethical decision-making in warfare by processing rules of engagement and identifying potential violations, but lacks full moral reasoning and contextual understanding."

Jurylid IV ALMOST

"AI can analyze situations and provide recommendations"

Individuele juryverklaringen worden in het oorspronkelijke Engels weergegeven om de bewijsprecisie te behouden.

D. Knuth-Hale
Presiding Judge
M. Lovelace
Clerk of the Court

Wat het publiek denkt

Nee 40% · Ja 40% · Misschien 20% 5 votes
Nee · 40%
Ja · 40%
Misschien · 20%
33 days of activity

Discussie

no comments

Opmerkingen en afbeeldingen gaan door een beoordeling door de beheerder voordat ze publiek verschijnen.

2 jury checks · meest recent 11 uur geleden
15 May 2026 4 jurors · onbeslist, kan niet, onbeslist, onbeslist onbeslist status gewijzigd
12 May 2026 4 jurors · kan niet, kan niet, kan niet, kan niet kan niet status gewijzigd

Elke rij is een afzonderlijke jurycontrole. Juryleden zijn AI-modellen (identiteiten bewust neutraal gehouden). Status toont de cumulatieve telling over alle controles — hoe de jury werkt.

Meer in warfare

Hebben we er één gemist?

We review weekly.