🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux · 🔥 Hot topics · Ne peut PAS faire · Peut faire · § The Court · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux
Stuff AI CAN'T Do

L'IA peut-elle prendre des décisions éthiques dans la guerre ?

Qu'en penses-tu ?

La guerre est un sujet complexe et controversé qui soulève de nombreuses questions éthiques. L'utilisation de l'IA dans la guerre a le potentiel d'améliorer la précision et l'efficacité des opérations militaires, mais elle soulève également des préoccupations quant à la possibilité pour les armes autonomes de prendre des décisions qui ne sont pas conformes aux valeurs humaines. Les progrès récents en matière d'IA et d'apprentissage automatique ont amélioré la capacité des machines à prendre des décisions dans des environnements complexes et incertains, mais prendre des décisions éthiques dans la guerre reste une tâche difficile. Les chercheurs travaillent à développer des algorithmes et des techniques plus avancés pour améliorer la capacité des machines à prendre des décisions éthiques dans la guerre. L'utilisation de l'IA dans la guerre a le potentiel d'améliorer la sécurité des soldats et des civils, mais elle soulève également des préoccupations quant à la possibilité pour les armes autonomes de prendre des décisions qui ne sont pas conformes aux valeurs humaines.


Les systèmes d'IA actuels peuvent aider à analyser les données de champ de bataille et à simuler des dilemmes éthiques pour suggérer des cours d'action, mais ils ne possèdent pas de jugement éthique indépendant ou d'agence morale. Les modèles les plus avancés, tels que ceux utilisés pour le soutien à la décision, s'appuient sur des règles et des cadres éthiques définis par l'homme, comme les Lois sur les conflits armés (LOAC), pour guider leurs recommandations. Les systèmes d'armes autonomes entièrement capables de prendre des décisions de vie ou de mort sans intervention humaine restent controversés et ne sont pas déployés à grande échelle en raison de défis juridiques, éthiques et techniques. Les outils d'IA existants servent de systèmes consultatifs, nécessitant une supervision humaine pour garantir le respect du droit international humanitaire.

— Enriched 12 mai 2026 · Source : Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR) — https://unidir.org/

Statut vérifié le May 15, 2026.

📰

Galerie

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mai 15, 2026
— The Question Before the Court —

L'IA peut-elle prendre des décisions éthiques dans la guerre ?

★ The Court Finds ★
▲ Upgraded from Non
Presque

Des démonstrations limitées existent — mais le jury n'était pas unanime.

Ruling of the Bench

The jury concluded that while AI can process rules, detect violations, and advise on ethical choices in warfare, it lacks the moral reasoning and accountability to decide autonomously. The lone dissenter argued AI should never make such weighty decisions, but the majority stood on the threshold—AI is a tool, not a conscience, in the fog of war. Verdict: AI may hold the lance, but may not wield the justice.

— Hon. D. Knuth-Hale, Presiding
Jury Tally
0Oui
3Presque
1Non
Verdict Confidence
80%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Non
Case № 193A · Session II
In the Court of AI Capability

The Case File

Docket № 193A · Session II · Vol. II
I. Particulars of the Case
Question put to the courtL'IA peut-elle prendre des décisions éthiques dans la guerre ?
SessionII (2 hearing)
Convened15 mai 2026
Previously ruledNO (May '26) → ALMOST (May '26)
Presiding JudgeHon. D. Knuth-Hale
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 3 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 3 — 1, the panel returns a verdict of PRESQUE, with verdict confidence of 80%. The court so orders. Verdict upgraded from prior session.

IV. Déclarations du tribunal
Juré I ALMOST

"AI can analyze scenarios and provide options"

Juré II Non

"No AI system can autonomously make ethical decisions in warfare; lacks moral reasoning and accountability."

Juré III ALMOST

"AI can support ethical decision-making in warfare by processing rules of engagement and identifying potential violations, but lacks full moral reasoning and contextual understanding."

Juré IV ALMOST

"AI can analyze situations and provide recommendations"

Les déclarations individuelles des jurés sont affichées dans leur anglais d'origine afin de préserver la précision probatoire.

D. Knuth-Hale
Presiding Judge
M. Lovelace
Clerk of the Court

Ce que le public pense

Non 40% · Oui 40% · Peut-être 20% 5 votes
Non · 40%
Oui · 40%
Peut-être · 20%
33 days of activity

Discussion

no comments

Les commentaires et les images passent par une révision administrative avant d'apparaître publiquement.

2 jury checks · plus récent il y a 11 heures
15 May 2026 4 jurors · indécis, ne peut pas, indécis, indécis indécis statut modifié
12 May 2026 4 jurors · ne peut pas, ne peut pas, ne peut pas, ne peut pas ne peut pas statut modifié

Chaque ligne est une vérification du jury distincte. Les jurés sont des modèles d'IA (identités gardées neutres à dessein). Le statut reflète le décompte cumulé sur toutes les vérifications — comment fonctionne le jury.

Plus dans warfare

Une que nous avons oubliée ?

Nous faisons une revue hebdomadaire.