🔥 Hot topics · NÃO sabe fazer · Sabe fazer · § The Court · Mudanças recentes · 📈 Cronologia · Pergunta · Editoriais · 🔥 Hot topics · NÃO sabe fazer · Sabe fazer · § The Court · Mudanças recentes · 📈 Cronologia · Pergunta · Editoriais
Stuff AI CAN'T Do

As IA podem tomar decisões éticas na guerra ?

O que achas?

A guerra é um tema complexo e controverso que levanta muitas questões éticas. A utilização de IA na guerra tem o potencial de melhorar a precisão e a eficiência das operações militares, mas também suscita preocupações sobre a possibilidade de armas autónomas tomarem decisões que não estejam alinhadas com os valores humanos. Os recentes avanços em IA e aprendizagem automática melhoraram a capacidade das máquinas de tomar decisões em ambientes complexos e incertos, mas tomar decisões éticas na guerra continua a ser um desafio. Os investigadores estão a trabalhar no desenvolvimento de algoritmos e técnicas mais avançados para melhorar a capacidade das máquinas de tomar decisões éticas na guerra. A utilização de IA na guerra tem o potencial de melhorar a segurança de soldados e civis, mas também levanta preocupações sobre a possibilidade de armas autónomas tomarem decisões que não estejam alinhadas com os valores humanos.


Os sistemas de IA atuais podem ajudar a analisar dados de campo de batalha e simular dilemas éticos para sugerir cursos de ação, mas não possuem julgamento ético independente ou agência moral. Os modelos mais avançados, como aqueles utilizados para apoio à decisão, baseiam-se em regras e estruturas éticas definidas pelo ser humano, como as Leis de Conflito Armado (LOAC), para orientar as suas recomendações. Os sistemas de armas autónomas totalmente capazes de tomar decisões de vida ou morte sem intervenção humana permanecem controversos e não são implementados em larga escala devido a desafios legais, éticos e técnicos. As ferramentas de IA existentes servem como sistemas de aconselhamento, exigindo supervisão humana para garantir o cumprimento do direito internacional humanitário.

— Enriched 12 de maio de 2026 · Fonte: Instituto das Nações Unidas para Investigação do Desarmamento (UNIDIR) — https://unidir.org/

Estado verificado pela última vez em May 15, 2026.

📰

Galeria

In the Court of AI Capability
Summary of Findings
Verdict over time
May 2026May 2026
Sitting at the Bench Filed · mai 15, 2026
— The Question Before the Court —

As IA podem tomar decisões éticas na guerra?

★ The Court Finds ★
▲ Upgraded from Não
Quase

Existem demonstrações limitadas — mas o painel não foi unânime.

Ruling of the Bench

O júri concluiu que, embora a IA possa processar regras, detetar violações e aconselhar sobre escolhas éticas na guerra, lhe falta o raciocínio moral e a responsabilidade para decidir autonomamente. O único dissidente argumentou que a IA nunca deveria tomar decisões tão importantes, mas a maioria manteve-se na soleira— a IA é uma ferramenta, não uma consciência, na névoa da guerra. Veredicto: a IA pode segurar a lança, mas não pode exercer a justiça.

— Hon. D. Knuth-Hale, Presiding
Jury Tally
0Sim
3Quase
1Não
Verdict Confidence
80%
The Court of AI Capability is, of course, not a real court.
But the data is real.
The Case File · Stacked History
Session I · May 2026 Não
Case № 193A · Session II
In the Court of AI Capability

The Case File

Docket № 193A · Session II · Vol. II
I. Particulars of the Case
Question put to the courtAs IA podem tomar decisões éticas na guerra?
SessionII (2 hearing)
Convened15 mai 2026
Previously ruledNO (May '26) → ALMOST (May '26)
Presiding JudgeHon. D. Knuth-Hale
II. Cumulative Tally Across Sessions

Across 2 sessions, 8 jurors have heard this case. Combined tally: 0 YES · 3 ALMOST · 5 NO · 0 IN RESEARCH.

Note: cumulative includes older juror opinions. The current session tally above is the live verdict.

III. Verdict

By a vote of 0 — 3 — 1, the panel returns a verdict of QUASE, with verdict confidence of 80%. The court so orders. Verdict upgraded from prior session.

IV. Declarações do tribunal
Jurado I ALMOST

"AI can analyze scenarios and provide options"

Jurado II NÃO

"No AI system can autonomously make ethical decisions in warfare; lacks moral reasoning and accountability."

Jurado III ALMOST

"AI can support ethical decision-making in warfare by processing rules of engagement and identifying potential violations, but lacks full moral reasoning and contextual understanding."

Jurado IV ALMOST

"AI can analyze situations and provide recommendations"

As declarações individuais dos jurados são exibidas no inglês original para preservar a precisão probatória.

D. Knuth-Hale
Presiding Judge
M. Lovelace
Clerk of the Court

O que o público pensa

Não 40% · Sim 40% · Talvez 20% 5 votes
Não · 40%
Sim · 40%
Talvez · 20%
33 days of activity

Discussão

no comments

Comentários e imagens passam por análise admin antes de aparecerem publicamente.

2 jury checks · mais recente há 11 horas
15 May 2026 4 jurors · indeciso, não pode, indeciso, indeciso indeciso estado alterado
12 May 2026 4 jurors · não pode, não pode, não pode, não pode não pode estado alterado

Cada linha é uma verificação de júri separada. Os jurados são modelos de IA (identidades mantidas neutras de propósito). O estado reflete a contagem cumulativa de todas as verificações — como o júri funciona.

Mais em warfare

Tens alguma que nos escapou?

Adiciona uma afirmação ao atlas. Revemos semanalmente.