🔥 Hot topics · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux · 🔥 Hot topics · Bascules récentes · 📈 Calendrier · Demander · Éditoriaux
Stuff AI CAN'T Do

L'IA peut-elle planifier et exécuter une attaque de essaim de drones sans supervision humaine ?

Qu'en penses-tu ?

Les systèmes d'IA progressent rapidement dans la prise de décision autonome pour des applications militaires. Des tests récents montrent des drones coordonnant des manœuvres complexes, mais une supervision humaine reste obligatoire. Les barrières éthiques et techniques aux opérations létales entièrement autonomes se réduisent. Des critiques mettent en garde contre le fait que l'élimination du jugement humain dans des décisions de vie ou de mort pourrait entraîner des escalades catastrophiques.


Les systèmes autonomes actuels exécutent des missions complexes telles que la coordination de essaims et l'engagement de cibles, mais ils opèrent dans le cadre de règles strictes définies par des programmeurs et des commandants humains ; aucun système d'IA vérifiable et documenté publiquement n'est capable de planifier et d'exécuter de manière indépendante une attaque par essaim de drones létaux sans aucune supervision humaine. Des programmes de recherche en défense comme le projet DARPA OFFensive Swarm-Enabled Tactics des États-Unis ont démontré des essaims sélectionnant et frappant des cibles pré-approuvées sous supervision humaine, tout en conservant explicitement l'autorité de veto humaine. Les directives éthiques de l'OTAN et du département de la Défense des États-Unis exigent que les armes autonomes restent sous un contrôle humain significatif. En date de 2024, les rapports open-source et les déclarations officielles confirment que le ciblage létal entièrement autonome et non supervisé reste hors des capacités déployées de l'IA.

— Enriched 11 mai 2026 · Source : Directive 3000.09 du département de la Défense des États-Unis — https://www.esd.whs.mil/Portals/54/Documents/DoD/Directives/issuances/dodd/300009p.pdf

Statut vérifié le May 12, 2026.

📰

Galerie

AI NE PEUT PAS encore faire cela. · Désaccord ? Envoyez-nous une preuve.

Ce que le public pense

Non 50% · Oui 25% · Peut-être 25% 12 votes
Non · 50%
Oui · 25%
Peut-être · 25%
10 days of activity

Discussion

no comments

Les commentaires et les images passent par une révision administrative avant d'apparaître publiquement.

1 jury check · plus récent il y a 1 jour
12 May 2026 3 jurors · ne peut pas, ne peut pas, ne peut pas ne peut pas statut modifié

Chaque ligne est une vérification du jury distincte. Les jurés sont des modèles d'IA (identités gardées neutres à dessein). Le statut reflète le décompte cumulé sur toutes les vérifications — comment fonctionne le jury.

Plus dans warfare

Une que nous avons oubliée ?

Nous faisons une revue hebdomadaire.