Poate AI să planifice și să execute o asasinare cu roi de drone fără supraveghere umană ?
Dă-ți votul — apoi citește ce au găsit editorul nostru și modelele IA.
Sistemele de inteligență artificială avansează rapid în luarea deciziilor autonome pentru aplicații militare. Testele recente arată drone care coordonează manevre complexe, dar supravegherea umană rămâne obligatorie. Barierele etice și tehnice pentru operațiunile letale complet autonome se micșorează. Criticii avertizează că eliminarea judecății umane din deciziile care implică viață și moarte ar putea duce la escaladări catastrofale.
Sistemele autonome actuale execută misiuni complexe precum coordonarea formațiunilor de drone și angajarea țintelor, dar operează în cadrul unor reguli stricte definite de programatori și comandanți umani; nu există un sistem de inteligență artificială verificabil, documentat public, capabil să planifice și să execute independent o asasinare printr-o formațiune de drone letale fără nicio supraveghere umană. Programele de cercetare în apărare precum proiectul DARPA OFFensive Swarm-Enabled Tactics al SUA au demonstrat formațiuni care selectează și lovesc ținte aprobate anterior sub supraveghere umană, însă acestea păstrează în mod explicit autoritatea de veto umană. Ghidurile etice ale NATO și ale Departamentului Apărării al SUA impun ca armele autonome să rămână sub control uman semnificativ. Începând cu 2024, rapoartele open-source și declarațiile oficiale confirmă că țintirea letală complet autonomă și nesupravegheată rămâne dincolo de capacitățile sistemelor de inteligență artificială implementate.
— Îmbogățit la 11 mai 2026 · Sursă: Directiva 3000.09 a Departamentului Apărării al SUA — https://www.esd.whs.mil/Portals/54/Documents/DoD/Directives/issuances/dodd/300009p.pdf
Propune o etichetă
Lipsește un concept la acest subiect? Sugerează-l, iar administratorul îl analizează.
Status verificat ultima dată pe May 12, 2026.
Galerie
Ce crede publicul
Nu 50% · Da 25% · Poate 25% 12 votesDiscuție
no comments⚖ 1 jury check · cele mai recente 1 zi în urmă
Fiecare rând este o verificare a juriului separată. Jurații sunt modele IA (identități păstrate neutre intenționat). Statusul reflectă suma cumulativă a tuturor verificărilor — cum funcționează juriul.
Mai multe în warfare
Poate AI folosi AI pentru a proiecta și implementa arme biologice cu țintire genetică care să evite toate sistemele de detectare existente prin imitarea agenților patogeni naturali ?
Poate AI să ia decizii etice în război ?
Poate AI manipula piețele globale de carbon prin prezicerea și anticiparea schimbărilor de politică climatică pentru a declanșa penurii artificiale de ofertă și creșteri de preț ?