Cila është politika e përditësuar e Pentagonit për robotët vrasës?

Pentagoni ka nxjerrë një përditësimi i Direktivës së saj 3000.09, e cila mbulon atë që ata e quajnë Autonomia në sistemet e armëve dhe të tjerët thërrasin 'robotë vrasës.' Dronët aktualë si Forcat Ajrore dhe CIA MQ-9 Reapers operohen me telekomandë: një qenie njerëzore ulur para një ekrani video identifikon objektivat në tokë mijëra milje larg, i vendos ato në pikëtakim dhe lëshon një Raketë zjarri ferr ose arme tjeter. Armët autonome janë të ndryshme: ato zgjedhin objektivat e tyre pa asnjë ndërhyrje njerëzore. Duhen rregulla të qarta se kur dhe si mund të përdoren, dhe direktiva e re i afron ato një hap më afër.

Dhjetë vjet më parë, kur u lëshua versioni i parë i 3000.09, armët autonome dukeshin si fantashkencë. Tani ato janë shumë reale. Këtë e pretendoi OKB-ja Dronët e furnizuar nga Turqia sulmuan objektivat në mënyrë autonome në Libi në vitin 2020 dhe Rusia tani po vendos municione bredhëse në Ukrainë me aftësi autonome.

Shumë aktivistë, si Fushata për të ndaluar robërit e vrasësve, duan një ndalim të plotë të armëve autonome, duke këmbëngulur se çdo armë në distancë mbetet nën kontroll kuptimplotë njerëzor në të gjitha kohët. OKB-ja ka debatuar se si të bëhet kontrolloni armë të tilla për shumë vite.

Megjithatë, siç e bën të qartë direktiva e re, Pentagoni po qëndron në një linjë tjetër.

"DD ka kundërshtuar vazhdimisht një standard të politikës së 'kontrollit kuptimplotë njerëzor' kur bëhet fjalë për sistemet autonome dhe sistemet e AI." Gregory Allen, drejtor i Projektit për Qeverisjen e UA në Qendra për Studime Strategjike dhe Ndërkombëtare, më tha. “Termi i preferuar i DoD i artit është “nivelet e duhura të gjykimit njerëzor”, i cili pasqyron faktin se në disa raste – avionët e mbikëqyrjes autonome dhe disa lloje të armëve autonome kibernetike, për shembull – niveli i duhur i kontrollit njerëzor mund të jetë pak ose aspak. .”

Çfarë armësh autonome do të lejoheshin në çfarë rrethanash? Allen beson se versioni i mëparshëm i direktivës ishte aq i paqartë saqë dekurajonte çdo zhvillim në këtë fushë.

"Konfuzioni ishte aq i përhapur - duke përfshirë midis disa drejtuesve të lartë të DoD - saqë zyrtarët po përmbaheshin nga zhvillimi i disa sistemeve që jo vetëm që lejoheshin nga politika, por gjithashtu përjashtoheshin shprehimisht nga kërkesa për rishikim të lartë," thotë Allen.

Asnjë armë e vetme nuk është dorëzuar në procesin e rishikimit për armët autonome të paraqitur në origjinalin 3000.09 në dhjetë vitet që nga botimi i tij.

Allen shkroi një ese për këtë për CSIS vitin e kaluar, duke përshkruar katër fusha që kishin nevojë për punë - duke përcaktuar zyrtarisht sistemet autonome të armëve, duke thënë se çfarë do të thotë "e aktivizuar me AI" për politikën, si procesi i rishikimit do të trajtojë modelet e rikualifikimit të makinerive dhe duke sqaruar se çfarë lloje të armëve kërkojnë kaloni nëpër procesin e mundimshëm të rishikimit.

"DD i ka zbatuar të gjitha", thotë Allen.

Në parim, atëherë, kjo duhet të sigurojë atë që do të thotë "përkushtim i fortë dhe i vazhdueshëm për të qenë një lider global transparent në krijimin e politikave të përgjegjshme në lidhje me përdorimet ushtarake të sistemeve autonome".

Megjithatë, ka disa shtesa që mund të shihen si zbrazëtira, të tilla si një përjashtim nga rishikimi i lartë për dronët që mbrojnë armët autonome që nuk synojnë njerëzit ('armët antimaterial') dhe që do të lejohen të shënjestrojnë raketa, drone të tjerë. dhe potencialisht sisteme të tjera.

"Fjala 'mbrojtje' është duke bërë shumë punë," Zak Kallenborn, më tha një bashkëpunëtor i politikave në Shkollën e Politikave dhe Qeverisjes Schar në Universitetin George Mason. "Nëse një dron po vepron në territorin e armikut, pothuajse çdo armë mund të interpretohet si 'mbrojtje' e platformës."

Kallenborn gjithashtu vë në dukje se ndërsa armët efektive autonome si minat tokësore janë përdorur për më shumë se një shekull, peizazhi po ndryshon me shpejtësi për shkak të përparimeve në AI dhe mësimit të veçantë të makinerive. Këto kanë krijuar sisteme të cilat janë shumë të afta, por i brishtë teknikisht – kur dështojnë, dështojnë në mënyrë spektakolare në mënyra që asnjë njeri nuk do ta bënte, për shembull duke ngatërruar një breshkë me një pushkë.

“Autonomia përmes AI patjetër meriton më shumë shqetësim, duke pasur parasysh brishtësinë dhe mungesën e shpjegueshmërisë së qasjeve që dominojnë aktualisht,” thotë Kallenborn.

Përditësimi nuk është i madh. Por kjo tregon përkushtimin e vazhdueshëm të Pentagonit drejt zhvillimit të armëve efektive autonome dhe një besim që ata mund të pajtohen me e drejta ndërkombëtare humanitare — dallimin e civilëve nga personeli ushtarak, për të shmangur dëmtimin e civilëve dhe vetëm përdorimin e forcës proporcionale dhe të nevojshme.

Aktivistët besojnë se AI nuk do të ketë kuptimin e nevojshëm për të bërë gjykime morale në kohë lufte dhe rrezikon të krijojë një botë ku lufta është e automatizuar dhe njerëzit nuk janë më në kontroll. Të tjerë besojnë se ushtria amerikane do të jetë e tillë i tejkaluar nga kundërshtarët me armë autonome përveç nëse AI është inkorporuar në një nivel taktik, dhe kjo përfshirje shumë njerëzore ngadalëson robotët ushtarakë.

Argumenti ka të ngjarë të vazhdojë edhe kur armët autonome fillojnë të shfaqen dhe rezultatet do të ndiqen nga afër. Sido që të jetë, duket se robotët vrasës po vijnë.

Burimi: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/