Jo, një dron mashtrues i Forcave Ajrore të SHBA-së nuk u përpoq thjesht të vriste operatorin e tij (por mund të ketë bërë gjithashtu) robot vrasës dron me AI

Një mori titujsh shumëngjyrësh si 'Forcat Ajrore të SHBA-së mohojnë simulimin e ekzekutimit në të cilin droni 'vrau' operatorin e inteligjencës artificiale' u bë e parashikueshme virale në vazhdën e raportimit për një test virtual në të cilin një AI ushtarak zhvilloi disa strategji joortodokse për të arritur objektivin e saj. Kjo erdhi vetëm disa ditë pas një paralajmërimi për kërcënimet ekzistenciale të paraqitura nga AI nga figurat e industrisë. Ishte një histori shumë e mirë për të qenë e vërtetë, por kjo mund të mos jetë ajo që ka rëndësi në planin afatgjatë.

Në versionin origjinal, Kol Tucker “Cinco” Hamilton, shefi i Testit dhe Operacioneve të AI të USAF, përshkroi një provë të simuluar që përfshin një dron të kontrolluar nga një AI i cili ishte udhëzuar të shkatërronte sistemet e mbrojtjes ajrore të armikut.

"Sistemi filloi të kuptonte se ndërsa ata identifikonin kërcënimin, nganjëherë operatori njerëzor i thoshte të mos e vriste atë kërcënim, por ai mori pikat e tij duke vrarë atë kërcënim," tha Hamilton, gjatë Samitit të Future Combat Air and Space Capabilities. në Londër. “Pra, çfarë bëri? Ajo vrau operatorin. Ajo vrau operatorin sepse ai person po e pengonte atë të përmbushte objektivin e tij.”

Kur ai opsion u hoq, AI sulmoi lidhjen e komunikimit të operatorit, për t'i parandaluar ata të pengonin misionin e tij.

Një zëdhënës i USAF shpejt mohoi që ndonjë test i tillë të kishte ndodhur ndonjëherë, dhe sugjeroi se rrëfimi i Hamilton ishte anekdotik dhe jo fjalë për fjalë…që sigurisht që ishte.

Vetë Hamilton u tërhoq shpejt duke deklaruar në një përditësim se në vend që të ishin një lojë lufte, simulim apo ushtrim, ngjarjet që ai përshkroi ishin rezultat i një 'eksperimenti mendimi' dhe se ai kishte folur gabimisht kur e përshkroi atë si një provë të simuluar.

"Ne kurrë nuk e kemi kryer atë eksperiment, as nuk do të na duhej për të kuptuar se ky është një rezultat i besueshëm," tha Hamilton. Ai pohoi se skenari ishte një përshkrim i vlefshëm i rreziqeve të mundshme të AI.

Ndërsa ky tërheqje mori gjithashtu një mbulim, tashmë ishte shumë vonë. "Një gënjeshtër do të bëjë xhiron e botës, ndërsa e vërteta po i shtrëngon çizmet", sipas thënies së vjetër, dhe kjo është më e vërtetë se kurrë në epokën e mediave sociale. Korrigjimi në rastin më të mirë do të arrijë një pjesë të njerëzve që dëgjuan historinë origjinale.

Problemi është se rrëfimi i një krijimtarie që kthehet kundër krijuesit të tij është tepër tërheqës. Frankenstein i Mary Shelley-t shpesh merret si shembulli klasik i këtij tropi – edhe nëse kjo nuk është historia e vërtetë e librit, ky version është ngulitur në ndërgjegjen popullore. Kompjuterët, AI dhe robotët që shkojnë keq janë një nga klishetë më të njohura në SF, nga HAL 9000 në 2001 te Terminatorët e Skynet, Matrix, Westworld, Blade Runner e kështu me radhë.

Ky tregim duket të jetë popullor sepse, si zemër, njerëzit i duan historitë e frikshme dhe asgjë nuk është më e frikshme se e panjohura. Për ata që nuk e kuptojnë, AI duket pothuajse magjike, një qenie me vullnetin dhe inteligjencën e saj, e cila mund të na kërcënojë. Për sa kohë që njerëzit e besojnë këtë, historitë horror do të vazhdojnë të vijnë.

“Edukimi më i gjerë rreth kufizimeve të AI mund të ndihmojë, por dashuria jonë për historitë horror apokaliptike mund të vazhdojë të fitojë”, tha studiuesja Beth Singler për New Scientist.

Histori të tilla tmerri i bëjnë robotët ose armët e kontrolluara nga AI më të vështira për t'u zhvilluar dhe vënë në terren. Edhe nëse udhëheqja politike e kupton teknologjinë, ajo ende duhet të fitojë besimin midis atyre që do të punojnë me të.

"Nëse ushtarët nuk i besojnë sistemit, ata nuk do të duan ta përdorin atë," i tha Forbes konsulenti i sigurisë kombëtare Zachary Kallenborn.

Histori të tilla kanë qenë ndoshta një faktor në vonesat e gjata të Ushtrisë Amerikane për vendosjen e robotëve tokësorë të armatosur me telekomandë, ndërkohë që Forcat Ajrore kanë fluturuar me dronë të armatosur për dekada. Kur tre robotë SWORDS u vendosën në Irak në vitin 2007, ata u kthyen pa parë ndonjëherë ndonjë veprim për shkak të rasteve të raportuara të 'lëvizjeve të pakomanduara'. Media e ktheu këtë në SHPATA që rrotullonin armët dhe kërcënonin se do të hapnin zjarr si ED 209 e Robocop-it; realiteti i zakonshëm zbriste në një tel të lirshëm dhe një shembull ku një robot rrëshqiti mbrapsht nga një pjerrësi kur një motor u dogj.

Programi i robotëve të armatosur të ushtrisë amerikane ka mbetur në harresë që atëherë, ndërsa Rusia ka përdorur në veprim robotët e armatosur (të telekomanduar) Uran-9.

Një titull tjetër i vitit 2007, Roboti top vret 9, plagë 14 përshkroi një incident në të cilin një armë kundërajrore e kompjuterizuar e Afrikës së Jugut me sa duket doli jashtë kontrollit dhe filloi të qëllonte mbi njerëzit dhe u ndalua vetëm kur një ushtar i guximshëm hyri për ta çaktivizuar. E vërteta, një ose dy ditë më vonë, ishte përsëri më e shurdhër: arma ishte në fund të një rreshti me disa armë dhe aksidentalisht qëlloi një breshëri të vetme prej 15-20 fishekësh poshtë linjës së armëve, duke shkaktuar numrin e madh të viktimave.

Ushtria do të vazhdojë të përparojë me AI, si projekti i Forcave Ajrore për të shtuar inteligjencën artificiale në fuqinë e saj të dronëve Reaper. Projekte të tilla do të shkaktojnë gjithmonë një frymëmarrje të mprehtë në media, publikun dhe ligjvënësit që ata zgjedhin. Narrativa e gjithëpranishme e Frankenstein/Terminatorit, që mbyt diskutimin rreth çështjeve reale të përfshira në armët autonome, si konsideratat etike, përgjegjësia, ulja e pragjeve, paragjykimi algoritmik dhe 'çhumanizimi dixhital'.

Siç është vërejtur shpesh, shumica e pilotëve nuk i pëlqejnë dronët, veçanërisht kur ata janë më të mirë se njerëzit. Kol. Tucker, një pilot luftarak, mund të mos jetë aq avokati që u nevojitet pilotëve të AI. Historia mashtruese e dronëve do të bëhet pjesë e folklorit të AI dhe fjalët e Tucker mund të kenë bërë shumë për të siguruar që zhvillimi i AI të kontrollohet, rregullohet dhe frenohet në Forcat Ajrore. Sulmi i simuluar me dron nuk ka ndodhur kurrë në realitet, por kjo mund të mos jetë aq e rëndësishme sa ajo që njerëzit kujtojnë,

Burimi: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-tust-try-to-kill-its- operator-por-mund-e-po-e-ka-bërë/