Etika e AI duke luftuar me goditjen e zjarrtë një-dy të të dy sistemeve të armëve autonome të bazuara në AI dhe shfrytëzimin e sistemeve autonome të drejtuar nga AI që janë armatosur në mënyrë djallëzore

Ata robotë të mrekullueshëm që kërcejnë me katër këmbë.

Jam i sigurt që i keni parë ato video virale të sistemeve robotike me katër këmbë që kërcejnë dhe kërcejnë në mënyra të dashura në dukje të lezetshme dhe si qeni. Duket se na pëlqen t'i shohim ata robotë të drejtuar nga AI teksa ngjiten mbi pengesa dhe duket se fitojnë një bazë delikate kur vendosen në majë të kutive ose pasi janë vendosur në mënyrë të pasigurt në majat e kabineteve. Trajtuesit e tyre njerëzorë nganjëherë godasin ose shtyjnë robotët me katër këmbë, gjë që duket jashtëzakonisht e padrejtë dhe mund të ngrejë lehtësisht inatin tuaj ndaj trajtimit të ashpër nga ata humanoidë truri.

Po pyes veten nëse i keni parë videot jo aq virale të një kalibri krejtësisht të ndryshëm.

Përgatituni.

Ka video të postuara gjerësisht që tregojnë të njëjtin lloj robotësh me katër këmbë që janë pajisur me armë të theksuara të një lloji ose tjetër.

Për shembull, një mitraloz ose një armë zjarri e ngjashme është montuar në majë të një roboti të njohur që kërcen dhe kërcen. Ekziston një lidhje elektronike midis robotit me katër këmbë dhe mekanizmit të qitjes së armës. Mjeti kompjuterik i armatosur që ecën tani tregohet duke ecur drejt vendit ku është vendosur një shënjestër bullseye dhe mitralozi është gjuajtur me zjarr ndaj objektivit. Pas gozhdimit të objektivit të shkatërruar pjesërisht më pas, roboti me katër këmbë kërcen dhe kërcen rreth pengesave aty pranë dhe rreshtohet për të përsëritur të njëjtin veprim pa pushim në objektiva të tjerë të freskët.

Jo aq sa mund të kishit pritur të shihni. Kjo sigurisht e merr mendjen e lehtë dhe gëzimin relativ nga shikimi i sinqertë i atyre robotëve të përkëdhelur me katër këmbë që bëjnë gjënë e tyre. Mirë se vini në realitetin e ashpër të dukjes i padëmshëm sistemet autonome duke u konvertuar ose transformuar në armë të mprehta. Me shumë përpjekje, mund të keni brenda natës një sistem autonom të konsideruar "të paarmatosur" të riparuar për të përmbajtur armatim të plotë.

Është pothuajse e lehtë në disa rrethana.

Unë do të diskutoj këtë temë shumë të diskutueshme dhe do të mbuloj shqetësimet mjaft të mëdha të Etikës së AI që lindin. Ne do të bëjmë një udhëtim në sistemet autonome, AI, automjete autonome, armatim dhe një mori çështjesh luftarake të lidhura me AI. Për mbulimin tim të vazhdueshëm dhe të gjerë të Etikës së AI dhe AI ​​Etike, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Le të fillojmë me disa gurë themelorë.

Për hir të diskutimit, pranoni se ekzistojnë dy mënyra kryesore për të kategorizuar sistemet autonome që janë armatosur me armatim:

1) Sistemet Autonome të Armëve (sipas dizajnit)

2) Sistemet autonome që janë armatosur (nga fakti i mëvonshëm)

Ekziston një ndryshim i rëndësishëm midis dy kategorive.

Në radhë të parë, ne do të përcaktojmë një sistemi autonom i armëve të jetë që nga fillimi një krijim i kompjuterizuar që synohet qëllimisht të jetë një armë. Zhvilluesit kishin parasysh se donin të krijonin një armë. Kërkimi i tyre i qartë është të prodhojnë një armë. Ata e dinin se mund të kombinonin në mënyrë integrale armatimin me teknologjitë më të fundit të sistemeve autonome. Kjo është një armë që kalëron mbi valën e teknologjisë së lartë që arrin lëvizje autonome dhe veprime autonome (do të shtjelloj më gjerësisht, së shpejti).

Në të kundërt, në shkallën e dytë, ne do të shqyrtojmë çështjen e sistemeve autonome që nuk kanë fare anim të veçantë ndaj armatimit. Këto janë sisteme autonome që zhvillohen për qëllime të tjera. Imagjinoni një automjet autonome të tillë si një makinë vetëdrejtuese që do të përdoret për të ofruar lëvizshmëri për të gjithë dhe për të ndihmuar në reduktimin e mijëra vdekjeve vjetore që ndodhin për shkak të automjeteve që drejtohen nga njerëzit dhe ato që drejtohen nga njerëzit (shih mbulimin tim të thelluar në lidhja këtu). Nuk duket se është një armë në konsideratë për ata optimistë që rritin përpjekjet shoqërore për t'i nxjerrë njerëzit nga pas timonit dhe për të vendosur AI në sediljen e shoferit.

Por ato sisteme autonome të padëmshme mund të armatosen nëse njerëzit duan ta bëjnë këtë.

I referohem kësaj kategorie të dytë atëherë si sistemet autonome që janë armatosur. Sistemi autonom u krijua fillimisht dhe me devotshmëri për një qëllim të supozuar joarmatologjik. Përkundër kësaj, shpresa altruiste e ëndërruar përmbyset nga dikush diku që merr idenë bezdisëse se kjo trillim mund të armatosej. Papritur, sistemi autonom që dukej i përkëdhelur është bërë një armë vdekjeprurëse duke etiketuar disa forma të aftësive të armëve (siç janë robotët me katër këmbë të ngjashme me qentë, të përmendur më parë, të cilët kanë një mitraloz ose armë zjarri të ngjashme të shtuar në veçoritë e tyre) .

Mjerisht, të dy kategoritë përfundojnë disi në të njëjtin vend, përkatësisht duke siguruar një kapacitet të përdorimit të sistemeve autonome për armatim mbi një bazë potencialisht vdekjeprurëse.

Procesi i arritjes në atë pikë përfundimtare ka të ngjarë të jetë i ndryshëm.

Për sistemet autonome plotësisht të armatosura që ishin të lidhura si armë, aspektet e armatimit janë zakonisht përpara dhe qendrës. Ju mund të thoni se aspektet e sistemit autonom janë mbështjellë rreth gurthemelit të çfarëdo arme që po shqyrtohet. Procesi i të menduarit nga zhvilluesit është disi në linjën se si një armë mund të shfrytëzojë ardhjen e sistemeve autonome.

Perspektiva tjetër zakonisht nuk është aspak e asaj mendësie. Zhvilluesit duan të nxjerrin një sistem autonom të teknologjisë së fundit, ndoshta për të mirën e njerëzimit. Këta zhvillues vënë zemrën dhe shpirtin e tyre më të sinqertë në krijimin e sistemit autonom. Ky është thelbi i shpikjes së tyre. Ata nuk mund të imagjinojnë se dikush do të uzurponte ose do të përmbyste mjetin e tyre mrekullisht të dobishëm. Ata janë të dashuruar në mënyrë të lumtur me përfitimet shoqërore që lidhen me formimin dhe prodhimin e sistemit autonom.

Në një moment, le të themi se palët e treta e kuptojnë se sistemi autonom mund të rikrijohet për t'u armatosur. Ndoshta ata i mashtrojnë zhvilluesit për t'i lënë ata të kenë sistemin autonom për ato që pretendohet se janë qëllime të larta. Pas dyerve të mbyllura, këta keqbërës zgjedhin të shtojnë në mënyrë të fshehtë një kapacitet armatimi në sistemin autonom. Voila, pafajësia u kthye në armatim të plotë.

Gjërat nuk duhet të ecin në atë mënyrë.

Ndoshta zhvilluesve iu tha se po zhvillonin një sistem autonom të pafajshëm, megjithatë ata që financonin ose drejtonin përpjekjet kishin qëllime të tjera në mendje. Ndoshta përpjekja e sistemit autonom filloi me të vërtetë pa faj, por më pas kur u desh të paguheshin faturat, udhëheqja ndërpreu një marrëveshje me një burim financimi që kërkon sistemet autonome për arsye të ndyra. Një mundësi tjetër është që zhvilluesit e dinin se një përdorim i mëvonshëm mund të ishte për armatim, por se ata menduan se do të kalonin atë urë pikëlluese kur ose nëse do të lindte ndonjëherë. etj.

Ka shumë e shumë shtigje të ndryshme se si funksionon e gjithë kjo.

Ju mund të gjeni interes që kam përshkruar në kolonat e mëparshme se ka një ndërgjegjësim në rritje për Etikën e AI në lidhje me përdorim të dyfishtë elementet e AI bashkëkohore, shih lidhja këtu. Më lejoni t'ju tregoj shkurtimisht.

Një sistem i AI që parashikohet për të mirën mund të jetë ndonjëherë në prag të së keqes, ndoshta nëpërmjet disa ndryshimeve mjaft të thjeshta, dhe përkatësisht konsiderohet si i një natyre me përdorim të dyfishtë. Në lajmet kohët e fundit ishte një sistem AI që u ndërtua për të zbuluar kimikate që mund të ishin vrasës, për të cilat zhvilluesit donin të siguroheshin se ne mund të shmangnim ose të jemi të kujdesshëm ndaj kimikateve të tilla të konceptuara keq. Rezulton se AI mund të modifikohet disi lehtësisht për të zbuluar me përkushtim ato kimikate vrasëse dhe kështu potencialisht të lejojë të këqijtë të dinë se çfarë lloje kimikatesh mund të gatuajnë për planet e tyre të këqija të djallëzuara.

Sistemet autonome mund të përshtaten në mënyrë të dukshme në atë mbulesë me përdorim të dyfishtë.

Në një farë mase, kjo është arsyeja pse Etika e AI dhe UA Etike janë një temë kaq e rëndësishme. Rregullat e Etikës së AI na bëjnë të qëndrojmë vigjilentë. Teknologët e AI ndonjëherë mund të preokupohen me teknologjinë, veçanërisht me optimizimin e teknologjisë së lartë. Ata nuk janë domosdoshmërisht duke marrë parasysh degëzimet më të mëdha shoqërore. Të kesh një mentalitet të Etikës së AI dhe ta bësh këtë në mënyrë integrale në zhvillimin dhe zbatimin e AI është jetike për prodhimin e AI të përshtatshme, duke përfshirë (ndoshta çuditërisht ose në mënyrë ironike) vlerësimin se si Etika e AI adoptohet nga firmat.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Në fakt, ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të nënvlerësojmë patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Autonomia dhe arma si dy parime

Ekziston një frazë tërheqëse që disa po e përdorin për të paralajmëruar në lidhje me sistemet autonome të armatosura të të gjitha llojeve, të cilat janë krijuar kolektivisht si thertore.

Kjo sjell një aspekt shtesë që duhet ta shqyrtojmë.

A duhet që një sistem autonom i armëve dhe/ose një sistem autonom që është armatosur të jetë mbizotërues i një roboti vdekjeprurës ose vrasës?

Disa do të argumentonin se ne mund të kishim me vendosmëri jo vdekjeprurëse Sistemet autonome të armatosur gjithashtu. Kështu, në këtë këndvështrim, do të dukej thellësisht e papërshtatshme të përdoren fraza të tilla si slaughterbots ose robots vrasës. Një variant jo vdekjeprurës me sa duket do të ishte në gjendje të nënshtrojë ose të sjellë dëm që nuk është me një rezultat vdekjeprurës. Këto sisteme të tilla nuk po vrasin, ato janë me një kapacitet më të vogël të gjenerimit të lëndimeve. Mos i mbivlerësoni aftësitë, thonë ata që këmbëngulin se nuk duhet të jemi të preokupuar me një makinë vrasëse të drejtpërdrejtë.

Kështu, ne mund të kemi këtë:

  • Sistemet vdekjeprurëse të armëve autonome
  • Sisteme autonome vdekjeprurëse që janë armatosur
  • Sisteme të armëve autonome jo-vdekjeprurëse
  • Sisteme autonome jo vdekjeprurëse që janë armatosur

Sigurisht, kundërargumenti është se çdo sistem autonom që është armatosur do të duket se ka potencialin për të rrëshqitur në sferën e vdekjes, edhe nëse supozohet se do të përdoret vetëm në një bazë jo-vdekjeprurëse. Dy hapi në rritje i kalimit nga jo-vdekjeprurës në vdekjeprurës do të ndërmerret shpejt pasi të keni marrë tashmë në dorë një armë mes një sistemi autonom. Ju do të jeni të vështirë të jepni një garanci të hekurt që jovdekjeprurësi nuk do të jetë futur në arenën vdekjeprurëse (edhe pse disa po përpiqen ta bëjnë këtë, në një dukje matematikore).

Përpara se të futemi shumë më tej në këtë temë të përgjithshme të sistemeve autonome dhe armatimit, mund të jetë e dobishme të theksojmë diçka tjetër që edhe pse e dukshme nuk është domosdoshmërisht e dukshme në mendje.

Ja ku eshte:

  • Ekziston një aspekt i AI që është pjesë përbërëse e sistemit autonom
  • Ekziston një aspekt i armatimit që është ana e armatimit të këtij ekuacioni
  • UA mund të jetë gjithashtu e ndërlidhur me armatimin

Le ta shpaketojmë atë.

Ne do të supozojmë se sistemet autonome të sotme kërkojnë AI si mjetin themelor të kompjuterizuar për të nxjerrë në pah aspektet autonome. E përmend këtë sepse mund të përpiqeni të argumentoni se ne mund të përdorim teknologji dhe teknika që nuk lidhen me AI për të bërë sistemet autonome, të cilat megjithëse të vërteta, do të dukeshin gjithnjë e më pak të mundshme. Në thelb, AI tenton të lejojë nivele më të mëdha autonomie, dhe shumica po përdorin teknologjinë e lartë të AI në përputhje me rrethanat.

Në rregull, kështu që ne kemi një aftësi të bazuar në AI që futet disi brenda sistemit autonom dhe vepron për të udhëhequr dhe kontrolluar sistemin autonom.

Mbajeni atë në majë të gishtave si rregull.

Duket lehtësisht e qartë se ne gjithashtu duhet të kemi një formë armatimi, përndryshe pse po diskutojmë këtu temën e sistemeve autonome armët. Pra, po, padyshim, ekziston një armë e një lloji apo tjetër.

Unë nuk do të thellohem në llojin e armatimit që mund të përdoret. Ju thjesht mund të zëvendësoni çfarëdo arme që ju vjen në mendje. Mund të ketë armatim të saktë. Mund të ketë armë shkatërruese të orientuara në masë. Mund të jetë diçka me plumba ose predha. Mund të jetë diçka që ka kimikate ose përbërës të paqëndrueshëm atomikë. Lista është e pafund.

Një konsideratë shtesë është nëse AI është apo jo i ndërlidhur me armatimin. Inteligjenca artificiale mund të jetë thjesht duke marrë armët për një udhëtim. Në rastin e robotit me katër këmbë që gjuante një armë, ndoshta arma po shkrep nga një njeri që ka një telekomandë të lidhur me ndezjen e armës. Roboti i ngjashëm me qenin navigon në një skenë dhe më pas i takon një njeriu të largët të tërheqë këmbëzën.

Nga ana tjetër, AI mund të jetë tërheqësi i këmbëzës, si të thuash. Inteligjenca artificiale mund të jetë krijuar jo vetëm për të lundruar dhe manovruar, por edhe për të aktivizuar armën. Në këtë kuptim, AI po bën gjithçka nga A në Z. Nuk ka asnjë varësi nga një njeri i largët për të kryer anën e armëve të gjërave. AI është programuar për ta bërë këtë në vend të kësaj.

Për të sqaruar atëherë në këtë rast të veçantë përdorimi të sistemeve autonome që janë armatosur, ne kemi këto lloj mundësish:

  • Sistemi autonom: AI drejton sistemin autonom tërësisht më vete
  • Sistemi autonom: Inteligjenca artificiale drejton sistemin autonom, por mund të ndërhyjë edhe një njeri-in-the-loop
  • Armët: Njeriu i largët drejton armët (AI jo)
  • Armët: Inteligjenca artificiale drejton armët, por mund të ndërhyjë edhe një njeri-in-the-loop
  • Armët: AI i drejton armët tërësisht më vete

Unë kam mbuluar më parë variacionet e të paturit të një njeriu-in-the-loop në lidhje me sistemet autonome dhe automjetet autonome, shih lidhja këtu.

Kur shikoni ato video të orientuara drejt argëtimit të robotëve me katër këmbë që kërcejnë dhe tallin, ata zakonisht supozohet të jenë robotë që drejtohen ekskluzivisht në mënyrë lundruese nga AI (epo, ky është zakon ose konsiderohet etiketa e duhur midis atyre që janë thellësisht në këto çështje). Kjo është ajo që ju gjithashtu mund të supozoni me të drejtë. Sigurisht, ju nuk e dini këtë me siguri. Mund të ndodhë që një operator njerëzor në distancë po i drejton robotët. Ekziston gjithashtu një mundësi që AI të bëjë një pjesë të drejtimit, dhe një operator njerëzor në distancë gjithashtu e bën këtë, ndoshta duke ndihmuar AI nëse roboti futet në një pozicion të vështirë dhe nuk mund të llogarisë në mënyrë llogaritëse një mjet të zbatueshëm për t'u lëvizur i lirë.

Thelbi këtu është se ka shumë shije se si AI dhe sistemet autonome dhe armatimi mund të përzihen. Disa kanë AI që drejton sistemin autonom, por nuk përdor armatimin. Një njeri ndoshta drejton armët nga distanca. Një kënd tjetër është se armatimi mund të aktivizohet paraprakisht, dhe sistemi autonom dorëzon armën e aktivizuar, kështu që AI nuk mori pjesë drejtpërdrejt në ndezjen e armës në vetvete dhe në vend të kësaj vepronte si një mjet transporti. Dhe mund të ndodhë që AI është një proverbial i të gjitha tregjeve dhe bën të gjithë gamën e aspekteve të sistemit autonom edhe në përdorimin e armatimit.

Merrni zgjedhjen tuaj.

Ndërkohë, ju lutemi ta dini se njeriu-in-the-loop është një faktor i madh kur bëhet fjalë për debatet mbi këtë temë.

Një vijë ndarëse nga disa është se nëse AI është duke bërë shënjestrimin dhe gjuajtjen (ose çfarëdo qoftë arma që përfshin), atëherë i gjithë kompleti dhe kutia ka kaluar në tokë pa asnjë. Kjo në dukje ndryshon nga armët konvencionale "zjarr dhe harro" që kanë një përzgjedhje të synuar paraprakisht të përcaktuar nga njeriu, siç është një dron patrullues që ka një raketë gati për të gjuajtur në një objektiv që ishte tashmë zgjedhur nga një njeri.

Disa pyesin se pse sistemet autonome që janë armatosur nuk do të përfshinin gjithmonë një njeri në lak gjatë gjithë procesit të sistemit autonom në një status në zhvillim aktiv. Duket sikur ne mund të ishim më mirë nëse një kërkesë e rreptë do të ishte që të gjitha sistemet e tilla autonome të armatosur duhet të kishin një njeri në lak, ose duke e bërë këtë për funksionimin e sistemit autonom ose për operimin e armatimit (ose për të dyja) . Mbajtja e një dore njerëzore të supozuar të sigurt dhe të qëndrueshme në këtë përzierje të AI mund të duket krejtësisht mendjemprehtë.

Përgatituni për një listë të gjatë arsyesh pse kjo nuk është domosdoshmërisht e realizueshme.

Merrni parasysh këto vështirësi:

  • Human-in-the-loop mund të mos jetë aq i shpejtë sa të përgjigjet në kohë
  • Human-in-the-loop mund të mos ketë informacion të mjaftueshëm për t'u përgjigjur me kujdes
  • Human-in-the-loop mund të mos jetë i disponueshëm në kohën e nevojshme
  • Human-in-the-loop mund të jetë i pavendosur dhe nuk do të veprojë kur të jetë e nevojshme
  • Njeriu në lak mund të marrë vendimin "të gabuar" (relativisht)
  • Human-in-the-loop mund të mos jetë i aksesueshëm nga sistemi në kohën e nevojshme
  • Njeriu-in-the-loop mund të ngatërrohet dhe të mbingarkohet
  • Etj

Ju jeni padyshim të tunduar të shikoni atë listë të dobësive dhe kufizimeve njerëzore dhe më pas të arrini në përfundimin solemn se ka kuptim të qartë të akcizoni njeriun në lak dhe gjithmonë në vend të kësaj të përdorni AI. Kjo mund të jetë ose me përjashtim të human-in-the-loop ose ndoshta AI të jetë në gjendje të anashkalojë një dizajn të rrënjosur njeriu-në-the-loop. Shihni analizën time se si mosmarrëveshjet midis AI dhe një njeriu-in-the-loop mund të çojnë në situata të pasigurta, të mbuluara në lidhja këtu.

Shpesh, një listë nënçmuese e këtyre llojeve të anëve negative në kohë reale të përqendruara te njeriu lihet vetë dhe lë një përshtypje të vazhdueshme se AI duhet të jetë disi një zgjedhje shumë më e mençur sesa të kesh një njeri në lak. . Mos bini në atë grackë të pabesë. Përfshihen kompromise kthjellta.

Merrni parasysh këto pasoja të AI:

  • AI mund të ndeshet me një gabim që e bën atë të devijojë
  • AI mund të mbingarkohet dhe të bllokohet pa përgjigje
  • AI mund të përmbajë gabime zhvilluesish që shkaktojnë sjellje të çrregullt
  • Inteligjenca artificiale mund të jetë e korruptuar me virusin e implantuar keqbërës
  • AI mund të merret përsipër nga hakerat kibernetikë në kohë reale
  • Inteligjenca artificiale mund të konsiderohet e paparashikueshme për shkak të kompleksitetit
  • AI mund të marrë në mënyrë llogaritëse vendimin "të gabuar" (relativisht)
  • Etj

Unë besoj se ju mund të shihni se ka shkëmbime midis përdorimit të një njeriu-in-the-loop kundrejt të qenit të varur vetëm në AI. Në rast se tundoheni të sugjeroni se zgjidhja e gatshme është të përdorni të dyja, thjesht do të doja të theksoja se mund të përfitoni më të mirën nga të dy botët, por gjithashtu mund të merrni më të keqen nga të dy botët. Mos supozoni se do të jetë gjithmonë dhe me siguri më i miri i të dy botëve.

Ju mund të jeni befasuar disi nga një nga dobësitë e mësipërme të AI, veçanërisht se AI mund të jetë paparashikueshme. Jemi mësuar të besojmë se AI supozohet të jetë rreptësisht logjike dhe matematikisht e saktë. Si i tillë, ju gjithashtu mund të prisni që AI do të jetë plotësisht i parashikueshëm. Ne supozohet të dimë saktësisht se çfarë do të bëjë AI. Periudha, fundi i tregimit.

Na vjen keq që shpërtheu atë balonë, por ky mit i parashikueshmërisë është një emërtim i gabuar. Madhësia dhe kompleksiteti i inteligjencës artificiale të ditëve moderne është shpesh një gjë e keqe që kundërshton të qenit krejtësisht i parashikueshëm. Kjo po shihet në zhurmat Etike të AI rreth disa përdorimeve të sotme të Mësimit të Makinerisë (ML) dhe të Mësimit të Thellë (DL). Unë do të shpjegoj pak më shumë për momentin.

Gjithashtu, ju mund të dëshironi të hidhni një vështrim në analizën time më të fundit të tendencave të ardhshme drejt përpjekjes për të siguruar sisteme të inteligjencës artificiale të verifikueshme dhe të vërtetueshme matematikisht nëpërmjet më të fundit në sigurinë e AI, në lidhja këtu.

Duke përfolur mbi rregullat e rrugës

Kisha përmendur nocionin e objektivave dhe shënjestrimin, që është një pjesë terminologjie mjaft e ngarkuar që meriton vëmendje të madhe.

Mund ta mendojmë këtë:

  • Objektivat që janë njerëzit
  • Objektivat që nuk janë njerëz, por janë krijesa të gjalla
  • Objektivat që interpretohen si pronë

Supozoni se kemi një sistem autonom që është armatosur. AI përdoret për të drejtuar sistemin autonom dhe përdoret për armatim. Inteligjenca artificiale bën gjithçka nga A në Z. Nuk ka asnjë dispozitë për një person-in-the-loop. Për sa i përket shënjestrimit, AI do të zgjedhë objektivat. Nuk ka një paracaktim që është krijuar nga njerëzit. Në vend të kësaj, AI është programuar për të konstatuar përgjithësisht nëse ka njerëz që do të synohen (ndoshta skanimi për veprime armiqësore, lloje të caktuara uniformash, e kështu me radhë).

Me mua për këtë deri tani?

Ky skenar është pothuajse ai që shkakton më shumë protesta për sistemet autonome të armatosur.

Shqetësimi i deklaruar është se AI po bën (të paktën) tre gjëra që nuk duhet të lejohet t'i bëjë:

  • Synimi i njerëzve si objektiva
  • Synimi pa përdorimin e një njeriu-in-the-loop
  • Duke vepruar potencialisht e paparashikueshmely

Vini re se ka një përmendje të theksuar të shqetësimeve për faktin se AI është i paparashikueshëm. Mund të ndodhë që megjithëse AI ishte programuar për të synuar disa lloje njerëzish, programimi i AI nuk është ai që menduam se ishte, dhe AI ​​përfundon duke synuar "miqtë" përveç atyre që AI supozohej të interpretonte si "armiqësorë". ” (ose, ndoshta në vend të). Për më tepër, edhe nëse zgjedhim të përfshijmë një dispozitë human-in-the-loop, paparashikueshmëria e AI mund të nënkuptojë se kur AI supozohet të komunikojë me njeriun në lak, ajo dështon të bëjë kështu dhe vepron pa asnjë ndërhyrje njerëzore.

Ju mund të gjeni me interes që Komiteti Ndërkombëtar i Kryqit të Kuq (KNKK) ka ofruar një pozicion gjithëpërfshirës me tre pika në lidhje me sistemet autonome të armëve që shtjellon këto lloje shqetësimesh (sipas faqes së internetit të KNKK):

1. “Sistemet e paparashikueshme të armëve autonome duhet të rregullohen shprehimisht nga, veçanërisht për shkak të efekteve të tyre pa dallim. Kjo do të arrihej më së miri me një ndalim të sistemeve autonome të armëve që janë projektuar ose përdorur në një mënyrë të tillë që efektet e tyre nuk mund të kuptohen, parashikohen dhe shpjegohen mjaftueshëm.”

2. “Në dritën e konsideratave etike për të mbrojtur njerëzimin dhe për të mbështetur rregullat e së drejtës humanitare ndërkombëtare për mbrojtjen e civilëve dhe luftëtarëve hors de combat, Përdorimi i sistemeve autonome të armëve për të synuar qeniet njerëzore duhet të përjashtohet. Kjo do të arrihej më së miri përmes një ndalimi të sistemeve autonome të armëve që janë projektuar ose përdoren për të aplikuar forcë kundër personave.”

3. “Për të mbrojtur civilët dhe objektet civile, për të respektuar rregullat e së drejtës ndërkombëtare humanitare dhe për të mbrojtur njerëzimin, dizajni dhe përdorimi i sistemeve autonome të armëve që nuk do të ndaloheshin duhet të rregullohen, duke përfshirë një kombinim të: kufizimet në llojet e objektivit, të tilla si kufizimi i tyre në objekte që janë objektiva ushtarakë nga natyra; kufizimet në kohëzgjatjen, shtrirjen gjeografike dhe shkallën e përdorimit, duke përfshirë mundësinë e gjykimit dhe kontrollit njerëzor në lidhje me një sulm specifik; kufizimet në situatat e përdorimit, të tilla si kufizimi i tyre në situata ku civilët ose objektet civile nuk janë të pranishëm; rkërkesat për ndërveprimin njeri-makinë, veçanërisht për të siguruar mbikëqyrje efektive njerëzore, dhe ndërhyrje dhe çaktivizim në kohë.”

Në një këndvështrim të ngjashëm, Kombet e Bashkuara (OKB) përmes Konventës për Armët e caktuara Konvencionale (CCW) në Gjenevë kishin vendosur njëmbëdhjetë Parime Udhëzuese jodetyruese mbi Armët Autonome Vdekjeprurëse, sipas raportit zyrtar të postuar në internet (duke përfshirë referenca për Humanitarin Ndërkombëtar Ndërkombëtar përkatës Ligji ose dispozitat e DNH):

(a) E drejta ndërkombëtare humanitare vazhdon të zbatohet plotësisht për të gjitha sistemet e armëve, duke përfshirë zhvillimin dhe përdorimin e mundshëm të sistemeve të armëve autonome vdekjeprurëse;

(b) Përgjegjësia njerëzore për vendimet mbi përdorimin e sistemeve të armëve duhet të mbahet pasi përgjegjësia nuk mund të transferohet te makineritë. Kjo duhet të merret parasysh gjatë gjithë ciklit jetësor të sistemit të armëve;

(c) Ndërveprimi njeri-makinë, i cili mund të marrë forma të ndryshme dhe të zbatohet në faza të ndryshme të ciklit jetësor të një arme, duhet të sigurojë që përdorimi i mundshëm i sistemeve të armëve të bazuara në teknologjitë në zhvillim në fushën e sistemeve të armëve autonome vdekjeprurëse është në pajtueshmërinë me ligjin ndërkombëtar në fuqi, në veçanti me DNH. Në përcaktimin e cilësisë dhe shtrirjes së ndërveprimit njeri-makinë, duhet të merren parasysh një sërë faktorësh duke përfshirë kontekstin operacional dhe karakteristikat dhe aftësitë e sistemit të armëve në tërësi;

(d) Përgjegjësia për zhvillimin, vendosjen dhe përdorimin e çdo sistemi armësh në kuadrin e CCW duhet të sigurohet në përputhje me ligjin ndërkombëtar në fuqi, duke përfshirë funksionimin e sistemeve të tilla brenda një zinxhiri të përgjegjshëm të komandës dhe kontrollit njerëzor;

(e) Në përputhje me detyrimet e shteteve sipas ligjit ndërkombëtar, në studimin, zhvillimin, blerjen ose miratimin e një arme, mjeti ose metode të re lufte, duhet të përcaktohet nëse përdorimi i saj, në disa ose të gjitha rrethanat, do të ishte të ndaluara nga e drejta ndërkombëtare;

(f) Kur zhvilloni ose blini sisteme të reja armësh bazuar në teknologjitë e reja në fushën e sistemeve të armëve autonome vdekjeprurëse, sigurinë fizike, masat mbrojtëse të përshtatshme jo-fizike (përfshirë sigurinë kibernetike kundër hakimit ose mashtrimit të të dhënave), rrezikun e blerjes nga grupet terroriste dhe duhet të merret parasysh rreziku i përhapjes;

(g) Vlerësimet e rrezikut dhe masat zbutëse duhet të jenë pjesë e ciklit të projektimit, zhvillimit, testimit dhe vendosjes së teknologjive në zhvillim në çdo sistem armësh;

(h) Duhet t'i kushtohet vëmendje përdorimit të teknologjive në zhvillim në fushën e sistemeve të armëve autonome vdekjeprurëse në përputhje me DNH dhe detyrimet e tjera ligjore ndërkombëtare të zbatueshme;

(i) Në hartimin e masave të mundshme të politikave, teknologjitë e reja në fushën e sistemeve të armëve autonome vdekjeprurëse nuk duhet të antropomorfizohen;

(j) Diskutimet dhe çdo masë e mundshme e politikave të marra brenda kontekstit të CCW nuk duhet të pengojnë përparimin ose aksesin në përdorime paqësore të teknologjive inteligjente autonome;

(k) CCW ofron një kornizë të përshtatshme për trajtimin e çështjes së teknologjive në zhvillim në fushën e sistemeve të armëve autonome vdekjeprurëse brenda kontekstit të objektivave dhe qëllimeve të Konventës, e cila synon të vendosë një ekuilibër midis nevojës ushtarake dhe konsideratave humanitare.

Problemi në të cilin gjendemi

Këto ligje të ndryshme të luftës, ligjet e konfliktit të armatosur, ose IHL (Ligjet Ndërkombëtare Humanitare) shërbejnë si një udhëzues jetik dhe gjithmonë premtues për të shqyrtuar atë që mund të përpiqemi të bëjmë në lidhje me ardhjen e sistemeve autonome që janë armatosur, qoftë nga dizajni i gurit apo me metoda pas faktit.

Ne mund të dëshirojmë sinqerisht që ndalimi i sistemeve autonome të armatosur vdekjeprurëse të respektohet rreptësisht dhe me bindje. Problemi është se shumë hapësirë ​​për lëvizje është e detyruar të gjendet me dinakëri brenda ndonjë prej ndalimeve më të sinqerta. Siç thonë ata, rregullat janë menduar të thyhen. Mund të vini bast se aty ku gjërat janë të lirshme, riffraff do të zbulojë boshllëqet dhe do të përpiqet të shkelë syrin në rrugën e tyre rreth rregullave.

Këtu janë disa zbrazëtira të mundshme që ia vlen të merren parasysh:

  • Pretendimet jovdekjeprurëse. Bëni jo vdekjeprurëse sistemet autonome të armëve (me sa duket në rregull pasi është jashtë kufirit të ndalimit), të cilat më pas mund t'i ndryshoni me një qindarkë në shndërrim në vdekjeprurëse (do të jeni përtej ndalimit vetëm në minutën e fundit).
  • Pretendimet vetëm për sistemin autonom. Mbajeni ndalimin duke mos bërë sisteme autonome me fokus vdekjeprurës, ndërkohë, po bëni sa më shumë përparim në hartimin e sistemeve autonome të përditshme që nuk janë (ende) armatosur, por që mund t'i rinovoni pak për t'u armatosur.
  • Pretendimet për të mos integruar si një. Krijoni sisteme autonome që nuk janë aspak të armatosur, dhe kur të vijë koha, armatim me derrkuc të tillë që mund të përpiqeni të argumentoni me forcë se ato janë dy elemente të ndara dhe për këtë arsye pretendoni se ato nuk përfshihen në rubrikën e një "gjithë-në-një" sistemi autonom i armëve ose kushëriri i tij.
  • Pretendohet se nuk është autonome. Bëni një sistem armësh që nuk duket të jetë i kapaciteteve autonome. Lini vend në këtë sistem me sa duket jo-autonom për heqjen e autonomisë së bazuar në AI. Kur të jetë e nevojshme, futni autonominë në prizë dhe jeni gati të rrokullisni (deri atëherë, me sa duket nuk e keni shkelur ndalimin).
  • tjetër

Ka shumë vështirësi të tjera të shprehura në përpjekjen për të ndaluar plotësisht sistemet e armëve autonome vdekjeprurëse. Unë do të mbuloj disa të tjera prej tyre.

Disa ekspertë argumentojnë se një ndalim nuk është veçanërisht i dobishëm dhe në vend të kësaj duhet të ketë dispozita rregullatore. Ideja është që këto kontraksione do të lejohen, por do të kontrollohen me forcë. Përcaktohen një sërë përdorimesh të ligjshme, së bashku me mënyrat e ligjshme të shënjestrimi, llojet e ligjshme të aftësive, proporcionaliteti i ligjshëm dhe të ngjashme.

Sipas tyre, një ndalim i drejtpërdrejtë është si të futësh kokën në rërë dhe të pretendosh se elefanti në dhomë nuk ekziston. Megjithatë, ky mosmarrëveshje vlon gjakun e atyre që kundërshtojnë me argumentin se duke vendosur një ndalim ju jeni në gjendje të reduktoni në mënyrë dramatike tundimin për të ndjekur këto lloj sistemesh. Sigurisht, disa do të flasin për ndalimin, por të paktën shpresojmë se shumica nuk do ta bëjnë. Më pas mund ta përqendroni vëmendjen tuaj tek ata që flasin dhe nuk duhet ta ndani vëmendjen tuaj te të gjithë.

Rrotullohen këto debate.

Një shqetësim tjetër i përmendur shpesh është se edhe nëse e mira i përmbahet ndalimit, e keqja nuk do të ndodhë. Kjo e vendos të mirën në një qëndrim të keq. Të këqijat do të kenë këto lloj sistemesh autonome të armatosur dhe të mirët jo. Pasi të zbulohen gjërat që i kanë ato të këqijat, do të jetë tepër vonë që të mirët të arrijnë. Me pak fjalë, e vetmja gjë e zgjuar për të bërë është të përgatiteni për të luftuar zjarrin me zjarr.

Ekziston edhe mosmarrëveshja klasike e parandalimit. Nëse të mirët zgjedhin të bëjnë sisteme autonome të armatosura, kjo mund të përdoret për të penguar të këqijtë që të mos kërkojnë të hyjnë në një sherr. Ose të mirët do të armatosen më mirë dhe në këtë mënyrë do të largojnë të këqijtë, ose të mirët do të jenë gati kur të këqijtë ndoshta të zbulojnë se në mënyrë të fshehtë kanë krijuar ato sisteme gjatë gjithë kohës.

Një kundërvënie ndaj këtyre sporteleve është se duke bërë sisteme autonome të armatosur, ju po bëni një garë armatimi. Edhe pala tjetër do të kërkojë të ketë të njëjtën gjë. Edhe nëse nuk janë teknologjikisht në gjendje të krijojnë sisteme të tilla përsëri, ata tani do të jenë në gjendje të vjedhin planet e atyre "të mirëve", të bëjnë inxhinierë të kundërt guximin e teknologjisë së lartë ose të imitojnë çdo gjë që ata duket se e shohin si të provuar dhe të vërtetë. mënyrë për të kryer punën.

Aha, disa përgjigjen, e gjithë kjo mund të çojë në një reduktim të konflikteve në dukje reciproke. Nëse pala A e di se pala B i ka ato armë të sistemeve autonome vdekjeprurëse, dhe pala B e di se pala A i ka ato, ata mund të rrinë fort dhe të mos bien në goditje. Kjo ka atë atmosferë të veçantë të dridhjeve të shkatërrimit të siguruar reciprokisht (MAD).

Dhe kështu me radhë.

AI në autonomi

Le të sigurohemi që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Jini shumë të kujdesshëm ndaj antropomorfizimit të AI-së së sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Me atë sfond themelor të shtuar, ne i drejtohemi edhe një herë temës së sistemeve autonome dhe armatimit. Më parë pamë që AI hyn në komponentin e sistemit autonom dhe gjithashtu mund të hyjë në komponentin e armatimit. Inteligjenca artificiale e sotme nuk është e ndjeshme. Kjo ia vlen të përsëritet dhe unë do ta theksoj këtë për njohuri shtesë mbi këto çështje.

Le të shqyrtojmë disa skenarë për të parë se si kjo është një konsideratë vendimtare. Për momentin do të largohem nga orientimi i kohës së luftës mbi këtë temë dhe do të tregoj se si ajo përshkon shumë mjedise të tjera shoqërore. Qëndroni veten në përputhje me rrethanat.

Një sistem autonom i bazuar në AI, siç është një automjet autonom, për të cilin ne do të themi se nuk ka asnjë lidhje me armët, po kalon rrugën e tij në një vend normal. Një njeri vjen për të përdorur automjetin autonom. Personi është i armatosur me një armë parandjenjë. Supozoni për hir të diskutimit në këtë skenar të veçantë se personi ka diçka të pakëndshme në mendje. Personi futet në automjetin autonom (duke mbajtur armën e tij, të fshehur ose jo të fshehur, në çdo rast).

Automjeti autonome vazhdon në çfarëdo destinacioni që ka kërkuar kalorësi. Në këtë rast, AI thjesht po e transporton në mënyrë programatike këtë pasagjer nga një vend marrjeje në një destinacion të caktuar, ashtu siç ka bërë për dhjetëra apo qindra udhëtime, çdo ditë.

Nëse ky do të kishte qenë një shofer njerëzor dhe një automjet i drejtuar nga njeriu, me sa duket ka disa mundësi që shoferi njerëzor të kuptojë se pasagjeri është i armatosur dhe duket se ka qëllime të pahijshme. Shoferi njeri mund të refuzojë të drejtojë automjetin. Ose shoferi i njeriut mund të udhëtojë me makinë në komisariat. Ose mbase shoferi njerëzor mund të përpiqet të nënshtrojë pasagjerin e armatosur (ka raste të raportuara) ose ta largojë pasagjerin nga përdorimi i armës së tij. Është mjaft e ndërlikuar dhe mund të ekzistojë çdo numër variacionesh. Ju do të jeni të vështirë të pohoni se ka vetëm një përgjigje të drejtë për zgjidhjen e një telash të tillë. Fatkeqësisht, situata është shqetësuese dhe padyshim e rrezikshme.

AI në këtë rast nuk ka gjasa të programohet për ndonjë nga këto lloj mundësish. Me pak fjalë, pasagjeri i armatosur mund të jetë në gjendje të përdorë armën e tij, duke e bërë këtë nga brenda automjetit autonom, gjatë rrjedhës së udhëtimit me makinë. Sistemi i drejtimit të AI do të vazhdojë të udhëtojë përgjatë dhe automjeti autonom do të vazhdojë të shkojë drejt përcaktimit të deklaruar të pasagjerit (duke supozuar se destinacioni nuk konsiderohej ndryshe jashtë kufijve).

Shumica e sistemeve bashkëkohore të drejtimit të inteligjencës artificiale do të përqendrohen vetëm nga ana llogaritëse në rrugë dhe jo në përpjekjet e kalorësve.

Gjërat mund të bëhen më keq se kjo.

Supozoni se dikush dëshiron të transportojë një tufë sendesh ushqimore në një vend që merr ushqim shtesë për nevojtarët. Personi kërkon një automjet autonom dhe vendos çantat me sende ushqimore në sediljen e pasme të automjetit. Ata nuk do të shkojnë së bashku për udhëtim dhe thjesht po përdorin automjetin autonom për të dorëzuar qeset e ushqimit për ta.

Duket krejtësisht mirë.

Imagjinoni që një person i poshtër të zgjedhë në vend të kësaj të vendosë një formë armatimi në automjetin autonom në vend të nocionit më paqësor të çantave ushqimore. Unë mendoj se ju mund të merrni me mend se çfarë mund të ndodhë. Ky është një shqetësim që unë e kam nxitur vazhdimisht në rubrikat e mia dhe e kam paralajmëruar se duhet ta përballojmë më shpejt se sa më vonë.

Një përgjigje e ofruar ndaj këtyre llojeve të skenarëve është se ndoshta të gjitha automjetet autonome mund të programohen për të përdorur kamerat e tyre dhe sensorë të tjerë për të provuar dhe zbuluar nëse një pasagjer i mundshëm është i armatosur dhe ka qëllime të liga. Ndoshta AI do të ishte programuar për ta bërë këtë. Ose inteligjenca artificiale sinjalizon në mënyrë elektronike dhe në heshtje një operator njerëzor të largët që më pas do të ekzaminojë përmes kamerave në mënyrë vizuale dhe ndryshe dhe mundësisht të ndërveprojë me pasagjerin. Është e gjitha pjesë e një kanaçeje krimbash komplekse dhe potencialisht të pazgjidhshme, e tillë që ngre çështje intensive të privatësisë dhe një mori shqetësimesh të tjera të mundshme Etike të AI. Shihni mbulimin tim në lidhja këtu.

Një alternativë tjetër disi e ngjashme është se AI përmban një lloj programimi të etikës të ngulitur që përpiqet t'i mundësojë IA të bëjë gjykime etike ose morale që normalisht janë të rezervuara për vendimmarrësit njerëzorë. Unë i kam ekzaminuar këto lloje të krijimit të parashikuesve të etikës llogaritëse të integruara në AI, shih lidhja këtu lidhja këtu.

Duke iu rikthyer një skenari të fushëbetejës, imagjinoni që një sistem armësh autonome vdekjeprurëse po kalon sipër një zone luftarake. AI është duke operuar sistemin autonom. AI është duke përdorur armët në bord. Ne kishim konceptuar më parë mundësinë që AI mund të programohej për të skanuar lëvizjet në dukje armiqësore ose tregues të tjerë të objektivave njerëzore që konsiderohen si luftëtarë të vlefshëm.

A duhet që kjo e njëjta AI të ketë një lloj komponenti të orientuar nga etika, i cili përpiqet të marrë në konsideratë llogaritëse se çfarë mund të bëjë një njeri në lak, duke vepruar në një farë mënyre në vend të të paturit të një njeriu-in-the-loop?

Disa thonë po, le ta ndjekim këtë. Disa tërhiqen të tmerruar dhe thonë se kjo është ose e pamundur ose përndryshe shkel shenjtërinë e njerëzimit.

Një tjetër kanaçe me krimba.

Përfundim

Për ata prej jush të interesuar në këtë temë, ka shumë më tepër për të diskutuar.

Unë do t'ju jap një shije të shpejtë të një enigme bezdisëse.

Ne normalisht presim që një njeri do të mbahet përfundimisht përgjegjës për çdo gjë që ndodh gjatë kohës së luftës. Nëse AI po kontrollon një sistem armësh autonome ose kontrollon një sistem autonom që ndoshta është armatosur, dhe ky sistem bën diçka në fushën e betejës që besohet të jetë e pandërgjegjshme, kush ose çfarë duhet të fajësohet për këtë?

Ju mund të argumentoni se AI duhet të mbahet përgjegjës. Por, nëse po, çfarë do të thotë saktësisht? Ne ende nuk e konsiderojmë AI-në e sotme si mishërim të personit juridik, shihni shpjegimin tim në lidhja këtu. Asnjë fiksim i bishtit te gomari në rastin e AI. Ndoshta nëse një ditë AI bëhet e ndjeshme, mund të përpiqeni ta bëni këtë. Deri atëherë, kjo është paksa e arritshme (plus, çfarë lloj ndëshkimesh ose pasojash do t'i nënshtrohej AI, shikoni analizën time në lidhja këtu lidhja këtu, për shembull).

Nëse AI nuk është i dyshuari i përgjegjshëm, atëherë natyrshëm mund të themi se çfarëdo që njeriu apo njerëzit kanë shpikur AI duhet të mbahet përgjegjës. A mund ta bëni këtë nëse AI thjesht po drejtonte një sistem autonom dhe disa njerëz vinin përpara që e shoqëruan atë me armatimin? A shkoni pas zhvilluesve të AI? Apo ata që vendosën AI? Apo thjesht aktori i armatosur?

Besoj se e kuptoni se unë kam prekur vetëm majën e ajsbergut në diskutimin tim të përzemërt.

Tani për tani, le të shkojmë përpara dhe ta përfundojmë këtë diskurs. Ju mund të kujtoni se John Lyly në Euphues: Anatomia e zgjuarsisë në 1578 deklaroi në mënyrë të paharrueshme se gjithçka është e drejtë në dashuri dhe luftë.

A do ta kishte pasur parasysh shfaqjen e sistemeve autonome të armëve dhe gjithashtu ardhjen e sistemeve autonome që janë armatosur?

Sigurisht që duhet ta vendosim këtë në krye të mendjes, menjëherë.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- sistemet-armë-dhe-shfrytëzimi-i-sistemet-autonome-të-drejtuara-ai-që-janë-armatosur në mënyrë djallëzore/