Etika e inteligjencës artificiale shqyrton meritat e mandatimit ligjor të fondeve të shlyerjes për të siguruar llogaridhënie për sjelljen e keqe të AI

Kush e ka fajin?

Kjo mund të duket si një pyetje e drejtpërdrejtë, megjithëse në rastin e komedisë së famshme nga dyshja legjendare e Abbott dhe Costello për një ekip bejsbolli, "kush" mund të jetë konfuz. Ju mund të jeni të njohur në mënyrë të paqartë me Kush është i pari rutinë komike që ata e bënë një nga skeçet më të qëndrueshme të të gjitha kohërave (paralajmërim spoiler për ata prej jush që nuk e kanë dëgjuar).

Abbott i thotë Costellos se Kush është në vendin e parë, Çfarë është në të dytin dhe Unë nuk e di është i treti. Mashtrimi i zgjuar është se drejtuesi i parë i bazës quhet Who, bodrumi i dytë quhet What, dhe ai i tretë i bazës quhet Unë nuk e di. Natyrisht, ato fraza kanë gjithashtu kuptimin e tyre konvencional dhe kështu përpjekja për të interpretuar atë që thotë Abbott mund të jetë krejtësisht hutuese. Në të vërtetë, Costello shtron pyetjen në dukje të padëmshme se kush është i pari, për të cilën përgjigja është e thënë me vendosmëri po. Por kjo nuk ka kuptim për Costello-n, pasi ai priste një emër dhe në vend të kësaj mori një po hutuese si përgjigje.

Ndërrimi i ingranazheve, kur bëhet fjalë për ardhjen e Inteligjencës Artificiale (AI), një nga pyetjet më shqetësuese që bëhet vazhdimisht nënkupton se kush ose ndoshta çfarë do të mbahet përgjegjës kur AI humbet.

Unë kam diskutuar më parë përgjegjësinë penale kur AI çon ose ndërmerr veprime kriminale, shikoni mbulimin tim në lidhja këtu. Ekziston edhe çështja e llogaridhënies civile, si p.sh. kë ose çfarë mund të padisni kur AI ju ka bërë gabim, e cila është tema që do të diskutoj këtu. E gjithë kjo ka konsiderata të rëndësishme të Etikës së AI. Për mbulimin tim të vazhdueshëm dhe të gjerë të Etikës së AI dhe AI ​​Etike, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Rregullat e Etikës së AI na bëjnë të qëndrojmë vigjilentë. Teknologët e AI ndonjëherë mund të preokupohen me teknologjinë, veçanërisht me optimizimin e teknologjisë së lartë. Ata nuk janë domosdoshmërisht duke marrë parasysh degëzimet më të mëdha shoqërore. Të kesh një mentalitet të Etikës së AI dhe ta bësh këtë në mënyrë integrale në zhvillimin dhe zbatimin e AI është jetike për prodhimin e AI të përshtatshme, duke përfshirë (ndoshta çuditërisht ose në mënyrë ironike) vlerësimin se si Etika e AI adoptohet nga firmat.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Në fakt, ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Një debat i nxehtë që po zhvillohet është nëse ligjet ekzistuese janë në gjendje të adresojnë në mënyrë adekuate shfaqjen e sistemeve të AI në të gjithë shoqërinë. Përgjegjësia ligjore zakonisht kërkon që ju të mund të fiksoni bishtin te gomari se kush është përgjegjës për sjelljen e dëmshme. Në rastin e AI, mund të ketë një rrugë mjaft të paqartë që lidh një person ose persona të caktuar me IA që ka kryer ndonjë veprim dëmtues. Inteligjenca artificiale mund të jetë kryesisht e pagjurmueshme për burimin ose shpikësin që e ka përbërë UA.

Një konsideratë tjetër është se edhe nëse rrënjët e AI mund të gjurmohen tek dikush, pyetja është nëse personi ose personat mund të mos kenë qenë në gjendje të parashikojnë në mënyrë të arsyeshme rezultatin negativ që prodhoi përfundimisht AI. Thelbi i parashikueshmërisë është një faktor zakonisht i dukshëm në vlerësimin e përgjegjësisë ligjore.

Ju mund të tundoheni të mendoni se thjesht mund të shkoni pas vetë AI dhe ta emërtoni AI si palën ligjore përgjegjëse ose përgjegjëse për çfarëdo dëmi që supozohet se është shkaktuar. Në përgjithësi, pikëpamja juridike mbizotëruese është se AI nuk ka arritur ende një nivel të personalitetit juridik. Kështu, ju nuk do të jeni në gjendje të kërkoni në mënyrë strikte të kërkoni që AI të paguajë dhe do t'ju duhet të gjeni njerëz që po punonin me levat prapa skenave, si të thuash (për analizën time të personit juridik për AI, shih lidhja këtu).

Në të gjithë këtë pengesë të mundshme ligjore futet një ide që po përhapet si një zgjidhje e mundshme, qoftë në një bazë afatshkurtër ose ndoshta në një plan afatgjatë. Ideja është që ndoshta duhet të krijohet një fond i veçantë kompensues për të ofruar lehtësim financiar për ata që janë dëmtuar nga AI. Nëse përndryshe nuk jeni në gjendje të bëni që IA t'ju kompensojë dhe nuk mund të identifikoni personat që supozohet se duhet të mbahen përgjegjës, alternativa tjetër më e mirë mund të jetë të përdorni një fond kompensues që synon të ndihmojë ata që janë dëmtuar nga AI.

Një fond i tillë do të ishte i ngjashëm me një lloj sigurimi, siç thuhet në një punim kërkimor që nxit mendimin: “Ky do të ishte në thelb një mekanizëm sigurimi kundër pasigurisë: Një kornizë e qartë dhe transparente për kompensim të shpejtë në rastet kur një padi përgjegjësie ka e pasigurt ose aspak perspektivë suksesi për shkak të natyrës së paparashikueshme të sjelljes së dëmshme, vetë dëmit (lloji i) ose kostove të tepërta dhe/ose kompleksitetit të procedurës” (artikulli nga Olivia Erdelyi dhe Gabor Erdelyi, “The AI ​​Liability Puzzle Dhe një punë e bazuar në fonde”, Journal of Artificial Intelligence Research, 2021).

Fondi kompensues do të jetë pjesë e një Skeme gjithëpërfshirëse të Garancisë së UA (AIGS) dhe do të shoqërohet me disa ndryshime të lehta në ligjet ekzistuese në lidhje me përgjegjësinë ligjore. Prekja e lehtë do të ishte me sa duket më e lehtë për t'u zbatuar dhe nuk do të kërkonte llojin e mundimshëm të ankthit ligjor dhe shoqëror, nëse një seri ndryshimesh demonstrative do të bëheshin më rrëqethëse në regjimet ekzistuese ligjore. Sipas studiuesve: “Kjo pasqyron besimin tonë se – pavarësisht tërheqjes së një zgjidhjeje të tillë të rregullimit të shpejtë – i pandryshuar zbatimin e rregullave ekzistuese të përgjegjësisë ndaj UA ose a të motivuara në mënyrë proteksioniste kthimi në përgjegjësi të rreptë me synimin për të vendosur përgjegjësinë me çdo kusht nuk janë përgjigjet e sakta për tre arsye: Së pari, duke injoruar se ato rregulla janë përshtatur për rrethana të ndryshme dhe si rrjedhim mund të jenë të papërshtatshme për AI, ato bien ndesh me objektivat e balancuara delikate të sistemi i përgjegjësisë ligjore. Së dyti, ato pengojnë inovacionin e AI duke adoptuar një qasje ndëshkuese të panevojshme. Së treti, përdorimi i padrejtë ndaj përgjegjësisë strikte thjesht anashkalon problemet e parashikueshmërisë dhe fajit në një mënyrë dogmatikisht jokonsistente në vend që t'i korrigjojë ato” (sipas punimit të cituar më sipër).

Argumentet në favor të fondeve të tilla kompensuese të AI përfshijnë:

  • Redukton nevojën për gjykime të gjata dhe të kushtueshme ligjore për të përballuar dëmet e shkaktuara nga AI
  • Siguron njerëzit se ata mund të përdorin AI dhe të kompensohen nëse dëmtohen
  • Promovon inovacionin e AI duke lehtësuar pasigurinë ligjore me të cilën përballen inovatorët e AI
  • Mund të vihet në përdorim shumë më shpejt sesa të bësh ndryshime masive në ligjet ekzistuese
  • Ofron një ilaç relativisht të qartë që është i besueshëm dhe i disponueshëm
  • tjetër

Ndërkohë, ata që kundërshtojnë qasjen e fondeve kompensuese të AI thonë këtë:

  • Le t'i heqim dorën tepër krijuesit e AI dhe t'i lejojmë ata të shmangin përgjegjësinë
  • Do të inkurajojë krijuesit e AI që të krijojnë AI të cilës i mungon siguria e kujdesshme dhe kontrollet e duhura
  • Mund t'i nxisë njerëzit të pretendojnë në mënyrë të rreme dëme të AI, në mënyrë që të mund të shfrytëzojnë fondet
  • Mënjanon dhe minon nevojën e vërtetë për të rishikuar ligjet tona për të qeverisur mjaftueshëm AI
  • Mund të bëhet një makth burokratik që mbytet dhe shpërdoron fondet
  • tjetër

Siç mund të jetë e qartë, ka edhe përkrahës edhe kundërshtarë të këtij nocioni krejtësisht të diskutueshëm.

Ju do të jeni të vështirë të përjashtoni në mënyrë të përmbledhur fondin kompensues të AI si një qasje e mundshme ndaj shqetësimeve në rritje rreth AI që shkakton dëm. As zgjidhja e propozuar nuk është një slam dunk.

Një këndvështrim është se krijuesit e AI do të duhet të vendosin para në fonde si pjesë e përpjekjeve të tyre kur hartojnë dhe shpallin AI. Kjo mund të interpretohet si një lloj tarife ose takse që ata duhet të mbajnë si pjesë e aftësisë për të lëshuar AI-n e tyre në botë. Por a i shtyp kjo kosto e shtuar potencialisht përpjekjet e startup-eve që po përpiqen të shtyjnë kufijtë e AI-së së sotme? Dhe si do të trajtohej zbatimi për t'u siguruar që krijuesit e AI të paguanin tarifën ose taksën e tyre?

Një mori pyetjesh lindin dhe do të duhej të zgjidheshin:

  • Në cilat vende do të ishte më i realizueshëm një fond kompensues i AI?
  • A mund të krijohet një pamje globale e fondeve kompensuese të ndërlidhura të AI?
  • Cilat do të ishin mekanizmat e detajuar dhe të zbatueshëm që lidhen me fonde të tilla?
  • Si do të financohen fondet kompensuese të AI (publike, private, bamirëse)?
  • A do të ishte kjo një bazë sigurimi pa faj apo do të zbatohej ndonjë qasje tjetër?
  • Etj

Një sferë që ka pasur tashmë të përhapur idenë e fondeve kompensuese të AI përbëhet nga sisteme autonome si automjete autonome dhe makina vetë-drejtuese. Për mbulimin tim të makinave vetë-drejtuese dhe sistemeve autonome të AI, shih lidhja këtu.

Këtu është një skicë se si kjo mund të funksionojë për makinat vetë-drejtuese të bazuara në AI.

Supozoni se një makinë që drejton vetë përplaset me një motoçiklist. Ngasësi i biçikletës është dëmtuar. Shoferi i biçikletës mund të kërkojë zgjidhje ligjore duke ndjekur prodhuesin e automjeteve të automjetit autonom. Ose ata mund të synojnë firmën e teknologjisë vetë-drejtuese që ka krijuar sistemin e drejtimit të AI. Nëse makina vetëdrejtuese po operohet si flotë, një rrugë tjetër ligjore do të ishte ndjekja e operatorit të flotës. Përpjekja për të paditur AI nuk është një opsion në këtë moment pasi personi juridik i AI nuk është vendosur ende.

Në vend që të ndërmerren veprime ligjore kundër ndonjërës prej atyre palëve, një mjet tjetër do të ishte paraqitja e një aplikacioni ose pretendimi në një fond të përshtatshëm kompensues të AI. Fondi do të kishte formalizuar proceset që përfshijnë rishikimin e kërkesës dhe më pas do të përcaktonte se çfarë nëse mund t'i jepet ndonjë pagesë kompensuese kërkuesit. Mund të ketë një proces apelimi që ndihmon kërkuesit që besojnë se ose janë refuzuar gabimisht nga fondi ose janë kompensuar në mënyrë të pamjaftueshme nga fondi.

Në teori, fondi kompensues i AI do të ishte një rrugë shumë më e shpejtë drejt kompensimit për dëmin e shkaktuar. Ju mund të imagjinoni se sa e mundimshme mund të jetë një proces gjyqësor, ku firmat e paditura mund të përpiqen ta zvarritin çështjen.

Megjithatë, avokatët mund të theksojnë se fondi kompensues i AI mund t'i lejojë ato palë të tjera, si prodhuesit e AI, të shmangin çdo dënim të qartë për lëshimin e makinës së tyre vetë-drejtuese në rrugët publike që përfunduan duke goditur një motoçiklist. Çfarë tjetër mund të zgjedhin këto firma të bëjnë "në mënyrë të pakujdesshme"? Pa spektrin e afërt të shpatës ligjore që varet mbi kokat e tyre, ne mund ta gjejmë veten duke u përballur çdo ditë me AI që është plot me kapacitete të rrezikshme.

Rreth e rrotull argumentet shkojnë.

Përfundim

Etika e inteligjencës artificiale na kujton se ne duhet të marrim gjithmonë parasysh pasojat etike dhe ligjore të AI. Në këtë rast të fondeve kompensuese të AI, nocioni i propozuar i një grupi fondesh të ngjashme me sigurimin për kompensimin e atyre që dëmtohen nga AI duket tërheqës. Fondet me sa duket do të prisnin atje, gati për t'u përdorur dhe për të siguruar kompensimin sa më shpejt të mundshëm.

Marrëveshjet nëse kjo mund të hapë portat drejt krijimit të AI që ka gjithnjë e më pak kontrolle sigurie është një shqetësim i frikshëm dhe shumë real. Ndoshta nuk kemi nevojë t'i hedhim benzinë ​​një zjarri që ndoshta është tashmë disi në zhvillim.

A mund t'i mbajmë disi ende krijuesit e AI që të krijojnë IA Etike të përshtatshme dhe në të njëjtën kohë të krijojnë këto fonde kompensuese të AI?

Disa do të thoshin se po, ne mundemi. Duke rindërtuar ligjet ekzistuese për t'u lidhur me fondet kompensuese të AI, ato që dëmtohen nga AI do të kishin potencialisht një rrugë të dyfishtë për të kërkuar kompensimin e tyre të drejtë.

Kush është i pari?

Po, ky është kush (si në të gjithë ne) në njoftimin e parë se ne duhet të mendojmë për përdorimin e mundshëm të fondeve kompensuese të AI dhe të modifikojmë ligjet ekzistuese, qoftë edhe të lehta, duke ofruar një mjet për t'u marrë me sulmin e AI dhe të mirë. AI e keqe.

Nuk ka asnjë konfuzion në lidhje me atë konsideratë jetike.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- llogaridhënie/