Implantimi i arsyetimit ligjor në AI mund të arrijë me zgjuarsi shtrirjen e vlerës njerëzore thotë Etika dhe Ligji i AI

Në rubrikën e sotme, unë do të bashkoj një mori temash në dukje të ndryshme të lidhura me AI në një pëlhurë të endur bukur.

A jeni gati?

Imagjinoni që po përdorni një aplikacion të fuqizuar nga AI që po ju ndihmon ndërkohë që ndërmerrni një lloj detyre të rëndësishme. Ndoshta çështja është financiare ose mund të jetë e lidhur me shëndetin. Thelbi është se ju jeni në varësi të AI për të bërë gjënë e duhur dhe për të performuar në një mënyrë të supozuar të sigurt dhe të shëndoshë.

Supozoni se AI kalon në një territor joetik.

Ju mund të mos e kuptoni që AI po e bën këtë.

Për shembull, AI mund të mbështetet në faktorë diskriminues potencialisht të fshehur si raca ose gjinia, megjithëse mund të mos keni ndonjë mjet praktik për të dalluar përdorimin e padëshiruar. Ja ku je, krejt i vetëm, duke marrë fundin e shkurtër të shkopit nëpërmjet një AI që ose është krijuar që nga fillimi në një mënyrë problematike ose ka arritur të kalojë drejt rrezikimit etik të rremë dhe kufitar (do të them më shumë për kjo në një moment).

Çfarë mund të bëni ose çfarë mund të bëhet me AI që zgjedh të ndjekë një rrugë joetike?

Përveç përpjekjes për të ndërtuar paraprakisht AI në mënyrë që ajo të mos bëjë këtë lloj veprimi tinëzar, unë kam detajuar më parë gjithashtu se ka një interes në rritje për të futur një Kontrolli i etikës së AI komponent në moçalin në lulëzim të sistemeve të inteligjencës artificiale, përndryshe, të Perëndimit të Egër, duke u hedhur në treg. Ideja është që të përpiqemi të parandalojmë që një aplikacion i infektuar me AI të shkojë jashtë dimensioneve etike, ne mund të përdorim AI shtesë për të bërë një kontroll dhe balancim. Kjo inteligjencë artificiale e shtuar mund të jetë jashtë aplikacionit të synuar të AI ose mund të jetë një komponent i ngulitur ose i implantuar drejtpërdrejt në AI, të cilin ne duam të bëjmë një kontroll të dyfishtë.

Siç e kam thënë më parë, shih lidhja këtu: “Një trend i shfaqur së fundmi konsiston në përpjekjen për të ndërtuar parmakë etikë në AI që do të kapin pasi pjesa tjetër e një sistemi të AI fillon të shkojë përtej kufijve etikë të paracaktuar. Në një farë kuptimi, qëllimi është të përdoret vetë AI për të mbajtur veten që të mos shkojë keq nga ana etike. Mund të thuash se ne po synojmë që AI të shërohet vetë” (Lance Eliot, “Crafting Ethical AI That Monitors AI Joethical AI and Tries to Deter Bad AI From Acting Up”, Forbes, 28 mars 2022).

Ju gjithashtu mund të gjeni interes të rëndësishëm për librin tim Bots mbrojtës të AI, nganjëherë të referuar si engjëj mbrojtës, i cili mbulon themelet teknike të këtij kontrolli të dyfishtë të inteligjencës artificiale më të fundit brenda AI, shih lidhja këtu.

Në fund të fundit është se proshuta juaj fatmirësisht mund të ruhet nga përdorimi i një elementi të integruar të kontrollit të dyfishtë të etikës së inteligjencës artificiale, i cili është krijuar dhe futur në një aplikacion AI që po përdorni. Por a do të mjaftojë kjo si një kujdestar për t'u siguruar me të vërtetë që AI nuk do t'ju ngurtësojë plotësisht dhe nuk do të hyjë në terren edhe të dëmshëm?

E shihni, aplikacioni i AI mund të funksionojë gjoja i paligjshëm Aktet.

Është një gjë të kesh AI që shkon në një zonë gri të asaj që ne i konsiderojmë si sjellje etike ose joetike. Një sjellje po aq shqetësuese dhe shqetësim i mundshëm përkeqësimi sjell inteligjencën artificiale, e cila thjesht kërcen peshkaqenin si të thuash dhe zbret në errësirën e dobët të veprimeve të paligjshme.

Inteligjenca artificiale e paligjshme është e keqe. Lejimi i AI-së së paligjshme të kalojë pa mbikëqyrje është e keqe. Disa studiues ligjorë janë hapur të shqetësuar se ardhja dhe përhapja e AI do të zvogëlojë gradualisht dhe në mënyrë të tmerrshme pamjen tonë të rregull i ligjit, shikoni analizën time në lidhja këtu.

Prisni një sekondë, mund të jeni duke thënë.

Ju mund të josheni të mendoni se zhvilluesit e AI do ta bënin asnjehere programojnë inteligjencën artificiale të tyre për të shkuar kundër ligjit. E paimagjinueshme. Vetëm zuzarët e këqij do ta bënin këtë (të cilët, meqë ra fjala, mbani në mend se ka nga ata që me dashje po krijojnë dhe përdorin AI për qëllime të liga, një zonë në rritje e interesit për kriminelët dhe të tjerët që dëshirojnë të përdorin AI për aktivitete të liga).

Na vjen keq, por është mendim i dëshiruar të supozohet se të gjithë zhvilluesit jo të këqij të AI do të sigurohen rreptësisht që AI i tyre t'i bindet plotësisht ligjit. Mund të ndodhë që AI vetë-rregullohet dhe endet në aktivitet të paligjshëm. Sigurisht, ekziston gjithashtu mundësia që zhvilluesit e AI ose donin që AI të vepronte në mënyrë të paligjshme ose që ata nuk ishin në dijeni të asaj që përbënte akte të paligjshme kundrejt akteve ligjore kur ata po krijonin AI (po, kjo është mjaft e mundshme, domethënë që një Ekipi gjithëpërfshirës i inteligjencës artificiale, me kokë poshtë, mund të jetë injorant për mashtrimet ligjore të AI-së së tyre, gjë që nuk është e justifikueshme dhe megjithatë ndodh me frekuencë alarmante).

Çfarë mund të bëhet për këtë?

Edhe një herë, përveç përpjekjes për të siguruar që AI nga porta të jetë i hekurt dhe i ligjshëm, një qasje shtesë për të fituar avull përfshin futjen ose implantimin e një komponenti të AI që bën kontroll të dyfishtë ligjor për pjesën tjetër të aplikacionit të AI. I ulur i qetë dhe shpesh i paparalajmëruar, kjo AI e shtuar po vëzhgon pjesën tjetër të AI për të provuar dhe dalluar nëse AI do të jetë mashtrues ose të paktën do të kalojë kufijtë e kufizimeve të vendosura ligjore ose rregullatore.

Tani kemi dy lloje të kontrollit të dyfishtë të AI që janë të integruara potencialisht në një aplikacion të AI:

  • Kontroll i dyfishtë i etikës së AI: Në kohë reale, ky komponent ose shtesë e AI vlerëson pjesën tjetër të AI për sjellje etike dhe joetike që shfaq AI
  • Kontrolli i dyfishtë ligjor i AI: Në kohë reale, ky komponent ose shtesë e inteligjencës artificiale vlerëson pjesën tjetër të AI për sigurinë e qëndrimit brenda bazave ligjore dhe për kapjen e aktiviteteve të paligjshme të shfaqura nga IA.

Për të sqaruar, këto janë koncepte relativisht të reja dhe si e tillë AI që po përdorni sot mund të jetë në ndonjë nga këto kushte aktuale:

  • AI që nuk ka të përfshira fare kontrollues të dyfishtë
  • Inteligjenca artificiale që ka një kontrollues të dyfishtë të Etikës së AI, por jo kontrollues të tjerë të dyfishtë
  • IA që ka një kontrollues të dyfishtë ligjor të AI, por jo kontrollues të tjerë të dyfishtë
  • IA që ka një kontrollues të dyfishtë të Etikës së AI dhe një kontrollues të dyfishtë ligjor të AI
  • tjetër

Ka disa aspekte dukshëm të ndërlikuara të funksionimit të dyfishtë të kontrolluesit të Etikës së AI dhe të kontrolluesit të dyfishtë ligjor të AI në një aplikacion të AI si vëllezër dhe motër të afërm. Ky është një lloj dualizmi që mund të jetë më i vështirë për t'u koordinuar sesa mund të supozoni (mendoj se ne të gjithë e dimë se vëllezërit dhe motrat mund të kenë lidhjet më të ngushta, megjithëse ata gjithashtu mund të luftojnë si dickens herë pas here dhe të kundërshtojnë fuqishëm pikëpamjet).

E kam diskutuar gjatë për këtë lloj të mundimshëm dualizëm: “Një dualizëm i neglizhuar po ndodh në AI për të mirën shoqërore që përfshin mungesën e përfshirjes së rolit të agjencisë morale artificiale dhe arsyetimit ligjor artificial në sistemet e avancuara të AI. Përpjekjet nga studiuesit e AI dhe zhvilluesit e AI kanë qenë të prirur të përqendrohen në mënyrën se si të krijojnë dhe futin agjentë moralë artificialë për të udhëhequr vendimmarrjen morale kur një sistem AI është duke operuar në terren, por gjithashtu nuk janë fokusuar dhe shoqëruar përdorimin e aftësive artificiale të arsyetimit ligjor. , i cili është po aq i nevojshëm për rezultate të forta morale dhe ligjore” (Lance Eliot, “Dualizmi i neglizhuar i agjencisë morale artificiale dhe arsyetimi artificial ligjor në AI për të mirën sociale”, Konferenca vjetore CRCS e Universitetit të Harvardit 2020, Qendra e Harvardit për Shoqërinë e Kërkimit dhe Llogaritjes)

Nëse dëshironi të kuptoni se përse mund të ketë tension midis një kontrolluesi të dyfishtë të Etikës së AI dhe një kontrolluesi të dyfishtë ligjor të AI, mund të gjeni këtë citim të dukshëm të denjës konceptuale të lakmueshme: “Ligji mund të lejojë një veprim të veçantë. edhe pse ai akt është imoral; dhe ligji mund të ndalojë një veprim, edhe pse ai veprim është moralisht i lejueshëm, apo edhe moralisht i kërkuar” (Shelly Kagan, Kufijtë e moralit, 1998).

Le ta zhvendosim pak fokusin tonë dhe të shohim se si këto damë të dyfishta bashkohen në një temë tjetër shumë të shqyrtuar të AI, domethënë UA përgjegjëse ose një konsideratë e bashkërenduar e përafrimit të vlerave njerëzore dhe AI.

Nocioni i përgjithshëm është se ne duam AI që i përmbahet vlerave të duhura dhe të dëshirueshme njerëzore. Disa i referohen kësaj si UA përgjegjëse. Të tjerët diskutojnë në mënyrë të ngjashme UA e përgjegjshme, AI i besueshëmdhe Shtrirja e AI, të cilat prekin të njëjtin parim themelor. Për diskutimin tim mbi këto çështje të rëndësishme, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Si mund ta bëjmë AI të përafrohet me vlerat njerëzore?

Siç u sugjerua më herët, ne do të shpresonim që zhvilluesit e AI do të ishin të vetëdijshëm për zhvillimin e AI që arrin aderimin e Përgjegjshëm të AI. Fatkeqësisht, ato mund të mos jenë, sipas arsyeve të sqaruara më parë. Përveç kësaj, ata mund të përpiqen ta bëjnë këtë, dhe megjithatë, AI përfundon duke u vetë-rregulluar përtej sferës së spikatur të sjelljeve etike ose ndoshta në ujëra të paligjshme.

Në rregull, atëherë duhet t'i konsiderojmë çetat tona të dobishme dyshe si një mjet për të mbështetur këto rreziqe dhe ekspozime. Përdorimi i një kontrolli të dyfishtë të Etikës së AI mund të ndihmojë materialisht në përafrimin e AI me vlerat njerëzore. Në mënyrë të ngjashme, përdorimi i një kontrolli të dyfishtë ligjor të inteligjencës artificiale të krijuar mirë mund të ndihmojë në mënyrë thelbësore në përafrimin e AI me vlerat njerëzore.

Kështu, një mjet vendimtar dhe ende jo i njohur për të arritur në AI Përgjegjëse, AI të besueshme, AI të përgjegjshme, shtrirje të AI, etj., do të përfshinte përdorimin e kontrolluesve të dyfishtë të AI si një kontrollues i dyfishtë i Etikës së AI dhe një Kontrolluesi i dyfishtë ligjor i AI që do të funksiononte pa u lodhur si një kontroll i dyfishtë i AI-së në të cilën ato janë të ngulitura.

Në këtë diskutim këtu, do të doja të hyja në pak më shumë detaje rreth natyrës dhe konstrukteve të kontrolluesve të dyfishtë ligjorë të AI që mund të përfshihen në AI. Për ta bërë këtë, mund të jetë e dobishme të ndajmë me ju një sfond shtesë mbi temën e përgjithshme të AI & Ligji.

Për një ekzaminim jo të pakuptimtë se si AI dhe ligji po përzihen me njëri-tjetrin, shihni diskutimin tim në lidhja këtu. Në vështrimin tim dallues në AI & Ligji duke u bashkuar, unë jap këtë konceptim të drejtpërdrejtë të dy mënyrave kryesore për të ndërlidhur AI dhe ligjin:

  • (1) Ligji i zbatuar në UA: Formulimi, miratimi dhe zbatimi i ligjeve të zbatuara për rregullimin ose qeverisjen e Inteligjencës Artificiale në shoqërinë tonë
  • (2) UA-Aplikuar në Ligjin: Teknologjia e inteligjencës artificiale e krijuar dhe zbatuar në ligj, duke përfshirë arsyetimin ligjor të bazuar në AI (AILR) të injektuar në aplikacionet e teknologjisë së lartë LegalTech për të kryer në mënyrë autonome ose gjysmë autonome detyra avokatie

Pikëpamja e parë e renditur konsiston në marrjen në konsideratë se si ligjet ekzistuese dhe të reja do të qeverisin AI. Perspektiva e dytë e renditur ka të bëjë me zbatimin e AI në ligj.

Kjo kategori e fundit zakonisht përfshin përdorimin e arsyetimit ligjor të bazuar në AI (AILR) në mjete të ndryshme online të përdorura nga avokatët. Për shembull, AI mund të jetë pjesë e një pakete të Menaxhimit të Ciklit të Jetës së Kontratës (CLM) që ndihmon avokatët duke identifikuar gjuhën kontraktuale që do të jetë e dobishme për hartimin e kontratave të reja ose mund të zbulojë kontrata që kanë një gjuhë ligjërisht të urtë që lejon fatkeqësi ose boshllëqe ligjore. (për vështrimin tim në të ashtuquajturat "aroma të ligjit" që mund të dallohen nga AI, shih lidhja këtu).

Në mënyrë të pashmangshme do të kemi AI të zbatuar ndaj ligjit që bëhet i disponueshëm për përdorim nga publiku i gjerë dhe që nuk kërkon që një avokat të jetë në lak. Tani për tani, si rezultat i kufizimeve të ndryshme, duke përfshirë UPL (Praktik i Paautorizuar i Ligjit), vënia në dispozicion e aplikacioneve të këshillimit ligjor të bazuara në AI është një çështje e mprehtë dhe e diskutueshme, shikoni diskutimin tim në lidhja këtu.

E solla këtë hyrje në lidhje me AI dhe Ligjin për të vënë në dukje se një tjetër përdorim instrumental i AI i aplikuar në ligj do të ishte krijimi i kontrolluesve të dyfishtë ligjorë të AI.

Po, e njëjta lloj aftësie teknologjike e përfshirë në zbatimin e AI në ligj është në gjendje të shërbejë si një detyrë e dyfishtë duke përdorur AI për të shërbyer si një kontrollues i dyfishtë ligjor i AI-së së integruar ose të implantuar. Kontrolluesi i dyfishtë ligjor i AI është një komponent që duhet të jetë i përgatitur në aspektet ligjore. Kur pjesa tjetër e aplikacionit të AI po kryen veprime të ndryshme, kontrolluesi i dyfishtë ligjor i AI po vlerëson nëse aplikacioni i AI po e bën këtë ligjërisht dhe brenda kufizimeve të ligjshme.

Një komponent i kontrollit të dyfishtë ligjor të AI nuk duhet domosdoshmërisht të mbulojë gamën e plotë të gjithçkaje që duhet të dini rreth ligjit. Në varësi të natyrës së aplikacionit të AI në lidhje me qëllimin dhe veprimet e AI në përgjithësi, kontrolli i dyfishtë ligjor i AI mund të jetë shumë më i ngushtë për sa i përket ekspertizës ligjore që përmban.

Unë kam identifikuar një kornizë të dobishme për të treguar se si AI në domenin ligjor shtrihet në një seri kapacitetesh autonome, të njohura si Nivelet e Autonomisë (LoA). Për një përmbledhje, shihni timin Forbes postimi i kolonës së 21 nëntorit 2022, "Rasti gjithëpërfshirës jo-konsens bindës për arsyen pse avokatët duhet të dinë rreth AI dhe ligjit" në lidhja këtu, dhe për një përshkrim të hollësishëm teknik shihni artikullin tim të thelluar të kërkimit në MIT Computational Law Journal e 7 dhjetorit 2021, shih lidhja këtu.

Korniza sqaron pesë nivele të AI siç përdoren në përpjekjet ligjore:

  • Niveli 0: Nuk ka automatizim për punën ligjore të bazuar në AI
  • Niveli 1: Automatizimi i thjeshtë i ndihmës për punën ligjore të bazuar në AI
  • Niveli 2: Automatizimi i avancuar i ndihmës për punën ligjore të bazuar në AI
  • Niveli 3: Automatizimi gjysmë autonom për punë ligjore të bazuara në AI
  • Niveli 4: Domen autonom për punë ligjore të bazuara në AI
  • Niveli 5: Plotësisht autonome për punën ligjore të bazuar në AI

Do t'i përshkruaj shkurtimisht këtu.

Niveli 0 konsiderohet si niveli pa automatizim. Arsyetimi ligjor dhe detyrat ligjore kryhen nëpërmjet metodave manuale dhe kryesisht kryhen nëpërmjet qasjeve të bazuara në letër.

Niveli 1 përbëhet nga automatizimi i thjeshtë i ndihmës për arsyetimin ligjor të AI. Shembuj të kësaj kategorie do të përfshinin përdorimin e përpunimit të përditshëm të tekstit të bazuar në kompjuter, përdorimin e tabelave të përditshme të bazuara në kompjuter, aksesin në dokumentet ligjore online që ruhen dhe merren në mënyrë elektronike, etj.

Niveli 2 përbëhet nga automatizimi i avancuar i ndihmës për arsyetimin ligjor të AI. Shembuj të kësaj kategorie do të përfshinin përdorimin e Përpunimit rudimentar të Gjuhës Natyrore (NLP) në stilin e pyetjeve, elementet e thjeshtuara të Mësimit të Makinerisë (ML), mjetet e analizës statistikore për parashikimet e rasteve ligjore, etj.

Niveli 3 përbëhet nga automatizimi gjysmë autonom për arsyetimin ligjor të AI. Shembuj të kësaj kategorie do të përfshinin përdorimin e sistemeve të avancuara të bazuara në njohuri (KBS) për arsyetimin ligjor, përdorimin e të mësuarit makinerik dhe të të mësuarit të thellë (ML/DL) për arsyetimin ligjor, NLP të avancuar, etj.

Niveli 4 përbëhet nga sisteme kompjuterike autonome të bazuara në domen për arsyetimin ligjor të AI. Ky nivel ripërdor nocionin konceptual të Domeneve të Dizajnit Operacional (ODD), siç përdoret për makinat vetë-drejtuese, por siç zbatohet në domenin ligjor. Fushat ligjore mund të klasifikohen sipas fushave funksionale, të tilla si ligji familjar, ligji i pasurive të paluajtshme, ligji i falimentimit, ligji mjedisor, ligji tatimor, etj.

Niveli 5 përbëhet nga sisteme plotësisht autonome të bazuara në kompjuter për arsyetimin ligjor të AI. Në një farë kuptimi, Niveli 5 është mbibashkësia e Nivelit 4 për sa i përket përfshirjes së të gjitha fushave të mundshme ligjore. Ju lutem vini re se ky është një urdhër mjaft i gjatë.

Ju mund t'i konceptoni këto Nivele të Autonomisë në të njëjtin nivel me përdorimet e ngjashme kur diskutoni makinat vetëdrejtuese dhe automjetet autonome (bazuar gjithashtu në standardin zyrtar SAE, shihni mbulimin tim në lidhja këtu). Ne nuk kemi ende makina SAE të Nivelit 5 vetë-drejtues. Ne jemi duke u futur në makina vetë-drejtuese të nivelit 4 SAE. Shumica e makinave konvencionale janë në SAE Level 2, ndërsa disa nga makinat më të reja po futen në SAE Level 3.

Në fushën ligjore, ne nuk kemi ende AILR të Nivelit 5. Po prekim disa nga Niveli 4, ndonëse në ODD jashtëzakonisht të ngushta. Niveli 3 ka filluar të shohë dritën e ditës, ndërsa shtylla kryesore e AILR sot është kryesisht në nivelin 2.

Një artikull i fundit kërkimor rreth AI siç zbatohet në ligj ka paraqitur një tipizim të njohur si Ligji Informon Kodin. Studiuesi shprehet këtë: “Një nga qëllimet parësore të Ligji Informon Kodin axhenda është të mësojmë AI të ndjekë frymën e ligjit” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Revista Northwestern e Teknologjisë dhe Pronësisë Intelektuale, Vëllimi 20, i ardhshëm). Ka disa konsiderata thelbësore që Ligji Informon Kodin Mantra sjell dhe unë do t'ju tregoj nëpër disa nga ato parime kryesore.

Përpara se të zhytem në temë, së pari do të doja të vendosja disa baza thelbësore rreth AI dhe veçanërisht Etikës së AI dhe ligjit të AI, duke e bërë këtë për t'u siguruar që diskutimi do të jetë i arsyeshëm kontekstualisht.

Rritja e ndërgjegjësimit për AI Etike dhe gjithashtu Ligjin e AI

Epoka e fundit e AI fillimisht u konsiderua si e tillë AI për të mirë, që do të thotë se ne mund të përdorim AI për përmirësimin e njerëzimit. Në thembra të AI për të mirë erdhi kuptueshmëria se edhe ne jemi zhytur në të AI për të keqen. Kjo përfshin AI që është krijuar ose vetë-ndryshuar në diskriminim dhe që bën zgjedhje llogaritëse duke mbushur me paragjykime të panevojshme. Ndonjëherë AI është ndërtuar në atë mënyrë, ndërsa në raste të tjera ajo kthehet në atë territor të pakëndshëm.

Dua të sigurohem shumë që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI në të cilin po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim në mënyrë të egër për inteligjencën artificiale të ndjeshme, ky diskutim mund të shkonte në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Unë do të sugjeroja fuqimisht që t'i mbajmë gjërat në tokë dhe të marrim parasysh inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Jini shumë të kujdesshëm ndaj antropomorfizimit të AI-së së sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime të ngulitura ende brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

E gjithë kjo ka implikime të rëndësishme të Etikës së AI dhe ofron një dritare të dobishme në mësimet e nxjerra (edhe para se të gjitha mësimet të ndodhin) kur bëhet fjalë për përpjekjen për të ligjësuar AI.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në kolonat e mëparshme, unë kam mbuluar përpjekjet e ndryshme kombëtare dhe ndërkombëtare për të krijuar dhe miratuar ligje që rregullojnë AI, shih lidhja këtu, për shembull. Unë kam mbuluar gjithashtu parimet dhe udhëzimet e ndryshme të Etikës së AI që kombe të ndryshme kanë identifikuar dhe miratuar, duke përfshirë për shembull përpjekjet e Kombeve të Bashkuara si grupi i UNESCO-s i Etikës së AI që kanë miratuar afro 200 vende, shih. lidhja këtu.

Këtu është një listë e dobishme kryesore e kritereve ose karakteristikave Etike të AI në lidhje me sistemet e AI që kam eksploruar më parë nga afër:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Këto parime të Etikës së AI supozohet të përdoren me zell nga zhvilluesit e AI, së bashku me ato që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI.

Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të IA konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u theksua më parë këtu, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të Etikës së UA.

Kohët e fundit kam ekzaminuar gjithashtu UA Bill of Rights i cili është titulli zyrtar i dokumentit zyrtar të qeverisë amerikane të titulluar "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" që ishte rezultat i një përpjekjeje njëvjeçare nga Zyra e Politikave të Shkencës dhe Teknologjisë (OSTP ). OSTP është një ent federal që shërben për të këshilluar Presidentin Amerikan dhe Zyrën Ekzekutive të SHBA-së për aspekte të ndryshme teknologjike, shkencore dhe inxhinierike me rëndësi kombëtare. Në këtë kuptim, mund të thoni se ky Projektligj i të Drejtave të AI është një dokument i miratuar dhe i miratuar nga Shtëpia e Bardhë ekzistuese e SHBA.

Në Ligjin e të Drejtave të AI, ekzistojnë pesë kategori kryesore:

  • Sisteme të sigurta dhe efektive
  • Mbrojtje nga diskriminimi algoritmik
  • Privatësia e të dhënave
  • Njoftim dhe shpjegim
  • Alternativat njerëzore, konsiderata dhe rikthimi

Unë i kam shqyrtuar me kujdes ato rregulla, shih lidhja këtu.

Tani që kam hedhur një themel të dobishëm në këto tema të lidhura me Etikën e AI dhe Ligjin e AI, ne jemi gati të hidhemi në temën e mprehtë të kontrolleve të dyfishta ligjore të AI dhe sferës së Ligji Informon Kodin.

Kontrolluesit e dyfishtë ligjorë të AI të integruara në AI për shtrirjen e vlerave njerëzore

I referohem ndonjëherë Kontrollet e dyfishta ligjore të AI nëpërmjet një akronimi të AI-LDC. Kjo është pak vizualisht e bezdisshme për ata që nuk janë të njohur me akronimin. Si i tillë, unë nuk do ta përdor këtë akronim të veçantë në këtë diskutim, por doja t'jua përmenda si një paralajmërim.

Për të zbërthyer disa nga kompleksitetet e kontrolleve të dyfishta ligjore të AI, le të trajtojmë këto pika kryesore:

  • Përdorimi i kontrolluesve të dyfishtë ligjorë të AI si një mekanizëm për shtrirjen e vlerave njerëzore të AI
  • Inteligjenca artificiale më e gjerë do të kërkojë përkatësisht kontrolle të dyfishta ligjore më të fuqishme të AI
  • Kontrollorët e dyfishtë ligjorë të AI miratojnë ligjin dhe veçanërisht nuk po bëjnë ligj (me sa duket)
  • Balancë delikate ndërmjet UA Mishërimi ligjor i ligjit si rregulla kundrejt standardeve
  • Kërkimi i provës së pudingut kur bëhet fjalë për respektimin e ligjit nga AI

Për shkak të kufizimeve të hapësirës, ​​unë do t'i mbuloj ato pesë pika tani për tani, megjithëse ju lutemi të jeni vigjilentë për mbulim të mëtejshëm në kolonën time që mbulon konsiderata shtesë dhe po aq të rëndësishme për këto çështje që evoluojnë me shpejtësi dhe ecin përpara.

Tani për tani, vendosni rripin tuaj të sigurimit dhe përgatituni për një udhëtim gjallërues.

  • Përdorimi i kontrolluesve të dyfishtë ligjorë të AI si një mekanizëm për shtrirjen e vlerave njerëzore të AI

Ka shumë mënyra për të provuar dhe arritur një përafrim harmonik midis AI dhe vlerave njerëzore.

Siç u përmend më herët, ne mund të prodhojmë dhe të shpallim parimet e Etikës së AI dhe të kërkojmë që zhvilluesit e AI dhe ata që ofrojnë dhe operojnë AI të respektojnë ato themele. Për fat të keq, kjo vetëm nuk do të bëjë mashtrim. Ju keni disa ideatorë që në mënyrë të pashmangshme nuk do ta marrin mesazhin. Ju keni disa ideatorë që do të shfaqin inteligjencën artificiale etike dhe do të përpiqen të anashkalojnë parimet e përshkruara disi të lirshme. Dhe kështu me radhë.

Përdorimi i qasjeve të "ligjit të butë" që përfshin Etikën e AI duhet pothuajse në mënyrë të pashmangshme të shoqërohet me rrugët "të ligjit të vështirë" si miratimi i ligjeve dhe rregulloreve që do të dërgojnë një sinjal të fuqishëm për të gjithë ata që krijojnë ose përdorin AI. Krahu i gjatë i ligjit mund të vijë për t'ju marrë nëse nuk po përdorni me maturi AI. Zhurma e trokitjes së dyerve të burgut mund të tërhiqte vëmendje të madhe.

Megjithatë, një problem i madh është se ndonjëherë dera e hambarit tashmë i ka lënë kuajt të dalin e të rrotullohen. Një inteligjencë artificiale që është vënë në terren, potencialisht do të prodhojë të gjitha llojet e veprimeve të paligjshme dhe do të vazhdojë ta bëjë këtë derisa jo vetëm të kapet, por edhe kur më në fund disa zbatime të fillojnë për të penguar rrjedhën e veprimeve të paligjshme. E gjithë kjo mund të marrë kohë. Ndërkohë, njerëzit po dëmtohen në një mënyrë apo në një tjetër.

Në këtë përpjekje vjen kontrolli i dyfishtë ligjor i AI.

Duke banuar brenda një aplikacioni të AI, kontrolluesi i dyfishtë ligjor i AI është në gjendje të zbulojë menjëherë kur AI duket se është në kundërshtim me ligjin. Kontrolluesi i dyfishtë ligjor i AI mund të ndalojë AI në gjurmët e saj. Ose përbërësi mund t'i paralajmërojë njerëzit për aktivitetet e paligjshme të dalluara, duke e bërë këtë në kohën e duhur, gjë që mund t'i shtyjë mbikëqyrësit në veprime korrigjuese urgjente. Ekziston gjithashtu regjistrimi i konsideruar i zyrtarizuar që komponenti mund të krijojë, duke ofruar një pamje të prekshme të një gjurme auditimi për qëllime të kodifikimit të veprimeve negative të UA.

Ligjet tona thuhet se janë një formë e konglomeratit me shumë agjentë të tillë që ligjet në mënyrë të pashmangshme janë një përzierje e asaj që shoqëria ka kërkuar të vendosë si një ekuilibër midis pikëpamjeve të mundshme kontradiktore të sjelljeve të duhura dhe të pahijshme shoqërore. Prandaj, një kontrollues i dyfishtë ligjor i AI i bazuar në ligjet tona po mishëron atë përzierje.

Veçanërisht, kjo është më shumë sesa thjesht programimi i një liste rregullash ligjore përfundimtare. Ligjet priren të jenë më të lakueshëm dhe të përpiqen drejt standardeve gjithëpërfshirëse, në vend që të specifikojnë rregullat më të vogla mikroskopike. Kompleksitetet janë të shumta.

Duke iu rikthyer punimit kërkimor të përmendur më herët, ja se si mund të shihen këto konsiderata në lidhje me ndjekjen e AI Alignment: “Ligji, filozofia e aplikuar e shtrirjes me shumë agjentë, i përmbush në mënyrë unike këto kritere. Rreshtimi është një problem sepse ne nuk mundemi ex ante specifikoni rregulla që drejtojnë plotësisht dhe në mënyrë të provuar sjelljen e mirë të AI. Në mënyrë të ngjashme, palët në një kontratë ligjore nuk mund të parashikojnë çdo rast të marrëdhënies së tyre dhe ligjvënësit nuk mund të parashikojnë rrethanat specifike në të cilat ligjet e tyre do të zbatohen. Kjo është arsyeja pse pjesa më e madhe e ligjit është një plejadë standardesh” (ibid).

Përfshirja e ligjit në një kontrollues të dyfishtë ligjor të AI është shumë më sfidues sesa mund të supozoni në fillim.

Ndërsa AI përparon, ne do të na duhet t'i shfrytëzojmë këto përparime në përputhje me rrethanat. Rezulton se ajo që është e mirë për patën është gjithashtu e mirë për ganderin. Ata prej nesh që bëjnë përparim në AI, siç zbatohet në ligj, po e shtyjnë zarfin mbi AI dhe padyshim po krijojnë përparime të reja që përfundimisht mund të ushqejnë përparimin e AI krejtësisht.

  • Inteligjenca artificiale më e gjerë do të kërkojë përkatësisht kontrolle të dyfishta ligjore më të fuqishme të AI

Një lojë mace-miu përballet me këtë temë.

Gjasat janë që ndërsa AI avancohet më tej, çdo komponent i kontrollit të dyfishtë ligjor të AI do t'i gjejë çështjet gjithnjë e më të vështira për t'u përballuar. Për shembull, një aplikacion i inteligjencës artificiale që po shqyrtohet mund të ketë mënyra të reja super të fshehta për të fshehur veprimet e paligjshme që po ndërmerr AI. Edhe nëse AI nuk po merr një rrugë të fshehtë, kompleksiteti i përgjithshëm i AI mund të jetë vetëm një pengesë e frikshme për të kërkuar vlerësimin e dyfishtë të kontrollit ligjor të AI.

Ja se si kjo bëhet veçanërisht e rëndësishme.

Supozoni se një zhvillues i AI ose ndonjë firmë që përdor AI deklaron se ekziston një kontrollues i dyfishtë ligjor i AI që është futur në aplikacionin e bazuar në AI. Voila, ata duket se tani kanë larë duart për çdo shqetësim të mëtejshëm. Kontrolluesi i dyfishtë ligjor i AI do të kujdeset për gjithçka.

Jo ashtu.

Kontrolli i dyfishtë ligjor i AI mund të jetë i pamjaftueshëm për natyrën e aplikacionit të inteligjencës artificiale të përfshirë. Ekziston gjithashtu mundësia që kontrolli i dyfishtë ligjor i AI të bëhet i vjetëruar, ndoshta duke mos u përditësuar me ligjet më të fundit që kanë të bëjnë me aplikacionin e AI. Mund të parashikohen një sërë arsyesh se përse prania e thjeshtë e një kontrolluesi të dyfishtë ligjor të AI nuk do të jetë një plumb argjendi.

Konsideroni këto njohuri nga hulumtimi i cituar më herët: “Ndërsa teknologjia më e fundit për AI përparon, ne mund të vendosim nivele të përsëritura më të larta të aftësive të demonstruara të të kuptuarit ligjor. Nëse një zhvillues pretendon se sistemi i tij ka aftësi të avancuara për detyrat, ai duhet të demonstrojë kuptimin përkatës të avancuar ligjor dhe aftësitë ligjore, arsyetuese të AI, të cilat praktikisht nuk kanë asnjë tavan vështirësie kur marrin parasysh rrëmujën e ligjeve dhe rregulloreve përgjatë kohës, precedentit dhe juridiksionit. ” (po aty).

  • Kontrollorët e dyfishtë ligjorë të AI miratojnë ligjin dhe veçanërisht nuk po bëjnë ligj (me sa duket)

Jam i sigurt se disa prej jush janë të tronditur nga ideja e të paturit të këtyre kontrolleve të dyfishta ligjore të AI.

Një shqetësim i shprehur shpesh është se ne me sa duket do të lejojmë AI të vendosë ligjet tona për ne. Zot i mirë, ju mund të jeni duke menduar, një pjesë e automatizimit do të kapërcejë njerëzimin. Ata kontrollues të dyfishtë ligjorë të inteligjencës artificiale të ngulitura do të bëhen mbretërit e paracaktuar të ligjeve tona. Çfarëdo që ata të bëjnë do të jetë ajo që duket se është ligji.

Njerëzit do të sundohen nga AI.

Dhe këto kontrolle të dyfishta ligjore të AI-së janë shpati i rrëshqitshëm që na çon atje.

Një kundërargument është se një bisedë e tillë është lëndë e teorive konspirative. Ju po postuloni egërsisht dhe po e futni veten në një gjendje të keqe. Realiteti është se këta kontrollues të dyfishtë ligjor të AI nuk janë të ndjeshëm, ata nuk do të pushtojnë planetin, dhe hamendja për rrezikun e tyre ekzistencial është haptazi absurde dhe jashtëzakonisht e mbivlerësuar.

Në përgjithësi, duke qëndruar me një qëndrim të qetë dhe të arsyetuar, duhet të jemi të vetëdijshëm se kontrollet e dyfishta ligjore të AI shërbejnë për të pasqyruar në mënyrë të përshtatshme ligjin dhe jo nga projektimi dhe as rastësisht të shkojmë më tej në njëfarë mënyre në sferën e nderuar të krijimit. ligji. Duke lënë mënjanë ekstrapolimet e ndjenjave, sigurisht që mund të pajtohemi se ekziston një shqetësim i vërtetë dhe urgjent që kontrolli i dyfishtë ligjor i AI mund të përfundojë duke keqinterpretuar natyrën e vërtetë të një ligji të caktuar.

Nga ana tjetër, ju mund të pretendoni se për këtë arsye ai ligj i veçantë "i keqpërfaqësuar" në thelb po bëhet përsëri pasi ai nuk nënkupton më me vend atë që synohej nga ligji aktual. Unë besoj se ju sinqerisht mund të shihni se si kjo është një konsideratë delikate, por që tregon. Në çdo moment në kohë, kontrolluesi i dyfishtë ligjor i AI mund në një bazë virtuale duke bërë ose do të themi "halucinacione" ligje të reja thjesht nga mënyra se si komponenti i AI po e interpreton ligjin siç është deklaruar fillimisht ose mishëruar në AI (për mbulimin tim i AI të ashtuquajturit hallucinations, Shih lidhja këtu).

Kujdes për këtë duhet treguar me rreptësi.

Në lidhje me këtë temë, studimi i sipërpërmendur kërkimor ofron këtë mendim paralel në drejtim të kërkimit për të shmangur kalimin e kësaj linje të shenjtë: “Ne nuk synojmë që AI të ketë legjitimitetin për të bërë ligj, për të vendosur precedent ligjor ose për të zbatuar ligjin. Në fakt, kjo do të minonte qasjen tonë (dhe ne duhet të investojmë përpjekje të konsiderueshme për ta parandaluar atë). Përkundrazi, qëllimi më ambicioz i Kodit të Informimit të Ligjit është të kodojë në mënyrë llogaritëse dhe të përfshijë përgjithësimin e koncepteve dhe standardeve ligjore ekzistuese në performancën e vërtetuar të AI” (ibid).

  • Balancë delikate ndërmjet UA Mishërimi ligjor i ligjit si rregulla kundrejt standardeve

Ligjet janë të çrregullta.

Për pothuajse çdo ligj mbi librat, ka të ngjarë të ketë një mori interpretimesh rreth asaj që ligji përcakton në praktikën aktuale. Në shprehjen e fushës së AI, ne i referohemi ligjeve si semantikisht të paqarta. Kjo është ajo që e bën zhvillimin e AI, siç zbatohet në ligj, një sfidë kaq emocionuese dhe njëkohësisht shqetësuese. Ndryshe nga numri i saktë që mund të shihni për aplikacionet e inteligjencës artificiale me orientim financiar, të themi, dëshira për të mishëruar ligjet tona në AI përfshin trajtimin e një cunami paqartësish semantike.

Në librin e fondacionit tim mbi bazat e Arsyetimit Ligjor të AI (AILR), unë diskutoj se si përpjekjet e mëparshme për thjesht kodifikimin e ligjeve në një grup rregullash të kufizuara nuk na çuan aq larg sa do të donim të shkonim në fushën ligjore (shih lidhja këtu). AILR-ja e sotme duhet të përfshijë një integrim midis përdorimit të rregullave dhe atyre që mund të quhen standarde gjithëpërfshirëse që përfaqëson ligji.

Ky ekuilibër i rëndësishëm mund të shprehet në këtë mënyrë: "Në praktikë, shumica e dispozitave ligjore shtrihen diku në një spektër midis rregullit të pastër dhe standardit të pastër, dhe teoria ligjore mund të ndihmojë në vlerësimin e kombinimit të duhur të "rregullit" dhe "standardit" kur specifikohen objektivat e sistemeve të AI” (ibid).

  • Kërkimi i provës së pudingut kur bëhet fjalë për respektimin e ligjit nga AI

Të duash diçka është ndryshe nga të kesh diçka.

Kjo grimë mençurie del kur themi se megjithëse mund të duam të kemi kontrolle të dyfishta ligjore të AI, ne duhet të sigurojmë me bollëk se ato funksionojnë dhe funksionojnë siç duhet. Vini re se kjo paraqet një tjetër pengesë të vështirë dhe rraskapitëse. Unë kam mbuluar më parë përparimet dhe sfidat më të fundit në verifikimin dhe vërtetimin e AI, shih lidhja këtu.

Siç vërehet në dokumentin kërkimor: “Për të adresuar boshllëkun, përpara se modelet e AI të vendosen në kapacitete gjithnjë e më agjenturore, p.sh., automjete plotësisht autonome në rrugët kryesore, pala e vendosur duhet të demonstrojë kuptimin e sistemit për qëllimet njerëzore, politikat dhe standardet ligjore. Një procedurë validimi mund të ilustrojë 'kuptimin' e 'kuptimit' të koncepteve ligjore nga IA" (ibid).

Përfundim

Ju bëj thirrje që të konsideroni të bashkoheni me mua në këtë përpjekje fisnike për të ndërtuar dhe vendosur kontrollues të dyfishtë ligjor të AI. Ne kemi nevojë për më shumë vëmendje dhe burime kushtuar kësaj ndjekjeje të virtytshme.

Kjo gjithashtu siguron detyrë të dyfishtë, siç u përmend më herët, drejt arritjes së Arsyetimit Ligjor të AI (AILR) që mund të përdoret për të ndihmuar avokatët dhe që mund të përdoret drejtpërdrejt nga publiku i gjerë. Në të vërtetë, disa argumentojnë me forcë se i vetmi mjet praktik për të arritur një ndjenjë më të plotë të aksesit në drejtësi (A2J) do të jetë nëpërmjet krijimit të AI që mishëron kapacitetet ligjore dhe mund të aksesohet nga të gjithë.

Një pikë e shpejtë përfundimtare për momentin.

Diskutimi i deritanishëm ka theksuar se kontrolluesi i dyfishtë ligjor i AI do të futet ose implantohet në AI. Ky është me të vërtetë fokusi kryesor i atyre që hulumtojnë dhe ndërmarrin këtë sferë në zhvillim.

Këtu është një pyetje që ia vlen të diskutohet.

Vendosni kapakun tuaj të të menduarit.

Pse të mos përdorni kontrollet e dyfishta ligjore të AI në të gjithë softuerin?

Thelbi është se në vend që të përdorim ekskluzivisht kontrollet e dyfishta ligjore të AI në AI, ndoshta duhet të zgjerojmë këndvështrimin tonë. Të gjitha llojet e softuerëve mund të humbasin ligjërisht. Inteligjenca artificiale pa dyshim ka marrë pjesën më të madhe të vëmendjes për shkak të mënyrave në të cilat AI zakonisht vihet në përdorim, të tilla si marrja e vendimeve të vështira që ndikojnë te njerëzit në jetën e tyre të përditshme. Megjithatë, mund të pohoni me lehtësi se ka shumë sisteme jo-AI që veprojnë në të njëjtën mënyrë.

Në thelb, ne nuk duhet të lejojmë asnjë softuer të ketë një udhëtim falas për të shmangur ose shmangur ligjin.

Kujtoni edhe më herët që përmenda dy kategoritë e kombinimit të AI dhe ligjit. Ne këtu jemi fokusuar në përdorimin e AI siç zbatohet në ligj. Në anën tjetër të medaljes është zbatimi i ligjit për AI. Supozoni se ne miratojmë ligje që kërkojnë përdorimin e kontrolleve të dyfishta ligjore të AI.

Kjo fillimisht mund të kufizohet në sistemet e AI, veçanërisht ato të vlerësuara si veçanërisht me rrezik të lartë. Gradualisht, e njëjta kërkesë ligjore për kontrollin e dyfishtë të AI mund të shtrihet edhe në programet jo-AI. Përsëri, nuk ka udhëtime falas.

Ndërsa ju i kushtoni vëmendje kësaj konsiderate të mësipërme, unë do t'i shijoj gjërat si një ngacmues përmbyllës. Nëse do të përpiqemi të kërkojmë kontrolle të dyfishta ligjore të AI, mund të bëjmë po ashtu edhe për kontrollet e dyfishta të Etikës së AI. Përdorimi i një kontrolli të dyfishtë ligjor të AI është vetëm gjysma e historisë dhe ne nuk mund të neglizhojmë ose harrojmë gjithashtu shqetësimet e Etikës së AI.

Unë do ta përfundoj këtë ligjërim gazmor me një nga thëniet e mia të preferuara. Sipas fjalëve të mençura të Earl Warren, juristit të famshëm që shërbeu si Kryegjykatësi i Shteteve të Bashkuara: "Në jetën e qytetëruar, ligji noton në një det etike".

Mund të jetë më mirë që t'i vëmë në përdorim të zjarrtë ato kontrollues të dyfishtë legalë të inteligjencës artificiale që lulëzojnë dhe flluskojnë dhe kontrollues të dyfishtë të Etikës së AI, nëse duam të mbajmë kokën mbi detet e rënda që mund të afrohen nga AI dhe sistemet e thata jo-AI që rrezikojnë sigurinë tonë .

Ata mund të jenë jelek shpëtimi i njerëzimit.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- dhe-ligji/