Etika e inteligjencës artificiale dhe ligji i AI duke peshuar mënyrat kryesore për të zbatuar atë Bill të të Drejtave të AI të publikuar së fundmi, duke përfshirë dhe çuditërisht duke përdorur AI në mënyrë të plotë

Nuk ka dyshim se ne kemi nevojë për projekte në jetën tonë të përditshme.

Nëse do të ndërtoni shtëpinë tuaj të ëndërruar prej kohësh, do të ishte e mençur që së pari të krijoni një plan të përdorshëm.

Një plan tregon në një mënyrë të prekshme dhe të dokumentuar çfarëdo këndvështrimi vizionar me sy të gjerë që mund të jetë i mbyllur në noginën tuaj. Ata që do të thirren për të ndërtuar shtëpinë tuaj të dashur do të jenë në gjendje t'i referohen projektit dhe të tregojnë detajet se si ta kryejnë punën. Planet janë të dobishme. Mungesa e një plani do të jetë problematike për trajtimin e çdo lloj pune komplekse apo projekti.

Le ta zhvendosim këtë nderim disi sentimental, por të vërtetë për projektet në sferën e Inteligjencës Artificiale (AI).

Ata prej jush që janë në thelb të inteligjencës artificiale mund të jenë të vetëdijshëm për një çështje të rëndësishme të orientuar drejt politikave plan u lëshua së fundmi në SHBA që ka të bëjë dukshëm me të ardhmen e AI. I njohur joformalisht si UA Bill of Rights, titulli zyrtar i letrës së bardhë të shpallur është "Plani për një Bill të të Drejtave të AI: Bërja e sistemeve të automatizuara të funksionojnë për popullin amerikan" dhe është lehtësisht i disponueshëm në internet.

Dokumenti është rezultat i një përpjekjeje njëvjeçare dhe një studimi të kujdesshëm nga Zyra e Politikave të Shkencës dhe Teknologjisë (OSTP). OSTP është një ent federal që u krijua në mesin e viteve 1970 dhe shërben për të këshilluar Presidentin Amerikan dhe Zyrën Ekzekutive të SHBA për aspekte të ndryshme teknologjike, shkencore dhe inxhinierike me rëndësi kombëtare. Në këtë kuptim, mund të thoni se ky Projektligj i të Drejtave të AI është një dokument i miratuar dhe i miratuar nga Shtëpia e Bardhë ekzistuese e SHBA.

Projektligji i të drejtave të AI përshkruan të drejtat e njeriut që njerëzimi duhet të ketë në lidhje me ardhjen e AI në jetën tonë të përditshme. E theksoj këtë pikë të rëndësishme, sepse disa njerëz fillimisht ishin në mëdyshje se ndoshta kjo ishte një lloj njohjeje e AI që kishte një person juridik dhe se kjo ishte një seri të drejtash për AI të ndjeshme dhe robotë humanoidë. Jo, nuk jemi ende atje. Siç do ta shihni në një moment, ne nuk jemi askund afër inteligjencës artificiale të ndjeshme, pavarësisht titujve të banerëve që duket se na thonë të kundërtën.

Mirë, pra a kemi nevojë për një plan që përshkruan të drejtat e njeriut në një epokë të AI?

Po, ne me siguri e bëjmë.

Thuajse do t'ju duhet të mbylleni në një shpellë dhe të mos keni akses në internet për të mos ditur se AI tashmë dhe gjithnjë e më shumë po cenon të drejtat tona. Epoka e fundit e AI fillimisht u konsiderua si e tillë AI për të mirë, që do të thotë se ne mund të përdorim AI për përmirësimin e njerëzimit. Në thembra të AI për të mirë erdhi kuptueshmëria se edhe ne jemi zhytur në të AI për të keqen. Kjo përfshin AI që është krijuar ose vetë-ndryshuar në diskriminim dhe që bën zgjedhje llogaritëse duke mbushur me paragjykime të panevojshme. Ndonjëherë AI është ndërtuar në atë mënyrë, ndërsa në raste të tjera ajo kthehet në atë territor të pakëndshëm.

Për mbulimin dhe analizën time të vazhdueshme dhe të gjerë të Ligjit të AI, Etikës së AI dhe tendencave të tjera kryesore teknologjike dhe shoqërore të AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Shpaketimi i Projektligjit të të Drejtave të AI

Unë kam diskutuar më parë Ligjin e të Drejtave të AI dhe do të bëj një përmbledhje të shpejtë këtu.

Si mënjanë, nëse dëshironi të dini të mirat dhe të këqijat e mia të thella të Ligjit të të Drejtave të AI të lëshuar së fundmi, unë e kam detajuar analizën time në një postim në jurist, Shih lidhja këtu. jurist është një faqe e shquar në internet e lajmeve dhe komenteve ligjore, e njohur gjerësisht si një shërbim lajmesh juridik i vlerësuar me çmime, i mundësuar nga një ekip global gazetarësh, redaktorësh, komentuesish, korrespondentësh dhe zhvilluesish të përmbajtjes, dhe ka selinë në Universitetin e Pittsburgh School of Ligji në Pittsburgh, ku filloi mbi 25 vjet më parë. Thirrje për ekipin e shquar dhe punëtor në jurist.

Në Ligjin e të Drejtave të AI, ekzistojnë pesë kategori kryesore:

  • Sisteme të sigurta dhe efektive
  • Mbrojtje nga diskriminimi algoritmik
  • Privatësia e të dhënave
  • Njoftim dhe shpjegim
  • Alternativat njerëzore, konsiderata dhe rikthimi

Vini re se nuk i numërova nga një në pesë, pasi duke bërë këtë mund të nënkuptojë se ato janë në një sekuencë të caktuar ose se njëra nga të drejtat është në dukje më e rëndësishme se tjetra. Ne do të supozojmë se ata janë secili nga meritat e tij. Ata janë të gjithë në një farë mënyre po aq meritorë.

Si një tregues i shkurtër se çfarë përbëhet secila prej tyre, këtu është një fragment nga letra e bardhë zyrtare:

  • Sisteme të sigurta dhe efektive: “Duhet të mbroheni nga sistemet e pasigurta ose joefektive. Sistemet e automatizuara duhet të zhvillohen me konsultim nga komunitete të ndryshme, palë të interesuara dhe ekspertë të fushës për të identifikuar shqetësimet, rreziqet dhe ndikimet e mundshme të sistemit.
  • Mbrojtja nga diskriminimi algoritmik: “Nuk duhet të përballeni me diskriminim nga algoritmet dhe sistemet duhet të përdoren dhe të dizajnohen në mënyrë të barabartë. Diskriminimi algoritmik ndodh kur sistemet e automatizuara kontribuojnë në trajtime të ndryshme të pajustifikuara ose ndikime në disfavorin e njerëzve bazuar në racën, ngjyrën, përkatësinë etnike, seksin (duke përfshirë shtatzëninë, lindjen dhe kushtet mjekësore të lidhura, identitetin gjinor, statusin ndërseksual dhe orientimin seksual), fenë, moshën. , origjinën kombëtare, aftësinë e kufizuar, statusin e veteranit, informacionin gjenetik ose çdo klasifikim tjetër të mbrojtur me ligj.”
  • Privatësia e të dhënave: “Ju duhet të mbroheni nga praktikat abuzive të të dhënave nëpërmjet mbrojtjeve të integruara dhe duhet të keni agjenci mbi mënyrën se si përdoren të dhënat për ju. Ju duhet të mbroheni nga shkeljet e privatësisë përmes zgjedhjeve të dizajnit që sigurojnë që këto mbrojtje të përfshihen si parazgjedhje, duke përfshirë sigurimin që mbledhja e të dhënave të jetë në përputhje me pritshmëritë e arsyeshme dhe që të mblidhen vetëm të dhënat rreptësisht të nevojshme për kontekstin specifik.”
  • Njoftim dhe shpjegim: “Duhet të dini se një sistem i automatizuar po përdoret dhe të kuptoni se si dhe pse ai kontribuon në rezultatet që ndikojnë tek ju. Projektuesit, zhvilluesit dhe vendosësit e sistemeve të automatizuara duhet të ofrojnë dokumentacion në përgjithësi të aksesueshëm në gjuhë të thjeshtë duke përfshirë përshkrime të qarta të funksionimit të përgjithshëm të sistemit dhe rolit që luan automatizimi, të vërejnë se sisteme të tilla janë në përdorim, individin ose organizatën përgjegjëse për sistemin dhe shpjegimet e rezultate që janë të qarta, në kohë dhe të arritshme.”
  • Alternativat njerëzore, konsiderata dhe kthimi: “Duhet të jeni në gjendje të tërhiqeni, aty ku është e përshtatshme, dhe të keni akses tek një person që mund të shqyrtojë dhe të zgjidhë shpejt problemet që hasni. Ju duhet të jeni në gjendje të tërhiqeni nga sistemet e automatizuara në favor të një alternative njerëzore, aty ku është e përshtatshme.”

Në përgjithësi, këto janë aspekte të të drejtave të njerëzimit që kanë qenë të rrethuara për një kohë të gjatë në kontekstin e Etikës së AI dhe Ligjit të AI, shih mbulimin tim si p.sh. lidhja këtu. Letra e bardhë me sa duket nuk e nxjerr me magji një lepur nga një kapelë për sa i përket ndonjë të drejte të sapo zbuluar ose të zbuluar që deri më tani nuk është sqaruar në një kontekst të epokës së AI.

Eshte ne rregull.

Mund të pohoni se përmbledhja e tyre në një koleksion të paketuar mirë dhe të formalizuar ofron një shërbim jetësor. Plus, duke u vajosur si një i vlerësuar UA Bill of Rights, kjo më tej e vendos të gjithë çështjen haptazi dhe me aftësi në ndërgjegjen e sferës publike. Ai bashkon një bollëk ekzistues të diskutimeve të ndryshme në një grup të veçantë që tani mund të trumbetohet dhe të transmetohet në të gjitha llojet e palëve të interesuara.

Më lejoni të ofroj këtë listë të reagimeve të favorshme ndaj Ligjit të të Drejtave të shpallura të AI:

  • Ofron një përmbledhje thelbësore të parimeve kryesore
  • Shërben si një plan ose themel për t'u ndërtuar mbi të
  • Vepron si një thirrje e zëshme për veprim
  • Nxit interesin dhe tregon se këto janë konsiderata serioze
  • Sjell së bashku një mori diskutimesh të ndryshme
  • Nxit dhe kontribuon në përpjekjet për adoptimin e AI Etike
  • Padyshim që do të ushqehet me vendosjen e ligjeve të AI
  • tjetër

Ne gjithashtu duhet të marrim parasysh reagimet më pak se të favorshme, duke marrë parasysh se ka shumë më tepër punë që duhet bërë dhe se ky është vetëm fillimi i një rrugëtimi të gjatë në rrugën e mundimshme të qeverisjes së AI.

Si të tilla, kritikat disi të ashpra ose do të themi konstruktive të bëra në lidhje me Ligjin e të Drejtave të AI përfshijnë:

  • I pazbatueshëm ligjërisht dhe plotësisht jo detyrues
  • Politika qeveritare vetëm këshilluese dhe jo e konsideruar
  • Më pak gjithëpërfshirëse në krahasim me veprat e tjera të botuara
  • Kryesisht përbëhet nga koncepte të gjera dhe i mungojnë detajet e zbatimit
  • Do të jetë sfiduese për t'u kthyer në ligje praktike reale të zbatueshme
  • Me sa duket i heshtur për çështjen e afërt të ndalimit të mundshëm të AI në disa kontekste
  • Pranon në mënyrë margjinale avantazhet e përdorimit të AI që është krijuar mirë
  • tjetër

Ndoshta komenti më i mprehtë i ashpër është përqendruar në faktin se kjo Bill i të Drejtave të AI nuk është ligjërisht i zbatueshëm dhe kështu nuk mban ujë kur bëhet fjalë për vendosjen e shtyllave të qarta. Disa kanë thënë se megjithëse letra e bardhë është e dobishme dhe inkurajuese, padyshim që i mungojnë dhëmbët. Ata vënë në dyshim se çfarë mund të vijë nga një grup urdhërimesh të mrekullueshëm që thuhet se do të jenë me dhëmbë të zbrazët.

Unë do t'i trajtoj ato vërejtje thumbuese brenda një momenti.

Ndërkohë, letra e bardhë deklaron me bollëk kufizimet e asaj që përfshin kjo Bill i të Drejtave të AI:

  • “Projekti për një projektligj të të drejtave të AI është jo detyrues dhe nuk përbën politikën e qeverisë amerikane. Ai nuk zëvendëson, modifikon ose drejton një interpretim të ndonjë statuti, rregulloreje, politike ose instrumenti ndërkombëtar ekzistues. Ai nuk përbën udhëzim detyrues për publikun ose agjencitë federale dhe për këtë arsye nuk kërkon pajtueshmëri me parimet e përshkruara këtu. Gjithashtu nuk është përcaktuese se cili do të jetë pozicioni i qeverisë amerikane në ndonjë negociatë ndërkombëtare. Miratimi i këtyre parimeve mund të mos plotësojë kërkesat e statuteve, rregulloreve, politikave ose instrumenteve ndërkombëtare ekzistuese, ose kërkesat e agjencive federale që i zbatojnë ato. Këto parime nuk synojnë dhe nuk ndalojnë ose kufizojnë çdo aktivitet të ligjshëm të një agjencie qeveritare, duke përfshirë zbatimin e ligjit, sigurinë kombëtare ose aktivitetet e inteligjencës” (sipas letrës së bardhë).

Për ata që kanë qenë të shpejtë për të nënvlerësuar Ligjin e të Drejtave të AI si ligjërisht jo-detyrues, le të bëjmë pak eksperimente mendimi mbi atë pretendim thumbues. Supozoni se letra e bardhë u lëshua dhe kishte fuqinë e plotë të ligjit. Guxoj të them se rezultati do të ishte disi kataklizmik, të paktën në shkallën e përgjigjeve ligjore dhe shoqërore ndaj shpalljes.

Ligjvënësit do të përballeshin me faktin se përpjekja nuk kishte ndërmarrë proceset normative dhe procedurat ligjore për hartimin e ligjeve të tilla. Bizneset do të tërboheshin, me të drejtë, pasi të dilnin ligje të reja pa njoftim dhe vetëdije të mjaftueshme se cilat janë ato ligje. Do të pasonin çdo lloj shqetësimi dhe zemërimi.

Nuk është një mënyrë e mirë për të gravituar drejt forcimit të të drejtave të njerëzimit në një epokë të AI.

Kujtoni që më herët e kisha filluar këtë diskutim duke nxjerrë në pah vlerën dhe vitalitetin e planeve.

Imagjinoni që dikush e kapërceu hapin e hartimit të projekteve dhe u hodh menjëherë në ndërtimin e shtëpisë tuaj të ëndrrave. Si mendoni se do të dukej shtëpia? Duket një bast i drejtë që shtëpia nuk do të përputhej veçanërisht me atë që kishit në mendjen tuaj. Shtëpia që rezulton mund të jetë një rrëmujë e plotë.

Thelbi është se ne kemi nevojë për plane dhe tani kemi një për hir të ecjes përpara në gjetjen e ligjeve të mençura të AI dhe fuqizimin e adoptimeve Etike të AI.

Prandaj do të doja të trajtoja mënyrat në të cilat ky plan i Ligjit të të Drejtave të UA mund të shndërrohet në një shtëpi, si të thuash. Si do ta përdorim projektin? Cilat janë hapat e mëtejshëm të përshtatshëm? A mund të mjaftojë ky plan, apo ka nevojë për më shumë mish në kocka?

Përpara se të hidhemi në ato çështje të rënda, së pari do të doja të sigurohem se jemi të gjithë në të njëjtën faqe në lidhje me natyrën e AI dhe se çfarë konsiston në statusin e sotëm.

Vendosja e saktë e rekordit rreth AI-së së sotme

Do të doja të bëja një deklaratë jashtëzakonisht të theksuar.

A jeni gati?

Nuk ka asnjë AI sot që të jetë e ndjeshme.

Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës konjitive llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI në të cilin po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim në mënyrë të egër për inteligjencën artificiale të ndjeshme, ky diskutim mund të shkonte në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Unë do të sugjeroja fuqimisht që t'i mbajmë gjërat në tokë dhe të marrim parasysh inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Jini shumë të kujdesshëm ndaj antropomorfizimit të AI-së së sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime të ngulitura ende brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

E gjithë kjo ka implikime të rëndësishme të Etikës së AI dhe ofron një dritare të dobishme në mësimet e nxjerra (edhe para se të gjitha mësimet të ndodhin) kur bëhet fjalë për përpjekjen për të ligjësuar AI.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në kolonat e mëparshme, unë kam mbuluar përpjekjet e ndryshme kombëtare dhe ndërkombëtare për të krijuar dhe miratuar ligje që rregullojnë AI, shih lidhja këtu, për shembull. Unë kam mbuluar gjithashtu parimet dhe udhëzimet e ndryshme të Etikës së AI që kombe të ndryshme kanë identifikuar dhe miratuar, duke përfshirë për shembull përpjekjet e Kombeve të Bashkuara si grupi i UNESCO-s i Etikës së AI që kanë miratuar afro 200 vende, shih. lidhja këtu.

Këtu është një listë e dobishme kryesore e kritereve ose karakteristikave Etike të AI në lidhje me sistemet e AI që kam eksploruar më parë nga afër:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Këto parime të Etikës së AI supozohet të përdoren me zell nga zhvilluesit e AI, së bashku me ato që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI.

Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të IA konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u theksua më parë këtu, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të Etikës së UA.

Tani që kam hedhur një themel të dobishëm, ne jemi gati të zhytemi më tej në Ligjin e të Drejtave të AI.

Katër mënyra thelbësore për të zbatuar Ligjin e të Drejtave të AI

Dikush ju jep një plan dhe ju thotë të shkoni në punë.

Çfarë do të bëni?

Në rastin e Projektligjit të të Drejtave të AI si një plan, merrni parasysh këto katër hapa thelbësorë për të ecur përpara:

  • Shërbejnë si të dhëna për formulimin e ligjeve të AI: Përdorni planin për të ndihmuar në formulimin e ligjeve të AI, duke e bërë këtë me shpresë në një bazë të përafruar në nivelet federale, shtetërore dhe lokale (ndoshta duke ndihmuar edhe përpjekjet ligjore ndërkombëtare të AI).
  • Ndihmon për të miratuar më gjerësisht Etikën e AI: Përdorni planin për të nxitur formulimet e Etikës së AI (ndonjëherë të referuara si "ligje të buta" në krahasim me "ligjet e forta" ligjërisht të detyrueshme), duke e bërë këtë për të frymëzuar dhe udhëhequr bizneset, individët, entitetet qeveritare dhe grupet e tjera drejt etikës më të mirë dhe më të qëndrueshme. Rezultatet e AI.
  • Formoni aktivitetet e zhvillimit të AI: Përdorni planin për të nxitur krijimin e metodologjive të zhvillimit të AI dhe aspekteve të trajnimit, duke e bërë këtë për të bërë që zhvilluesit e AI dhe ata që punojnë ose përdorin AI të jenë më të vetëdijshëm se si të hartojnë AI përgjatë linjave të parimeve të dëshirueshme të Etikës së AI dhe në pritje. të ligjeve të afërta të AI që po miratohen.
  • Motivoni ardhjen e AI për të ndihmuar në kontrollin e AI: Përdorni planin për të krijuar AI që do të përdoret për të provuar dhe shërbyer si një kontroll dhe balancim kundër AI tjetër që mund të devijojë në territorin e pakëndshëm. Kjo është një nga ato këndvështrime makroskopike me anë të së cilës ne mund të përdorim pikërisht atë që na duket shqetësuese për të ndihmuar gjithashtu (në mënyrë ironike, mund të thuhet dikush) për të na mbrojtur.

Unë kam diskutuar secilin prej këtyre katër hapave të lartpërmendur përgjatë postimeve të kolonës sime.

Për këtë diskutim këtu, unë do të doja të përqendrohesha në hapin e katërt të listuar, domethënë që Ligji i të Drejtave të AI mund të shërbejë si një motivues drejt ardhjes së AI për të ndihmuar në kontrollin e AI. Ky është një hap disi tronditës ose befasues për shumë njerëz që ende nuk kanë hyrë plotësisht në këtë fushë që avancon AI.

Më lejoni të shtjelloj.

Një analogji e thjeshtë duhet ta bëjë këtë. Të gjithë jemi mësuar këto ditë me shkeljet e sigurisë kibernetike dhe vjedhjet e hakerëve. Pothuajse çdo ditë dëgjojmë ose prekemi nga ndonjë boshllëk i fundit në kompjuterët tanë që do t'u lejojë keqbërësve të këqij të rrëmbejnë të dhënat tona ose të vendosin një pjesë të tmerrshme ransomware në laptopët tanë.

Një mjet për të luftuar kundër këtyre përpjekjeve të neveritshme konsiston në përdorimin e softuerit të specializuar që përpiqet të parandalojë ato depërtime. Ju pothuajse me siguri keni një paketë softuerësh antivirus në kompjuterin tuaj në shtëpi ose në punë. Ka të ngjarë të ketë diçka të ngjashme në smartphone tuaj, pavarësisht nëse e kuptoni se është atje apo jo.

Mendimi im është se ndonjëherë ju duhet të luftoni zjarrin me zjarr (shih mbulimin tim për këtë, si p.sh lidhja këtu lidhja këtu).

Në rastin e AI që zbret në sferën e folur të AI për të keqen, mund të kërkojmë të përdorim AI për të mirë që lufton me atë keqdashës AI për të keqen. Kjo sigurisht nuk është një kurë mrekullie. Siç e dini, ka një lojë të vazhdueshme mace-miu që po ndodh midis keqbërësve që kërkojnë të depërtojnë në kompjuterët tanë dhe përparimeve që po bëhen në mbrojtjen e sigurisë kibernetike. Është një lojë pothuajse e pafund.

Ne mund të përdorim AI për të provuar të përballemi me AI që ka shkuar në një rrugë të ndaluar. Të bësh këtë do të ndihmojë. Nuk do të jetë veçanërisht një plumb argjendi pasi që inteligjenca artificiale e pafavorshme që synohet pothuajse me siguri do të krijohet për të shmangur çdo mbrojtje të tillë. Kjo do të jetë e vazhdueshme mace dhe miu i AI kundrejt AI.

Në çdo rast, AI që përdorim për të mbrojtur veten do të sigurojë njëfarë mbrojtjeje kundër AI të keqe. Kështu, ne padyshim duhet të krijojmë AI që mund të na mbrojë ose na mbrojë. Dhe ne gjithashtu duhet të kërkojmë të krijojmë AI mbrojtëse për t'u përshtatur ashtu siç përshtatet AI e keqe. Do të ketë një pamje të ashpër të mace-miut me shpejtësi rrufeje.

Jo të gjithë e shijojnë këtë zgjerim të rolit të AI.

Ata që tashmë e perceptojnë AI si një konglomerat homogjen amorf, do të përjetonin makthet dhe ankthe në këtë gambit të shtirur të AI kundër AI. Nëse përpiqemi të ngremë zjarrin kundër zjarrit, ndoshta ne thjesht po bëjmë një zjarr edhe më të madh. Inteligjenca artificiale do të bëhet një zjarr masiv, një zjarr që ne nuk e kontrollojmë më dhe do të zgjedhim të skllavërojmë njerëzimin ose të na fshijmë nga planeti. Kur bëhet fjalë për diskutimin e AI si një rrezik ekzistencial, zakonisht na shtyn të besojmë se e gjithë AI do të bashkohet, shikoni diskutimin tim rreth këtyre çështjeve në lidhja këtu. E shihni, na është thënë se çdo pjesë e AI do të rrëmbejë vëllezërit e saj AI dhe do të bëhet një familje e madhe unitare mbizotëruese.

Ky është skenari i tmerrshëm dhe padyshim shqetësues i inteligjencës artificiale të ndjeshme si mafia e pandërprerë, të gjithë për një dhe një për të gjithë.

Megjithëse jeni lirisht të mirëpritur të bëni hamendje të tilla në lidhje me faktin se kjo mund të ndodhë një ditë, ju siguroj se tani për tani, AI që kemi sot përbëhet nga ngarkesa me kamionë me programe të ndryshme të AI të shkëputura që nuk kanë asnjë mënyrë të veçantë për të komplotuar me njëri-tjetrin.

Duke thënë këtë, jam i sigurt se ata që besojnë me zjarr në teoritë konspirative të AI do të këmbëngulin që unë e kam thënë me qëllim këtë për të fshehur të vërtetën. Aha! Ndoshta jam duke u shlyer nga AI e sotme që tashmë po planifikon marrjen e madhe të AI (po zotëri, unë do të lahem në pasuri sapo të sundojnë zotëruesit e AI). Ose, dhe sigurisht që nuk e favorizoj këtë kënd tjetër, ndoshta nuk jam verbërisht i vetëdijshëm se si AI po komploton fshehurazi pas shpinës sonë. Mendoj se do të duhet të presim dhe të shohim nëse jam pjesë e grushtit të shtetit të AI apo një patsy i keq i AI (oh, kjo dhemb).

Duke u kthyer te konsideratat tokësore, le të eksplorojmë shkurtimisht se si mund të përdoret AI bashkëkohore për të ndihmuar zbatimin e Ligjit të të Drejtave të AI. Unë do t'i referohem me lehtësi dhe shkurtimisht kësaj si AI e mirë.

Ne do të përdorim pesë pikat kryesore të mishëruara në Ligjin e të Drejtave të AI:

  • AI e mirë për promovim Sisteme të sigurta dhe efektive: Sa herë që i nënshtroheni ose përdorni një sistem AI, AI i mirë përpiqet të kuptojë nëse AI që përdoret është i pasigurt ose joefektiv. Pas zbulimit të tillë, AI i mirë mund t'ju paralajmërojë ose të ndërmarrë veprime të tjera duke përfshirë bllokimin e AI-së së keqe.
  • AI e mirë për ofrimin Mbrojtja nga diskriminimi algoritmik: Ndërsa përdorni një sistem AI që mund të përmbajë algoritme diskriminuese, AI e mirë përpiqet të konstatojë nëse ka mbrojtje të pamjaftueshme për ju dhe kërkon të përcaktojë nëse paragjykimet e panevojshme ekzistojnë vërtet në AI që përdoret. UA e mirë mund t'ju informojë dhe gjithashtu potencialisht të raportojë automatikisht UA-në tjetër tek autoritetet e ndryshme siç mund të përcaktohet nga ligjet dhe kërkesat ligjore të AI.
  • AI e mirë për ruajtje Privatësia e të Dhënave: Ky lloj i AI-së së mirë përpiqet t'ju mbrojë nga pushtimet e privatësisë së të dhënave. Kur një AI tjetër po kërkon të kërkojë të dhëna që ndoshta nuk janë vërtet të nevojshme nga ju, AI i mirë do t'ju bëjë të vetëdijshëm për veprimin e tejkalimit. AI i mirë gjithashtu mund të maskojë të dhënat tuaja në një mënyrë që, pasi t'i jepet AI tjetër, do të ruajë të drejtat tuaja të privatësisë së të dhënave. etj.
  • AI e mirë për krijimin Njoftim dhe shpjegim: Të gjithë ka të ngjarë të hasim sisteme të AI që mungojnë jashtëzakonisht në ofrimin e njoftimeve të duhura dhe të përshtatshme dhe që fatkeqësisht nuk arrijnë të shfaqin një shpjegim adekuat për veprimet e tyre. IA e mirë mund të përpiqet të interpretojë ose të marrë në pyetje AI tjetër, duke e bërë këtë për të identifikuar potencialisht njoftimet dhe shpjegimet që duhet të ishin dhënë. Edhe nëse kjo nuk është e mundur të bëhet në një rast të caktuar, AI i mirë të paktën do t'ju njoftojë për dështimet e AI-së tjetër dhe ndoshta do t'ua raportojë IA-në autoriteteve të caktuara bazuar në ligjet e përcaktuara të AI dhe kërkesat ligjore.
  • AI e mirë për të ofruar Alternativat njerëzore, konsiderata dhe kthimi: Supozoni se jeni duke përdorur një sistem AI dhe AI ​​me sa duket nuk është në nivelin e detyrës në fjalë. Ju mund të mos e kuptoni se gjërat po shkojnë keq, ose mund të jeni disi të kujdesshëm dhe të pasigurt se çfarë të bëni në lidhje me situatën. Në një rast të tillë, AI i mirë do të ekzaminojë në heshtje se çfarë po bën AI tjetër dhe mund t'ju paralajmërojë për shqetësimet jetike në lidhje me atë AI. Më pas do t'ju kërkohet të kërkoni një alternativë njerëzore ndaj AI (ose AI i mirë mund ta bëjë këtë në emrin tuaj).

Për të kuptuar më tej se si ky lloj AI e mirë mund të zhvillohet dhe të vihet në terren, shihni librin tim të njohur dhe të vlerësuar të AI (i nderuar të them se është shënuar si një "Top Ten") mbi atë që unë i kam referuar përgjithësisht si engjëj mbrojtës të AI, shih lidhja këtu.

Përfundim

Unë e di se çfarë po mendoni. Nëse kemi AI të mirë që është krijuar për të na mbrojtur, supozoni se AI e mirë korruptohet duke u bërë AI e keqe. Fraza e famshme ose famëkeqe latine duket plotësisht e përshtatshme për këtë mundësi: Quis custodiet ipsos custodes?

Fraza i atribuohet poetit romak Juvenal dhe mund të gjendet në veprën e tij me titull satires, dhe mund të përkthehet lirshëm si kuptimi se kush do të ruajë ose vëzhgojë vetë rojet. Shumë filma dhe shfaqje televizive si p.sh Star Trek e kanë shfrytëzuar këtë linjë në mënyrë të përsëritur.

Kjo me siguri sepse është një pikë e shkëlqyer.

Sigurisht, çdo ligj i AI që miratohet do të duhet të përfshijë si AI-n e keqe ashtu edhe AI-në e mirë që shkon keq. Kjo është arsyeja pse do të jetë thelbësore të shkruani ligje të arsyeshme dhe gjithëpërfshirëse të AI. Ligjvënësit që thjesht përpiqen të hedhin ligje të rastësishme në mur dhe shpresojnë se kjo do t'i përmbahet ligjeve të AI, do ta gjejnë veten duke e humbur thellësisht objektivin.

Ne nuk kemi nevojë për këtë.

Ne nuk kemi as kohë dhe as nuk mund të përballojmë shpenzimet shoqërore për të përballuar ligjet e inteligjencës artificiale të hartuara në mënyrë joadekuate. Unë kam vënë në dukje se për fat të keq ndonjëherë ne jemi dëshmitarë të ligjeve të reja të lidhura me AI që janë të përbëra dobët dhe të mbushura me të gjitha llojet e sëmundjeve ligjore, shih për shembull analizën time hetuese të ligjit të auditimit të paragjykimeve të AI në New York City (NYC) në lidhja këtu.

Le të sigurohemi që të përdorim siç duhet projektin e Ligjit të të Drejtave të AI që kemi tani në dorë në lidhje me AI. Nëse ne e shpërfillim planin, ne kemi humbur të kemi rritur lojën tonë. Nëse e zbatojmë gabimisht planin, turp për ne që kemi uzurpuar një themel të dobishëm.

Poeti i nderuar romak Juvenal tha diçka tjetër që ne mund ta shfrytëzojmë në këtë rrethanë: Anima sana in corpore sano.

Në përgjithësi, kjo përkthehet në pohimin se do të ishte e kujdesshme të kishim një mendje të shëndoshë ose të shëndetshme dhe një trup të shëndoshë ose të shëndetshëm. Kjo na lejon të durojmë çdo lloj mundimi, sipas Juvenal, dhe me siguri do të jetë e vetmja rrugë drejt një jete paqeje ose virtyti.

Është koha që ne të përdorim një mendje të shëndoshë dhe një trup të shëndoshë për t'u siguruar që po sigurojmë që njerëzimi do të ketë të drejtat tona njerëzore të ruajtura dhe fortifikuara fort në botën në zhvillim të AI kudo dhe ndonjëherë të pafavorshme. Kjo është këshilla e shëndoshë nga romakët, të cilave ne duhet t'i përmbahemi në nxitimin e sotëm mes një epoke të mprehtë të inteligjencës artificiale dhe një të ardhmeje të mbushur me vendosmëri me AI të mirë dhe të keqe.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- fatura e të drejtave-përfshirë-dhe-çuditërisht-duke përdorur-ai-përfundimisht/