Etika e AI dhe ligji i AI po lëvizin drejt standardeve që identifikojnë dhe menaxhojnë në mënyrë eksplicite paragjykimet e AI

A keni luajtur ndonjëherë marrje letrash pesëdhjetë e dy letrash?

Nuk është një lojë që normalisht do ta ndërmerrnit me dëshirë. Ja pse. Dikush ju ofron se është një sport gjoja argëtues dhe nëse ju merrni karremin e ëmbël, atëherë ata hedhin një kuvertë të tërë letrash në ajër dhe përmbledhje në dysheme. Personi më pas ju jep një buzëqeshje të pafytyrë dhe ju thotë të shkoni përpara dhe të merrni letrat. Kjo është e gjithë loja.

Shakatar!

Unë kam një pyetje disi të menduar për t'ju bërë në lidhje me këtë.

Supozoni se një nga letrat rrëshqiti nën një divan aty pranë. Kur të kishit mbaruar së mbledhuri të gjitha letrat, do ta dinit se një mungonte, sepse do të ishte vetëm pesëdhjetë e një në dorën tuaj.

Pyetja është, a mund të përcaktoni se cila kartë mungonte?

Unë jam i sigurt se ju do të thoni menjëherë se mund të kuptoni lehtësisht se cila kartë nuk ishte në duart tuaja. E tëra çfarë ju duhet të bëni është të vendosni në rregull kuvertën. Ju e dini se një kuvertë standarde përbëhet nga katër kostume dhe se brenda secilit kostum letrat numërohen nga një në dhjetë dhe më pas në Jack, Queen dhe King.

Ju e dini këtë sepse një kuvertë standarde me letra bazohet në një standard.

Ua, kjo deklaratë mund të duket si një nga ato pohime krejtësisht të dukshme. Epo, po, sigurisht, një kuvertë standarde e lojës bazohet në një standard. Ne të gjithë e dimë atë. Mendimi im është se duke pasur një standard, ne mund të mbështetemi te standardi kur është e nevojshme. Përveçse jeni në gjendje të kuptoni se çfarë karte mungon në një kuvertë, ju gjithashtu mund të luani me lehtësi miliona lojëra letrash të njohura me njerëz të tjerë. Sapo dikujt i tregohen rregullat e një loje, ata janë drejtpërdrejt në gjendje të luajnë, sepse ata tashmë e dinë plotësisht se nga përbëhet kuverta. Ju nuk keni nevojë t'u shpjegoni atyre se kuverta ka katër kostume dhe letra me numra të ndryshëm. Ata tashmë e dinë se është kështu.

Ku po shkoj me këtë?

Unë po përpiqem t'ju çoj në një rrugë që është një mjet jetik për të bërë përparim në fushën e AI dhe veçanërisht në fushën e Etikës së AI dhe AI ​​Etike. E shihni, ne duhet të përpiqemi dhe të dalim me standarde të përhapura dhe të pranuara nga të gjithë në lidhje me Etikën e AI. Nëse mund ta bëjmë këtë, do të përmirësojë lehtësinë e adoptimit të AI Etike dhe do të synojë në mënyrë të dukshme të përmirësojë sistemet e AI që vazhdojnë të hidhen në treg (si një kuvertë letrash të panumërta dhe të parregulluara). Për mbulimin tim të vazhdueshëm dhe të gjerë të Etikës së AI, UA Etike dhe Ligjit të AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Unë e sjell këtë për të siguruar një bazë për diskutimin tim këtu që do të fokusohet në një segment ose pjesë të veçantë të sferës më të gjerë të Etikës së AI, domethënë siç u përmend më herët elementi specifik i paragjykimeve të AI. Arsyeja gjithashtu që e ndaj këtë temë me ju është se një dokument i lëshuar nga Instituti Kombëtar i Standardeve dhe Teknologjisë (NIST) po përpiqet të na bëjë të inçojmë rrugën tonë drejt një standardi që karakterizon paragjykimet e AI. Dokumenti ka të drejtë Drejt një standardi për identifikimin dhe menaxhimin e paragjykimeve në inteligjencën artificiale nga autorët Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt dhe Patrick Hall, dhe u botua nga Departamenti i Tregtisë i SHBA, Publikimi Special NIST 1270, në mars 2022.

Ne do ta zbërthejmë këtë përpjekje të dobishme dhe inkurajuese për të përcaktuar se çfarë nënkuptojmë me paragjykimet e AI. Thënia e vjetër thotë se nuk mund të menaxhosh atë që nuk mund ta matësh. Duke pasur një standard që parashtron shumëllojshmërinë e paragjykimeve të AI, mund të filloni të matni dhe menaxhoni goditjen e paragjykimeve të AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe vendosen në mënyrë që personeli përkatës të zotërojë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurat dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Në themel të shumë prej këtyre parimeve kryesore të Etikës së AI është natyra tinëzare e paragjykimeve të AI.

Ashtu si një kuvertë letrash, sigurisht që do të ishte e shkëlqyeshme nëse mund të gruponim disi paragjykimet e AI në një grup "kostumesh" ose kategorish. Në të vërtetë, dokumenti NIST ofron një grupim të sugjeruar.

Tre kategori kryesore janë propozuar:

1) Paragjykimet sistemike

2) Paragjykimet statistikore dhe llogaritëse

3) Paragjykimet njerëzore

Nëse të gjitha paragjykimet e AI përshtaten mirë brenda njërës prej këtyre tre kategorive, sigurisht që duhet marrë parasysh. Ju mund të argumentoni me siguri se disa paragjykime të AI bien në një, dy ose të tre kategoritë në të njëjtën kohë. Për më tepër, mund të pretendoni se më shumë kategori meritojnë të përmenden, si për shembull disa grupime të katërta, të pesta, të gjashta ose më shumë.

Shpresoj se kjo është ajo që po mendoni, sepse ne duhet të përfshijmë të gjithë për të ndihmuar në formimin e këtyre standardeve. Nëse jeni të mërzitur me mënyrën se si këto standarde po formohen fillimisht, unë ju bëj thirrje që ta ktheni atë energji në ndihmën e neve të tjerëve për t'i bërë ato standarde të lulëzuara aq të forta dhe të plota, sa mund të gërmohen.

Tani për tani, ne mund t'i hedhim një vështrim më të afërt tre kategorive të propozuara dhe të shohim se me çfarë lloj dore na është bërë deri më tani (po, do të vazhdoj të përdor një analogji me një kuvertë letrash, duke e bërë këtë gjatë gjithë kësaj pjese të shkruar, ju mund të vini bast dollarin tuaj të fundit në atë ace jo aq të fshehur të një teme).

Çfarë nënkuptohet duke iu referuar paragjykimeve sistemike?

Ja se çfarë thotë dokumenti NIST: “Paragjykimet sistemike rezultojnë nga procedurat dhe praktikat e institucioneve të veçanta që funksionojnë në mënyra që rezultojnë në avantazhe ose favorizuara të grupeve të caktuara shoqërore dhe të tjera në disavantazh ose zhvlerësim. Kjo nuk duhet të jetë rezultat i ndonjë paragjykimi apo diskriminimi të vetëdijshëm, por i ndjekjes së rregullave apo normave ekzistuese nga shumica. Racizmi institucional dhe seksizmi janë shembujt më të zakonshëm” (vini re se ky është thjesht një fragment i shkurtër dhe lexuesit inkurajohen të shohin shpjegimin më të plotë).

AI vjen në përzierjen e paragjykimeve sistemike duke ofruar një mjet për të përcjellë dhe zbatuar ato paragjykime në aplikacionet e bazuara në AI. Kurdoherë që përdorni një pjesë softuerike të infektuar me AI, me gjithë sa dini ai mund të përmbajë një sërë paragjykimesh që tashmë janë futur në sistem nëpërmjet kompanive dhe praktikave të industrisë që çuan në krijimin e AI. Sipas studimit të NIST: "Këto paragjykime janë të pranishme në grupet e të dhënave të përdorura në AI, dhe normat institucionale, praktikat dhe proceset përgjatë ciklit jetësor të AI dhe në kulturën dhe shoqërinë më të gjerë."

Më pas, merrni parasysh grupin e paragjykimeve që etiketohen si paragjykime statistikore dhe llogaritëse.

Dokumenti NIST thotë këtë: “Paragjykimet statistikore dhe llogaritëse rrjedhin nga gabimet që rezultojnë kur kampioni nuk është përfaqësues i popullatës. Këto paragjykime lindin nga gabimet sistematike në krahasim me gabimet e rastësishme dhe mund të ndodhin në mungesë të paragjykimit, anësisë ose qëllimit diskriminues. Në sistemet e AI, këto paragjykime janë të pranishme në grupet e të dhënave dhe proceset algoritmike të përdorura në zhvillimin e aplikacioneve të AI dhe shpesh lindin kur algoritmet trajnohen në një lloj të dhënash dhe nuk mund të ekstrapolohen përtej këtyre të dhënave.

Ky lloj paragjykimi statistikor dhe llogaritës shpesh gatuhet në një sistem AI që përdor Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL). Sjellja e çështjes së rëndë të ML/DL-së bashkëkohore kërkon një tangjente anësore të lidhura rreth asaj se çfarë është AI dhe çfarë është ML/DL.

Le të sigurohemi që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtin nivel me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht mësimin e makinerisë dhe mësimin e thellë, të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as të ketë ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Kjo na çon drejt kategorisë së tretë të grupit të tre grupimeve NIST, veçanërisht rolin e paragjykimeve njerëzore në shfaqjen e paragjykimeve të AI. Ja çfarë tregoi dokumenti NIST: “Paragjykimet njerëzore pasqyrojnë gabime sistematike në mendimin njerëzor bazuar në një numër të kufizuar parimesh heuristike dhe parashikime të vlerave për operacione më të thjeshta gjykuese. Këto paragjykime janë shpesh të nënkuptuara dhe kanë tendencë të lidhen me mënyrën se si një individ ose grup e percepton informacionin (siç është prodhimi i automatizuar i AI) për të marrë një vendim ose për të plotësuar informacionin e munguar ose të panjohur. Këto paragjykime janë të kudondodhura në proceset e vendimmarrjes institucionale, grupore dhe individuale përgjatë ciklit jetësor të AI dhe në përdorimin e aplikacioneve të AI sapo të vendosen.”

Tani keni marrë një prezantim të shpejtë të tre kategorive.

Do të doja të ndaja me ju disa ushqime shtesë për mendim siç shprehet në dokumentin NIST. Një grafik në narrativën e tyre ofron një përmbledhje të dobishme të pyetjeve dhe konsideratave kryesore që qëndrojnë në themel të secilit prej tre grupeve të paragjykimeve të AI. Unë i rendis këtu për lehtësinë tuaj të referencës dhe edukimit.

#1: Paragjykimet sistemike

  • Kush llogaritet dhe kush nuk llogaritet?

— Probleme me variablat latente

— Nënpërfaqësimi i grupeve të margjinalizuara

— Automatizimi i pabarazive

— Nënpërfaqësimi në përcaktimin e funksionit të shërbimeve

— Proceset që favorizojnë shumicën/pakicën

— Paragjykimi kulturor në funksionin objektiv (më e mira për individët kundrejt më të mirës për grupin)

  • Si e dimë se çfarë është e drejtë?

— Përforcimi i pabarazive (grupet ndikohen më shumë me përdorimin më të madh të AI)

— Policimi parashikues ndikoi më negativisht

— Miratimi i përhapur i makinave që ngjajnë/vetëdrejtojnë/etj. mund të ndryshojë politikat që ndikojnë në popullatë në bazë të përdorimit

#2: Paragjykimet statistikore dhe llogaritëse

  • Kush llogaritet dhe kush nuk llogaritet?

— Paragjykimi i kampionimit dhe përzgjedhjes

— Përdorimi i variablave proxy sepse ato janë më të lehta për t'u matur

- Paragjykimi i automatizimit

— Shkalla Likert (kategorike në rendore në kardinal)

- Jolineare vs lineare

- Gabimi ekologjik

— Minimizimi i normës L1 kundrejt L2

— Vështirësi e përgjithshme në përcaktimin sasior të dukurive kontekstuale

  • Si e dimë se çfarë është e drejtë?

- Mungesa e verifikimit adekuat të kryqëzuar

- Paragjykimi i mbijetesës

- Vështirësi me drejtësinë

#3: Paragjykimet njerëzore

  • Kush llogaritet dhe kush nuk llogaritet?

— Paragjykimi vëzhgues (efekti i dritës së rrugës)

— Paragjykimi i disponueshmërisë (ankorimi)

- Gabimi i McNamara

— Mendimi në grup çon në zgjedhje të ngushta

— Efekti Rashomon çon në advokim subjektiv

- Vështirësia në përcaktimin sasior të objektivave mund të çojë në gabimin e McNamara

  • Si e dimë se çfarë është e drejtë?

- Paragjykimi i konfirmimit

- Paragjykimi i automatizimit

Në këtë pikë të këtij diskutimi me peshë, unë do të vë bast se ju dëshironi disa shembuj ilustrues që mund të shfaqin tre kategoritë e paragjykimeve të AI. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të AI është ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të bollshëm mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI në lidhje me tre kategoritë e propozuara të paragjykimeve të AI, dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makinat që drejtojnë vetë dhe paragjykimet e AI

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Unë besoj se siguron një sasi të mjaftueshme paralajmërimesh për të nënvizuar atë që unë jam gati të lidhem.

Ne jemi të përgatitur tani për të bërë një zhytje të thellë në makinat vetë-drejtuese dhe mundësitë etike të AI që përfshijnë tre kategoritë e paragjykimeve të AI.

Imagjinoni që një makinë vetë-drejtuese e bazuar në AI është duke u nisur në rrugët e lagjes suaj dhe duket se po drejton me siguri. Në fillim, i kishit kushtuar vëmendje të veçantë çdo herë që arrinit t'i hidhnit një sy makinës vetë-drejtuese. Automjeti autonome u dallua me raftin e tij të sensorëve elektronikë që përfshinte kamera video, njësi radari, pajisje LIDAR dhe të ngjashme. Pas shumë javësh të makinës vetë-drejtuese që qarkullonte nëpër komunitetin tuaj, tani mezi e vëreni atë. Për sa ju shqetëson, është thjesht një makinë tjetër në rrugët publike tashmë të ngarkuara.

Që të mos mendoni se është e pamundur ose e pabesueshme të njiheni me shikimin e makinave vetë-drejtuese, kam shkruar shpesh se si vendet që janë brenda fushës së provave të makinave vetë-drejtuese janë mësuar gradualisht të shohin automjete të zbukuruara. shikoni analizën time në kjo lidhje këtu. Shumë nga vendasit përfundimisht u zhvendosën nga një gërvishtje e rrëmbyer në gojë, tek tani duke lëshuar një zhurmë të madhe mërzie për të dëshmuar ato makina që lëviznin vetë.

Ndoshta arsyeja kryesore tani që ata mund të vërejnë automjetet autonome është për shkak të faktorit të acarimit dhe acarimit. Sistemet e drejtimit të inteligjencës artificiale të përdorur nga libri sigurohen që makinat u binden të gjitha kufijve të shpejtësisë dhe rregullave të rrugës. Për shoferët e ethshëm njerëzorë në makinat e tyre tradicionale të drejtuara nga njerëzit, ju nervozoheni në momente kur ngecni pas makinave vetë-drejtuese të bazuara në AI që respektojnë rreptësisht ligjin.

Kjo është diçka me të cilën të gjithë mund të na duhet të mësohemi, me të drejtë ose pa të drejtë.

Kthehu në përrallën tonë.

Më pas do të shqyrtojmë se si mund të shfaqen paragjykimet sistemike në këtë kontekst të makinave vetë-drejtuese.

Disa ekspertë janë shumë të shqetësuar se makinat vetë-drejtuese do të jenë provinca vetëm e të pasurve dhe elitës. Mund të ndodhë që kostoja e përdorimit të makinave vetë-drejtuese do të jetë jashtëzakonisht e shtrenjtë. Nëse nuk keni para të mëdha, mund të mos e shihni kurrë brendësinë e një makine vetë-drejtuese. Ata që do të përdorin makina vetë-drejtuese do të duhet të jenë të pasur, supozohet se.

Si i tillë, disa këshillojnë në mënyrë shqetësuese se një formë e paragjykimit sistemik do të përshkojë ardhjen e makinave vetë-drejtuese të bazuara në AI. Sistemi i përgjithshëm industrial i automjeteve autonome në tërësi do t'i mbajë makinat vetë-drejtuese nga duart e atyre që janë të varfër ose më pak të pasur. Kjo mund të mos jetë domosdoshmërisht me qëllim të hapur dhe thjesht rezulton se e vetmja mënyrë e besueshme për të rimbursuar kostot e rënda të shpikjes së makinave vetë-drejtuese do të jetë tarifimi i çmimeve jashtëzakonisht të larta.

Nëse përgjigjeni se sot ka këto prova të makinave vetë-drejtuese që po e lejojnë njeriun e përditshëm të përdorë, kështu që duket qartë se nuk keni nevojë të jeni të pasur në vetvete, kundërargumenti është se kjo është një lloj loje me guaskë. ishin. Prodhuesit e automjeteve dhe firmat e teknologjisë vetë-drejtuese supozohet se janë të gatshme ta bëjnë të duket sikur kostoja nuk do të jetë një pengesë thelbësore. Ata po e bëjnë këtë për qëllime të marrëdhënieve me publikun tani dhe do të rrisin çmimet sapo të zbulojnë rrudhat. Madje, një konspiracist mund të pretendojë se "derrat gini" si njerëz të zakonshëm po përdoren në mënyrë të dëmshme për t'u mundësuar të pasurve që përfundimisht të bëhen më të pasur.

Pra, duke pasur parasysh atë çështje mjaft të diskutueshme, dhe duke vënë dy centët e mia për këtë temë të ndyrë, nuk besoj se makinat vetë-drejtuese do të tejkalohen për përdorim të përditshëm. Unë nuk do të hyj në detaje këtu në lidhje me bazën time për të bërë një pretendim të tillë dhe ju ftoj të shihni diskutimet e mia të ndërgjegjshme në lidhja këtu dhe gjithashtu në lidhja këtu.

Duke ecur përpara, ne mund të shqyrtojmë më pas çështjen e paragjykimeve statistikore dhe llogaritëse të lidhura me AI.

Mendoni për pyetjen në dukje të parëndësishme se ku do të lëvizin makinat vetë-drejtuese për të marrë pasagjerë. Kjo duket si një temë shumë e padëmshme. Ne do të përdorim përrallën e qytetit ose qytetit që ka makina vetë-drejtuese për të nxjerrë në pah spektrin e mundshëm çuditërisht të paragjykimeve statistikore dhe llogaritëse të lidhura me AI.

Në fillim, supozoni se AI ishte duke bredhur makinat vetë-drejtuese në të gjithë qytetin. Kushdo që dëshironte të kërkonte një udhëtim me makinën që drejtonte vetë, në thelb kishte një shans të barabartë për të përshëndetur një të tillë. Gradualisht, AI filloi të mbante kryesisht makinat vetë-drejtuese në roaming vetëm në një pjesë të qytetit. Ky seksion ishte një fitues më i madh i parave dhe sistemi i AI ishte programuar për të provuar dhe maksimizuar të ardhurat si pjesë e përdorimit në komunitet.

Anëtarët e komunitetit në pjesët e varfra të qytetit kishin më pak gjasa të ishin në gjendje të udhëtonin nga një makinë vetë-drejtuese. Kjo ishte për shkak se makinat vetë-drejtuese ishin më larg dhe roaming në pjesën me të ardhura më të larta të zonës. Kur një kërkesë vinte nga një pjesë e largët e qytetit, çdo kërkesë nga një vend më i afërt që ka të ngjarë në pjesën "e nderuar" të qytetit do të kishte një përparësi më të lartë. Përfundimisht, disponueshmëria e marrjes së një makine vetë-drejtuese në çdo vend tjetër përveç pjesës më të pasur të qytetit ishte pothuajse e pamundur, në mënyrë shqetësuese për ata që jetonin në ato zona tani të uritura nga burimet.

Ju mund të pohoni se AI pothuajse u ul në një formë të paragjykimeve statistikore dhe llogaritëse, të ngjashme me një formë të diskriminimit proxy (i referuar gjithashtu shpesh si diskriminim indirekt). AI nuk ishte programuar për të shmangur ato lagje më të varfra. Në vend të kësaj, ajo "mësoi" ta bënte këtë nëpërmjet përdorimit të ML/DL.

Supozohej se AI nuk do të binte kurrë në atë lloj rëre të turpshme. Nuk u krijua asnjë monitorim i specializuar për të mbajtur gjurmët se ku po shkonin makinat vetë-drejtuese të bazuara në AI. Vetëm pasi anëtarët e komunitetit filluan të ankoheshin, drejtuesit e qytetit e kuptuan se çfarë po ndodhte. Për më shumë rreth këtyre llojeve të çështjeve në mbarë qytetin që do të paraqesin automjetet autonome dhe makinat vetë-drejtuese, shihni mbulimin tim në kjo lidhje këtu dhe i cili përshkruan një studim të udhëhequr nga Harvardi, të cilin unë e kam bërë bashkëautor mbi këtë temë.

Për kategorinë e tretë të paragjykimeve njerëzore në lidhje me paragjykimet e AI, ne i drejtohemi një shembulli që përfshin IA që përcakton nëse do të ndalet për këmbësorët që presin që nuk kanë të drejtën e kalimit të rrugës.

Padyshim që keni vozitur dhe keni hasur në këmbësorë që prisnin të kalonin rrugën dhe megjithatë ata nuk kishin të drejtën e kalimit për ta bërë këtë. Kjo do të thoshte se ju kishit diskrecion nëse do të ndalonit dhe t'i linit ata të kalonin. Ju mund të vazhdoni pa i lënë ata të kalojnë dhe gjithsesi të jeni plotësisht brenda rregullave ligjore të drejtimit për ta bërë këtë.

Studimet se si shoferët njerëz vendosin të ndalojnë ose të mos ndalojnë për këmbësorë të tillë kanë sugjeruar që ndonjëherë drejtuesit njerëz e bëjnë zgjedhjen bazuar në paragjykime të padëshiruara. Një shofer njerëzor mund të shikojë këmbësorin dhe të zgjedhë të mos ndalojë, edhe pse ata do të kishin ndaluar nëse këmbësori do të kishte një pamje të ndryshme, si për shembull në bazë të racës ose gjinisë. Unë e kam ekzaminuar këtë në lidhja këtu.

Imagjinoni që makinat vetë-drejtuese të bazuara në AI janë të programuara për t'u marrë me pyetjen nëse duhet të ndalojnë apo jo për këmbësorët që nuk kanë të drejtë kalimi. Ja se si zhvilluesit e AI vendosën ta programojnë këtë detyrë. Ata mblodhën të dhëna nga video kamerat e qytetit që janë vendosur në të gjithë qytetin. Të dhënat tregojnë shoferë njerëz që ndalojnë për këmbësorët që nuk kanë të drejtë përparësie dhe drejtues njerëz që nuk ndalojnë. E gjitha është mbledhur në një grup të madh të dhënash.

Duke përdorur Machine Learning dhe Deep Learning, të dhënat modelohen në mënyrë llogaritëse. Sistemi i drejtimit të inteligjencës artificiale përdor më pas këtë model për të vendosur se kur të ndalet ose jo. Në përgjithësi, ideja është se çfarëdo që përbëhet nga zakonet lokale, kjo është mënyra se si AI po drejton makinën vetë-drejtuese.

Për habinë e drejtuesve të qytetit dhe banorëve, inteligjenca artificiale me sa duket po vendoste të ndalonte ose të mos ndalonte bazuar në moshën e këmbësorit. Si mund të ndodhte kjo?

Pas një shqyrtimi më të afërt të videos së diskrecionit të shoferit njerëzor, rezulton se shumë nga rastet e mosndalimit kanë sjellë këmbësorë që kishin një bastun në këmbë të një qytetari të moshuar. Shoferët njerëz me sa duket nuk ishin të gatshëm të ndalonin dhe të linin një të moshuar të kalonte rrugën, me sa duket për shkak të kohëzgjatjes së supozuar që mund t'i duhej dikujt për të bërë udhëtimin. Nëse këmbësori do të dukej sikur mund të hidhej me shigjetë nëpër rrugë dhe të minimizonte kohën e pritjes së shoferit, drejtuesit e mjeteve ishin më të prirur për ta lënë personin të kalonte.

Kjo u varros thellë në sistemin e drejtimit të AI. Sensorët e makinës vetë-drejtuese do të skanojnë këmbësorët në pritje, do t'i ushqejnë këto të dhëna në modelin ML/DL dhe modeli do të lëshojë në AI nëse duhet të ndalojë apo të vazhdojë. Çdo tregues vizual që këmbësori mund të jetë i ngadalshëm për të kaluar, siç është përdorimi i një bastuni për ecje, matematikisht po përdorej për të përcaktuar nëse sistemi i drejtimit të AI duhet të linte këmbësorët në pritje apo jo.

Ju mund të pretendoni se kjo ishte një mbështetje në një paragjykim njerëzor paraekzistues.

Përfundim

Disa mendime të fundit për momentin.

Ekziston një thënie popullore që ju nuk mund t'i ndryshoni letrat që ju jepen dhe në vend të kësaj duhet të mësoni se si të luani në mënyrë adekuate me çfarëdo dore që ju është dhënë.

Në rastin e paragjykimeve të inteligjencës artificiale, nëse nuk arrijmë me zell vendosjen e Etikës së AI në të gjithë bordin dhe veçanërisht forcojmë karakterizimin e paragjykimeve të AI, llojet e duarve me të cilat do të trajtohemi do të jenë të mbushura me joetikë të ndyrë. dhe ndoshta shtresa e paligjshme. Ne duhet të ndalojmë që ato letra të shpërndahen ndonjëherë, për të filluar. Synimi i guximshëm për të krijuar dhe shpallur standardet etike të AI është një mjet thelbësor për të luftuar cunamin në rritje të së ardhmes AI për të keqen.

Ju mund të merrni me vendosmëri në bankë se paragjykimi i shfrenuar i AI dhe AI ​​joetike do të jenë si një shtëpi e dobët letrash, që do të shpërthejë mbi vetveten dhe ka të ngjarë të jetë katastrofike për të gjithë ne.

Le të luajmë për të fituar, duke e bërë këtë me AI të përshtatshme etike.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-paragjykime/