Inteligjenca artificiale e përgjegjshme shijon një nxitje të jashtëzakonshme nëpërmjet shpalljes së etikës së AI nga Shoqëria më e lartë profesionale ACM

A e keni parë apo dëgjuar lajmin?

Një grup tjetër i parimeve të Etikës së AI është shpallur rishtazi.

Duartrokitje të furishme, nëse ju lutem.

Pastaj përsëri, ju mund nuk e kanë vënë re për faktin se shumë dekrete të tjera të Etikës së UA-së kanë qarkulluar për një kohë tashmë. Disa po thonë se përhapja në dukje e pandërprerë e deklaratave Etike të AI po bëhet pak e mpirë. Sa na duhen? A mund të vazhdojë dikush me të gjithë ata? Cili është më i miri? Ndoshta po e teprojmë me parimet e etikës së AI? Dhe kështu me radhë.

Epo, në këtë rast të veçantë, unë them se ne duhet ta mirëpresim veçanërisht këtë shtesë të fundit në klub.

Unë do të shpjegoj me inteligjencë pse në një moment.

Së pari, si sqarim, po i referohem parimit të Etikës së AI, i njohur tashmë zyrtarisht si "Deklaratë mbi Parimet për Sistemet Algoritmike Përgjegjëse” i cili u botua së fundi nga Këshilli i Politikave të Teknologjisë ACM më 26 tetor 2022. Faleminderit ekipeve të ekspertëve që e bashkuan këtë dokument të çmuar, duke përfshirë autorët bashkë-drejtues Jeanna Matthews (Universiteti Clarkson) dhe Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Ata prej jush që e dinë, pas inspektimit të afërt mund të kuptojnë se ky dokument duket paksa i njohur.

sy të mirë!

Ky mishërim i fundit është në thelb një variant i përditësuar dhe i zgjeruar i "Deklaratës së përbashkët mbi transparencën dhe përgjegjësinë algoritmike" që u shpall nga Komiteti i Politikave të Teknologjisë në SHBA dhe Komiteti i Politikave të Teknologjisë ACM Europe në 2017. Lexuesit besnikë të kolonave të mia mund të kujtojnë se Herë pas here e kam përmendur dekretin e vitit 2017 në mbulimin e rubrikës sime të aspekteve kryesore që qëndrojnë në themel të Etikës së AI dhe ligjit të AI.

Për vlerësimin tim të gjerë dhe të vazhdueshëm dhe analizat e tendencës të Etikës së UA dhe Ligjit të AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Kjo deklaratë e fundit nga ACM është veçanërisht e rëndësishme për disa arsye jetike.

Ja pse.

ACM, i cili është një akronim i dobishëm për Shoqata për makineri kompjuterike, konsiderohet shoqata më e madhe në botë e fokusuar në kompjuter. Me rreth 110,000 anëtarë, ACM është një pionier i gjatë në fushën e informatikës. ACM prodhon disa nga kërkimet më të larta shkencore në fushën e informatikës, dhe gjithashtu ofron rrjete profesionale dhe apele për praktikuesit e informatikës. Si i tillë, ACM është një zë i rëndësishëm që përfaqëson përgjithësisht ata që janë të teknologjisë së lartë dhe është përpjekur vazhdimisht për të avancuar fushën e kompjuterave (ACM u themelua në 1947).

Mund të shtoj edhe një shënim personal për këtë. Kur u futa për herë të parë në kompjuter në shkollën e mesme, u bashkua me ACM dhe mora pjesë në programet e tyre arsimore, veçanërisht shansin emocionues për të konkurruar në konkursin e tyre vjetor të programimit kompjuterik (konkurse të tilla janë gjerësisht të zakonshme në ditët e sotme dhe etiketohen zakonisht si hackathons). Unë mbetem i përfshirë në ACM ndërsa isha në kolegj nëpërmjet kapitullit tim lokal të universitetit dhe pata një mundësi për të mësuar rreth udhëheqjes duke u bërë një oficer i kapitullit të studentëve. Me hyrjen në industri, iu bashkua një kapitulli profesional dhe mora sërish një rol udhëheqës. Më vonë pas kësaj, kur u bëra profesor, shërbeva në komitetet dhe bordet editoriale të ACM, së bashku me sponsorizimin e kapitullit të studentëve të kampusit. Edhe sot, unë jam aktiv në ACM, duke përfshirë shërbimin në Komitetin e Politikave të Teknologjisë në SHBA të ACM.

Më pëlqen vizioni tërheqës dhe i qëndrueshëm i ACM për të mësuarit gjatë gjithë jetës dhe zhvillimin e karrierës.

Në çdo rast, për sa i përket deklaratës së fundit të Etikës së AI, fakti që kjo është lëshuar nga ACM ka një peshë të madhe për të. Ju mund të pohoni në mënyrë të arsyeshme se parimet etike të AI janë tërësia ose zëri kolektiv i një grupi mbarëbotëror profesionistësh të informatikës. Kjo thotë diçka aty.

Ekziston gjithashtu aspekti që të tjerët në fushën e kompjuterit do të frymëzohen për t'u zgjuar dhe për të dëgjuar në kuptimin e dhënies së konsideratës së duhur për atë që deklarata deklaron nga kolegët e tyre kompjuterikë. Kështu, edhe për ata që nuk janë në ACM ose nuk dinë asgjë për grupin e nderuar, shpresojmë se do të ketë interes të madh për të zbuluar se për çfarë bëhet fjalë deklarata.

Ndërkohë, ato që janë jashtë e fushës së informatikës mund të tërhiqet nga deklarata si një lloj shikimi i brendshëm i prapaskenave në atë që ata që janë në kompjuterë thonë për AI Etike. Megjithatë, dua të theksoj se deklarata është e destinuar për të gjithë, jo vetëm për ata në komunitetin e kompjuterëve, dhe për këtë arsye mbani në mend se parimet e Etikës së AI janë të gjitha, si të thuash.

Së fundi, ka një kthesë të shtuar që pak do ta konsideronin.

Ndonjëherë, të huajt i perceptojnë shoqatat informatike si teknologji deri në gjunjë dhe jo veçanërisht të vetëdijshëm për ndikimet shoqërore të kompjuterëve dhe AI. Ju mund të tundoheni të supozoni se entitete të tilla profesionale kujdesen vetëm për zbulimet më të fundit dhe më të nxehta në harduer ose softuer. Ata perceptohen nga publiku, në një mënyrë të thënë thjesht të ashpër, si budallenj teknikë.

Për të vendosur rekordin drejt, unë kam qenë i zhytur në ndikimet sociale të informatikës që kur u futa për herë të parë në kompjuter dhe gjithashtu ACM ka qenë gjithashtu i angazhuar thellësisht në tema të tilla.

Për këdo që është i befasuar që kjo deklaratë në lidhje me parimet e etikës së AI është mbledhur dhe lëshuar nga ACM, ata nuk po i kushtojnë vëmendje kërkimit dhe punës së gjatë që po bëhet për këto çështje. Unë gjithashtu do të bëj thirrje që të interesuarit të shikojnë mirë ACM-në Kodi i Etikes, një kod i ashpër i etikës profesionale që ka evoluar gjatë viteve dhe thekson se zhvilluesit e sistemeve duhet të jenë të vetëdijshëm, t'i përmbahen dhe të jenë vigjilentë për pasojat etike të përpjekjeve dhe produkteve të tyre.

Inteligjenca artificiale i ka ndezur zjarret duke u informuar për etikën e kompjuterave.

Dukshmëria e konsideratave etike dhe ligjore në fushën e informatikës është rritur jashtëzakonisht me shfaqjen e AI-së së sotme. Ata që janë brenda profesionit janë duke u informuar dhe herë pas here duke u zhurmuar për t'i kushtuar vëmendjen e duhur çështjeve të Etikës së AI dhe ligjit të AI. Ligjvënësit po ndërgjegjësohen gjithnjë e më shumë për aspektet e Etikës së AI dhe Ligjeve të AI. Kompanitë po mendojnë se inteligjenca artificiale që ata po krijojnë ose përdorin është edhe e dobishme dhe megjithatë ndonjëherë hap rreziqe të mëdha dhe dobësi të mundshme.

Le të shpaketojmë atë që ka ndodhur në vitet e fundit, në mënyrë që të krijohet një kontekst i përshtatshëm përpara se të hidhemi në këtë grup të fundit të parimeve të Etikës së AI.

Rritja e ndërgjegjësimit për AI Etike

Epoka e fundit e AI fillimisht u konsiderua si e tillë AI për të mirë, që do të thotë se ne mund të përdorim AI për përmirësimin e njerëzimit. Në thembra të AI për të mirë erdhi kuptueshmëria se edhe ne jemi zhytur në të AI për të keqen. Kjo përfshin AI që është krijuar ose vetë-ndryshuar në diskriminim dhe që bën zgjedhje llogaritëse duke mbushur me paragjykime të panevojshme. Ndonjëherë AI është ndërtuar në atë mënyrë, ndërsa në raste të tjera ajo kthehet në atë territor të pakëndshëm.

Dua të sigurohem shumë që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI në të cilin po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim në mënyrë të egër për inteligjencën artificiale të ndjeshme, ky diskutim mund të shkonte në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Unë do të sugjeroja fuqimisht që t'i mbajmë gjërat në tokë dhe të marrim parasysh inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Jini shumë të kujdesshëm ndaj antropomorfizimit të AI-së së sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime të ngulitura ende brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

E gjithë kjo ka implikime të rëndësishme të Etikës së AI dhe ofron një dritare të dobishme në mësimet e nxjerra (edhe para se të gjitha mësimet të ndodhin) kur bëhet fjalë për përpjekjen për të ligjësuar AI.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në kolonat e mëparshme, unë kam mbuluar përpjekjet e ndryshme kombëtare dhe ndërkombëtare për të krijuar dhe miratuar ligje që rregullojnë AI, shih lidhja këtu, për shembull. Unë kam mbuluar gjithashtu parimet dhe udhëzimet e ndryshme të Etikës së AI që kombe të ndryshme kanë identifikuar dhe miratuar, duke përfshirë për shembull përpjekjet e Kombeve të Bashkuara si grupi i UNESCO-s i Etikës së AI që kanë miratuar afro 200 vende, shih. lidhja këtu.

Këtu është një listë e dobishme kryesore e kritereve ose karakteristikave Etike të AI në lidhje me sistemet e AI që kam eksploruar më parë nga afër:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Këto parime të Etikës së AI supozohet të përdoren me zell nga zhvilluesit e AI, së bashku me ato që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI.

Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të IA konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u theksua më parë këtu, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të Etikës së UA.

Kohët e fundit kam ekzaminuar gjithashtu UA Bill of Rights i cili është titulli zyrtar i dokumentit zyrtar të qeverisë amerikane të titulluar "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" që ishte rezultat i një përpjekjeje njëvjeçare nga Zyra e Politikave të Shkencës dhe Teknologjisë (OSTP ). OSTP është një ent federal që shërben për të këshilluar Presidentin Amerikan dhe Zyrën Ekzekutive të SHBA-së për aspekte të ndryshme teknologjike, shkencore dhe inxhinierike me rëndësi kombëtare. Në këtë kuptim, mund të thoni se ky Projektligj i të Drejtave të AI është një dokument i miratuar dhe i miratuar nga Shtëpia e Bardhë ekzistuese e SHBA.

Në Ligjin e të Drejtave të AI, ekzistojnë pesë kategori kryesore:

  • Sisteme të sigurta dhe efektive
  • Mbrojtje nga diskriminimi algoritmik
  • Privatësia e të dhënave
  • Njoftim dhe shpjegim
  • Alternativat njerëzore, konsiderata dhe rikthimi

Unë i kam shqyrtuar me kujdes ato rregulla, shih lidhja këtu.

Tani që kam hedhur një themel të dobishëm në këto tema të lidhura me Etikën e AI dhe Ligjin e AI, ne jemi gati të kalojmë në ACM të lëshuar së fundi "Deklarata mbi Parimet për Sistemet Algoritmike Përgjegjëse" (meqë ra fjala, meqenëse titulli i dokumentit i referohet përgjegjës sistemet algoritmike, ju mund të dëshironi të hidhni një sy në vlerësimin tim se çfarë do të thotë të flasësh AI i besueshëm, Shih lidhja këtu).

Bëhuni gati për një udhëtim në këtë grup të fundit të parimeve të Etikës së AI.

Duke gërmuar me qëllim në ACM Parimet e deklaruara të etikës së AI

Deklarata e ACM rreth AI Etike përbëhet nga këto nëntë pika kryesore:

  • Legjitimiteti dhe kompetenca
  • Minimizimi i dëmit
  • Siguria dhe privatësia
  • Transparenca
  • Interpretueshmëria dhe shpjegueshmëria
  • maintainability
  • Kontestueshmëria dhe auditueshmëria
  • Llogaridhënia dhe përgjegjësia
  • Kufizimi i ndikimeve mjedisore

Nëse e krahasoni këtë grup të fundit me grupe të tjera veçanërisht të disponueshme, ka shumë ngjashmëri ose korrespondencë të ngjashme midis tyre.

Nga njëra anë, ju mund ta merrni këtë si një shenjë të mirë.

Në përgjithësi, mund të shpresojmë që numri i madh i parimeve të Etikës së AI që qarkullon është duke u bashkuar drejt të njëjtit mbulim të përgjithshëm. Duke parë që një grup është disi i krahasueshëm me një grup tjetër, ju jep një dukje besimi se këto grupe janë brenda të njëjtit park dhe jo disi jashtë në një fushë të majtë të çuditshme.

Një ankesë e mundshme nga disa është se këto grupe të ndryshme duken të jenë përafërsisht të njëjta, gjë që më pas krijon konfuzion ose të paktën habi për shkak të shqetësimit se nuk duhet të kemi lista të shumta në dukje të dyfishta. Nuk mund të ketë vetëm një listë? Problemi sigurisht është se nuk ka asnjë mënyrë të thjeshtë që të gjitha listat e tilla të jenë saktësisht të njëjta. Grupe të ndryshme dhe entitete të ndryshme i janë qasur kësaj në mënyra të ndryshme. Lajmi i mirë është se ata pothuajse të gjithë kanë arritur të njëjtin përfundim gjithëpërfshirës. Mund të jemi të lehtësuar që grupet nuk kanë dallime të mëdha, gjë që ndoshta do të na shqetësonte nëse nuk do të kishte një konsensus të përgjithshëm.

Një i kundërt mund të nxisë se e përbashkëta e këtyre listave është shqetësuese, duke argumentuar se ndoshta ka një mendim në grup. Ndoshta të gjitha këto grupe të ndryshme po mendojnë në të njëjtën mënyrë dhe nuk janë në gjendje të shikojnë përtej normës. Të gjithë ne po biem në një kurth të njëjtë. Listat me sa duket po ankorojnë të menduarit tonë dhe ne nuk jemi në gjendje të shohim përtej hundëve tona.

Të shikojmë përtej hundëve tona është padyshim një shkak i denjë.

Sigurisht që jam i hapur të dëgjoj se çfarë kanë për të thënë të kundërtën. Ndonjëherë ata kapin erën e diçkaje që ka Kolosal duke u nisur drejt një ajsbergu gjigant. Mund të përdorim disa vëzhgues me sy shqiponjë. Por, në çështjen e këtyre parimeve të Etikës së AI, nuk ka pasur ndonjë gjë të artikuluar përfundimisht nga kundërshtarët që duket se zvogëlon qartë ose ngre shqetësime për një të përbashkët të panevojshme që po ndodh. Mendoj se jemi mirë.

Në këtë grup ACM, ka disa pika veçanërisht të dukshme ose të spikatura që mendoj se meritojnë vëmendje të veçantë.

Së pari, më pëlqen shprehja e nivelit të lartë, e cila është disi e ndryshme nga norma.

Për shembull, duke iu referuar legjitimitetin dhe kompetencën (artiku i parë me plumb) ngjall një pamje të rëndësisë së kompetencave të projektuesit dhe menaxhimit të lidhura me AI. Përveç kësaj, ligjshmëri fraza kapëse përfundon duke na futur në Etikën e AI Sfera e ligjit të AI. E them këtë sepse shumë nga parimet e Etikës së AI përqendrohen pothuajse tërësisht në implikimet etike, por duket se i lënë anash ose janë të turpshëm për të vënë në dukje edhe pasojat ligjore. Në fushën ligjore, konsideratat etike shpesh cilësohen si "ligj i butë" ndërsa ligjet mbi librat interpretohen si "ligje të vështira" (që do të thotë se ato mbajnë peshën e gjykatave ligjore).

Një nga thëniet e mia të preferuara të të gjitha kohërave u shqiptua nga juristi i famshëm Earl Warren: "Në jetën e qytetëruar, ligji noton në një det etike".

Ne duhet të sigurohemi që parimet e etikës së AI të përfshijnë dhe theksojnë anën e ligjit të vështirë të gjërave si në hartimin, miratimin dhe zbatimin e ligjeve të AI.

Së dyti, vlerësoj që lista përfshin kontestueshmërinë dhe auditueshmërinë.

Unë kam shkruar në mënyrë të përsëritur për vlerën e të qenit në gjendje të kontestoni ose të ngrini një flamur të kuq kur jeni subjekt i një sistemi AI, shih lidhja këtu. Për më tepër, ne do të shohim gjithnjë e më shumë ligje të reja që detyrojnë sistemet e AI të auditohen, të cilat unë e kam diskutuar gjerësisht në lidhje me ligjin e qytetit të Nju Jorkut (NYC) për auditimin e paragjykimeve të sistemeve të AI të përdorura për punësimin dhe promovimin e punonjësve, shih lidhja këtu. Fatkeqësisht, dhe sipas kritikës time të hapur ndaj ligjit të ri të NYC, nëse këto ligje të auditimit kanë të meta, ato ndoshta do të krijojnë më shumë probleme sesa zgjidhin.

Së treti, ka një zgjim gradual që AI mund të ndikojë në çështjet e qëndrueshmërisë dhe jam i kënaqur të shoh se mjedisore tema mori një faturim të nivelit të lartë në këto parime të Etikës së AI (shih pikën e fundit të listës).

Akti i krijimit të një sistemi AI mund të konsumojë vetëm shumë burime kompjuterike. Këto burime kompjuterike mund të jenë drejtpërdrejt ose tërthorazi uzurpues të qëndrueshmërisë. Ekziston një kompromis për t'u marrë parasysh për sa i përket përfitimeve që ofron një AI kundrejt kostove që vijnë së bashku me AI. E fundit nga artikujt me pika ACM vë në dukje konsideratat e qëndrueshmërisë dhe mjedisit që lindin me AI. Për mbulimin tim të çështjeve të gjurmës së karbonit të lidhura me AI, shih lidhja këtu.

Tani që kemi bërë një vështrim deri në qiell në listën e ACM të parimeve të Etikës së AI, më pas i vendosim gishtat e këmbëve më thellë në ujëra.

Këtu janë përshkrimet zyrtare për secilin prej parimeve të Etikës së UA të nivelit të lartë (cituar nga deklarata zyrtare):

1. 'Legjitimiteti dhe kompetenca: Projektuesit e sistemeve algoritmike duhet të kenë kompetencën e menaxhimit dhe autorizimin e qartë për të ndërtuar dhe vendosur sisteme të tilla. Ata gjithashtu duhet të kenë ekspertizë në fushën e aplikimit, një bazë shkencore për përdorimin e synuar të sistemeve dhe të konsiderohen gjerësisht si shoqërisht legjitime nga palët e interesuara të ndikuara nga sistemi. Duhet të kryhen vlerësime ligjore dhe etike për të konfirmuar se çdo rrezik i paraqitur nga sistemet do të jetë në proporcion me problemet që trajtohen dhe se çdo shkëmbim përfitim-dëm kuptohet nga të gjitha palët e interesuara.

2. 'Minimizimi i dëmit: Menaxherët, projektuesit, zhvilluesit, përdoruesit dhe palët e tjera të interesit të sistemeve algoritmike duhet të jenë të vetëdijshëm për gabimet dhe paragjykimet e mundshme të përfshira në hartimin, zbatimin dhe përdorimin e tyre, si dhe dëmin e mundshëm që një sistem mund t'i shkaktojë individëve dhe shoqërisë. Organizatat duhet të kryejnë në mënyrë rutinore vlerësime të ndikimit në sistemet që përdorin për të përcaktuar nëse sistemi mund të gjenerojë dëm, veçanërisht dëm diskriminues, dhe për të aplikuar masat e duhura zbutëse. Kur është e mundur, ata duhet të mësojnë nga masat e performancës aktuale, jo vetëm nga modelet e vendimeve të kaluara që mund të kenë qenë vetë diskriminuese.”

3. 'Siguria dhe privatësia: Rreziku nga palët keqdashëse mund të zbutet duke prezantuar praktikat më të mira të sigurisë dhe privatësisë në çdo fazë të ciklit të jetës së sistemeve, duke përfshirë kontrolle të forta për të zbutur dobësitë e reja që lindin në kontekstin e sistemeve algoritmike.

4. 'Transparenca: Zhvilluesit e sistemit inkurajohen të dokumentojnë qartë mënyrën në të cilën grupet e të dhënave specifike, variablat dhe modelet janë përzgjedhur për zhvillim, trajnim, vërtetim dhe testim, si dhe masat specifike që janë përdorur për të garantuar cilësinë e të dhënave dhe të prodhimit. Sistemet duhet të tregojnë nivelin e tyre të besimit në çdo produkt dhe njerëzit duhet të ndërhyjnë kur besimi është i ulët. Zhvilluesit gjithashtu duhet të dokumentojnë qasjet që janë përdorur për të eksploruar paragjykimet e mundshme. Për sistemet me ndikim kritik në jetën dhe mirëqenien, duhet të kërkohen procedura të pavarura verifikimi dhe vërtetimi. Shqyrtimi publik i të dhënave dhe modeleve ofron mundësi maksimale për korrigjim. Kështu, zhvilluesit duhet të lehtësojnë testimin e palëve të treta në interes të publikut.”

5. 'Interpretueshmëria dhe shpjegueshmëria: Menaxherët e sistemeve algoritmike inkurajohen të prodhojnë informacion në lidhje me procedurat që ndjekin algoritmet e përdorur (interpretueshmëria) dhe vendimet specifike që ata marrin (shpjegueshmëria). Shpjegueshmëria mund të jetë po aq e rëndësishme sa saktësia, veçanërisht në kontekstet e politikave publike ose në çdo mjedis në të cilin ka shqetësime se si algoritmet mund të anojnë për të përfituar një grup mbi një tjetër pa u pranuar. Është e rëndësishme të bëhet dallimi midis shpjegimeve dhe racionalizimeve pas faktit që nuk pasqyrojnë provat ose procesin e vendimmarrjes të përdorur për të arritur në përfundimin që shpjegohet.”

6. 'Mirëmbajtja: Dëshmitë e shëndetit të të gjitha sistemeve algoritmike duhet të mblidhen gjatë gjithë cikleve të tyre të jetës, duke përfshirë dokumentacionin e kërkesave të sistemit, projektimin ose zbatimin e ndryshimeve, rastet e testimit dhe rezultatet, si dhe një regjistër të gabimeve të gjetura dhe të rregulluara. Mirëmbajtja e duhur mund të kërkojë sisteme rikualifikimi me të dhëna të reja trajnimi dhe/ose zëvendësimin e modeleve të përdorura.”

7. 'Kontestueshmëria dhe auditueshmëria: Rregullatorët duhet të inkurajojnë miratimin e mekanizmave që u mundësojnë individëve dhe grupeve të vënë në pikëpyetje rezultatet dhe të kërkojnë korrigjim për efektet e padëshiruara që rezultojnë nga vendimet e informuara algoritmikisht. Menaxherët duhet të sigurojnë që të dhënat, modelet, algoritmet dhe vendimet të regjistrohen në mënyrë që ato të mund të auditohen dhe rezultatet të përsëriten në rastet kur dyshohet ose pretendohet dëmtimi. Strategjitë e auditimit duhet të bëhen publike për t'u mundësuar individëve, organizatave me interes publik dhe studiuesve të rishikojnë dhe rekomandojnë përmirësime.

8. 'Përgjegjësia dhe përgjegjësia: Organet publike dhe private duhet të mbajnë përgjegjësi për vendimet e marra nga algoritmet që përdorin, edhe nëse nuk është e mundur të shpjegohet në detaje se si këto algoritme kanë prodhuar rezultatet e tyre. Organe të tilla duhet të jenë përgjegjëse për sisteme të tëra siç janë vendosur në kontekstet e tyre specifike, jo vetëm për pjesët individuale që përbëjnë një sistem të caktuar. Kur zbulohen probleme në sistemet e automatizuara, organizatat përgjegjëse për vendosjen e këtyre sistemeve duhet të dokumentojnë veprimet specifike që do të ndërmarrin për të rregulluar problemin dhe në çfarë rrethanash përdorimi i teknologjive të tilla duhet të pezullohet ose të ndërpritet.

9. 'Kufizimi i ndikimeve mjedisore: Sistemet algoritmike duhet të projektohen për të raportuar vlerësimet e ndikimeve mjedisore, duke përfshirë emetimet e karbonit si nga trajnimi ashtu edhe nga llogaritjet operacionale. Sistemet e AI duhet të dizajnohen për të siguruar që emetimet e tyre të karbonit janë të arsyeshme duke pasur parasysh shkallën e saktësisë që kërkohet nga konteksti në të cilin ato janë vendosur.

Unë besoj se ju do t'i jepni secilit prej atyre parimeve thelbësore të Etikës së AI një lexim të kujdesshëm dhe të dikurshëm. Ju lutemi merrni ato në zemër.

Përfundim

Ekziston një pjesë delikate, por po aq thelbësore e deklaratës së ACM-së që besoj se shumë mund ta anashkalojnë pa dashje. Më lejoni të sigurohem që ta sjell këtë në vëmendjen tuaj.

Unë jam duke aluduar në një pjesë që diskuton enigmën vuajtëse të detyrimit për të peshuar kompromiset që lidhen me parimet e Etikës së AI. E shihni, shumica e njerëzve shpesh tundin kokën e pamend kur lexojnë parimet Etike të AI dhe supozojnë se të gjitha parimet janë të barabarta në peshë dhe të gjitha parimeve do t'u jepet gjithmonë e njëjta pamje optimale e respektit dhe vlerës.

Jo në botën reale.

Pasi goma takohet me rrugën, çdo lloj AI që ka qoftë edhe një kompleks kompleksiteti do të testojë në mënyrë të keqe parimet e etikës së AI për sa i përket faktit se disa nga elementët janë mjaft të arritshëm mbi disa nga parimet e tjera. E kuptoj që ju mund të bërtisni me zë të lartë se e gjithë AI duhet të maksimizojë të gjitha parimet e Etikës së AI, por kjo nuk është veçanërisht realiste. Nëse ky është qëndrimi që dëshironi të mbani, guxoj të them se ka të ngjarë t'ju duhet t'u tregoni shumicës ose pothuajse të gjithë krijuesve dhe përdoruesve të AI që të mbyllin dyqanin dhe të heqin fare inteligjencën artificiale.

Duhet të bëhen kompromise për të nxjerrë AI nga dera. Thënë kjo, unë nuk jam duke mbrojtur prerjen e qosheve që shkelin parimet e Etikës së AI, dhe as duke nënkuptuar se ato duhet të shkelin ligjet e AI. Duhet të plotësohet një minimum i veçantë dhe mbi të cilin synohet të përpiqemi më shumë. Në fund, një ekuilibër duhet të gjykohet me kujdes. Ky akt balancues duhet të bëhet me vetëdije, në mënyrë eksplicite, të ligjshme dhe me Etikën e AI si një besim të mirëfilltë dhe të sinqertë (ju mund të dëshironi të shihni se si kompanitë po përdorin Bordet e Etikës së AI për të provuar dhe mbledhur këtë qasje solemne, shih lidhja këtu).

Këtu janë disa pika me pika që përmend deklarata ACM mbi kompleksitetin e kompromiseve (cituar nga dokumenti zyrtar):

  • "Zgjidhjet duhet të jenë proporcionale me problemin që zgjidhet, edhe nëse kjo ndikon në kompleksitetin ose koston (p.sh. refuzimi i përdorimit të mbikëqyrjes publike me video për një detyrë të thjeshtë parashikimi).
  • “Duhet të merren parasysh një shumëllojshmëri e gjerë metrikash të performancës dhe mund të peshohen ndryshe bazuar në domenin e aplikacionit. Për shembull, në disa aplikacione të kujdesit shëndetësor efektet e negativëve të rremë mund të jenë shumë më të këqija se ato false pozitive, ndërsa në drejtësinë penale pasojat e rezultateve false (p.sh. burgosja e një personi të pafajshëm) mund të jenë shumë më të këqija se negativet e rreme. Konfigurimi më i dëshirueshëm i sistemit operativ është rrallë ai me saktësi maksimale.”
  • “Shqetësimet për privatësinë, mbrojtjen e sekreteve tregtare ose zbulimin e analitikëve që mund të lejojnë aktorët keqdashës të luajnë sistemin mund të justifikojnë kufizimin e aksesit ndaj individëve të kualifikuar, por ato nuk duhet të përdoren për të justifikuar kufizimin e kontrollit të palëve të treta ose për të shfajësuar zhvilluesit nga detyrimi për të pranuar dhe riparuar gabimet.”
  • “Transparenca duhet të shoqërohet me proceset e llogaridhënies që u mundësojnë palëve të interesuara të ndikuara nga një sistem algoritmik të kërkojnë korrigjim kuptimplotë për dëmet e bëra. Transparenca nuk duhet të përdoret për të legjitimuar një sistem apo për të transferuar përgjegjësinë te palët e tjera.”
  • “Kur ndikimi i një sistemi është i lartë, mund të preferohet një sistem më i shpjegueshëm. Në shumë raste, nuk ka shkëmbim ndërmjet shpjegueshmërisë dhe saktësisë. Megjithatë, në disa kontekste, shpjegimet e pasakta mund të jenë edhe më keq se pa shpjegim (p.sh., në sistemet shëndetësore, një simptomë mund të korrespondojë me shumë sëmundje të mundshme, jo vetëm me një).

Ata që po zhvillojnë ose përdorin AI mund të mos i kuptojnë haptazi kompromiset me të cilat përballen. Drejtuesit kryesorë të një firme mund të supozojnë naivisht se AI plotëson maksimumin në të gjitha parimet e Etikës së AI. Ata ose e besojnë këtë sepse nuk kanë dijeni për AI, ose duan ta besojnë këtë dhe ndoshta po bëjnë një mbyllje syri në mënyrë që të përvetësojnë lehtësisht AI.

Gjasat janë që dështimi për t'u përballur në mënyrë thelbësore dhe të hapur me shkëmbimet do të përfundojë me një AI që do të prodhojë dëm. Këto dëme nga ana e tyre ka të ngjarë të hapin një firmë ndaj detyrimeve potencialisht në shkallë të gjerë. Për më tepër, ligjet konvencionale mund të zbatohen për akte të mundshme kriminale të lidhura me AI, së bashku me ligjet më të reja të fokusuara në AI, të cilat gjithashtu e godasin këtë. Një ton tullash po presin mbi kokat e atyre që mendojnë se mund t'i bëjnë ballë shkëmbimeve ose që janë thellësisht të pavetëdijshëm se shkëmbimet ekzistojnë (një realizim dërrmues në mënyrë të pashmangshme do të bjerë mbi ta).

Unë do të jap fjalën e fundit tani për këtë temë për aspektin përmbyllës të deklaratës së ACM pasi mendoj se bën një punë të fortë për të shpjeguar se çfarë synojnë makroskopikisht të sjellin këto parime Etike të AI:

  • “Rekomandimet e mësipërme fokusohen në projektimin, zhvillimin dhe përdorimin e përgjegjshëm të sistemeve algoritmike; përgjegjësia duhet të përcaktohet me ligj dhe politikë publike. Fuqia në rritje e sistemeve algoritmike dhe përdorimi i tyre në aplikime kritike dhe të rëndësishme për jetën do të thotë që duhet të tregohet kujdes i madh në përdorimin e tyre. Këto nëntë parime instrumentale kanë për qëllim të jenë frymëzues në nisjen e diskutimeve, fillimin e kërkimit dhe zhvillimin e metodave të qeverisjes për të sjellë përfitime për një gamë të gjerë përdoruesish, duke promovuar besueshmërinë, sigurinë dhe përgjegjësinë. Në fund, është konteksti specifik që përcakton dizajnin dhe përdorimin e saktë të një sistemi algoritmik në bashkëpunim me përfaqësuesit e të gjitha palëve të interesuara” (cituar nga dokumenti zyrtar).

Siç na thonë me zgjuarsi fjalët e mençurisë, një udhëtim prej njëmijë miljesh fillon me hapin e parë.

Ju lutem që të njiheni me Etikën e AI dhe Ligjin e AI, duke ndërmarrë çfarëdo hapi të parë që do t'ju çojë përpara, dhe më pas të ndihmoni në vazhdimin e këtyre përpjekjeve jetike. E bukura është se ne jemi ende në fillimet e grumbullimit të mënyrës se si të menaxhojmë dhe të përballemi shoqërisht me AI, kështu që ju po hyni në katin e parë dhe përpjekjet tuaja mund të formojnë dukshëm të ardhmen tuaj dhe të ardhmen për të gjithë ne.

Udhëtimi i AI sapo ka filluar dhe hapat e parë jetik janë ende duke u zhvilluar.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- shoqata-profesioni-acm/