Etika e Inteligjencës Artificiale që bie zile alarmi në lidhje me spektrin e afërt të paragjykimeve të AI në shkallë masive globale, veçanërisht të nxitura nëpërmjet sistemeve plotësisht autonome të afërt

Platoni tha në mënyrë të famshme se një vendim i mirë bazohet në njohuri dhe jo në numra.

Ky depërtim i mprehtë duket çuditërisht parashikues për Inteligjencën Artificiale (AI) e sotme.

E shihni, megjithë titujt e zhurmshëm që aktualisht shpallin se AI ka arritur disi ndjenjën dhe mishëron njohuritë dhe arsyetimin njerëzor, ju lutemi kini parasysh se kjo hiperbolë e mbivlerësuar e AI është një paragjykim tinëzar pasi ne jemi ende duke u mbështetur në shtypjen e numrave në vendimmarrjen e algoritmit të sotëm (ADM ) siç është ndërmarrë nga sistemet e AI. Edhe mësimi i lavdëruar i makinerisë (ML) dhe mësimi i thellë (DL) përbëhen nga përputhja e modeleve llogaritëse, që do të thotë se numrat janë ende në thelb të përdorimit të lartë të ML/DL.

Ne nuk e dimë nëse është e mundur arritja e ndjeshmërisë së AI. Mund të jetë, mund të mos jetë. Askush nuk mund të thotë me siguri se si mund të lindë kjo. Disa besojnë se ne do të përmirësojmë në mënyrë graduale përpjekjet tona llogaritëse të AI, në mënyrë që një formë e ndjeshmërisë të ndodhë spontanisht. Të tjerë mendojnë se AI mund të shkojë në një lloj supernova llogaritëse dhe të arrijë ndjenjën pothuajse vetë (zakonisht i referuar si singulariteti). Për më shumë mbi këto teori në lidhje me të ardhmen e AI, shihni mbulimin tim në lidhja këtu.

Pra, le të mos tallemi dhe të besojmë rrejshëm se AI bashkëkohor është në gjendje të mendojë si njerëzit. Unë supozoj se pyetja më pas del në plan të parë në lidhje me vërejtjen e Platonit nëse mund të kemi vendime të mira bazuar në AI kompjuterike dhe jo në AI të ndjeshme. Ju mund të habiteni kur të dini se unë do të pohoja se ne me të vërtetë mund të marrim vendime të mira nga sistemet e përditshme të AI.

Ana tjetër e kësaj medalje është se ne gjithashtu mund të kemi sisteme të përditshme të AI që marrin vendime të këqija. Vendime të kalbura. Vendime që janë të mbushura me paragjykime dhe pabarazi. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Mbulimi im i gjerë i Etikës së AI dhe AI ​​Etike mund të gjendet në kjo lidhje këtu kjo lidhje këtu, vetëm për të përmendur disa.

Për këtë diskutim këtu, unë do të doja të sjell një aspekt veçanërisht shqetësues në lidhje me AI, për të cilin ata në arenën e Etikës së AI me të drejtë po ankohen dhe po përpiqen të rrisin ndërgjegjësimin e duhur. Çështja kthjelluese dhe shqetësuese është në të vërtetë mjaft e drejtpërdrejtë për t'u vënë në dukje.

Ja ku eshte: Inteligjenca artificiale ka potencialin e botës reale për të përhapur paragjykime të rrëmbyera nga AI në një shkallë globale alarmante.

Dhe kur them "në shkallë" kjo do të thotë në mënyrë të dukshme shkallë masive mbarëbotërore. Shkallë humongous. Peshorja që del jashtë peshores.

Përpara se të zhytem në mënyrën se si do të ndodhë ky shkallëzim i paragjykimeve të zhytura në AI, le të sigurohemi që të gjithë kemi një pamje se si AI mund të përfshijë paragjykime dhe pabarazi të panevojshme. Kujtoni përsëri se kjo nuk është e një shumëllojshmërie të ndjeshme. E gjithë kjo është e një kalibri llogaritës.

Ju mund të jeni të hutuar se si AI mund të mbushë të njëjtat lloje të paragjykimeve dhe pabarazive negative që bëjnë njerëzit. Ne priremi të mendojmë për AI si krejtësisht neutrale, të paanshme, thjesht një makinë që nuk ka asnjë nga ndikimet emocionale dhe mendimet e ndyra që mund të kenë njerëzit. Një nga mjetet më të zakonshme të rënies së inteligjencës artificiale në paragjykimet dhe pabarazitë e durimit ndodh kur përdoret Learning Machine dhe Deep Learning, pjesërisht si rezultat i mbështetjes në të dhënat e mbledhura rreth mënyrës se si njerëzit po marrin vendime.

Më lër një moment të shtjelloj.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Learning Machine ose Deep Learning thjesht do të përpiqet të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes ose ADM i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Kjo na çon në çështjen e paragjykimeve të zhytura në AI kur jemi në shkallë.

Së pari, le të hedhim një vështrim se si paragjykimet njerëzore mund të krijojnë pabarazi. Një kompani që jep kredi hipotekore vendos të punësojë një agjent kredie hipotekore. Agjenti duhet të shqyrtojë kërkesat e konsumatorëve që duan të marrin një kredi për shtëpi. Pas vlerësimit të një aplikacioni, agjenti merr një vendim për të dhënë ose refuzuar kredinë. Lehtë-peasy.

Për hir të diskutimit, le të imagjinojmë që një agjent kredie njerëzore mund të analizojë 8 kredi në ditë, duke marrë rreth një orë për shqyrtim. Në një javë pune pesë-ditore, agjenti bën rreth 40 rishikime kredie. Në baza vjetore, agjenti zakonisht bën rreth 2,000 rishikime të huasë, jep ose merr pak.

Kompania dëshiron të rrisë volumin e saj të rishikimeve të kredisë, kështu që firma punëson 100 agjentë të tjerë të kredisë. Le të supozojmë se të gjithë kanë pothuajse të njëjtin produktivitet dhe se kjo nënkupton që tani mund të trajtojmë rreth 200,000 kredi në vit (me një normë prej 2,000 rishikime kredie në vit për agjent). Duket se ne me të vërtetë kemi rritur përpunimin e kërkesave për kredi.

Rezulton se kompania krijon një sistem AI që në thelb mund të bëjë të njëjtat rishikime të huasë si agjentët njerëzorë. Inteligjenca artificiale po funksionon në serverët e kompjuterëve në cloud. Nëpërmjet infrastrukturës së resë kompjuterike, kompania mund të shtojë lehtësisht më shumë fuqi kompjuterike për të akomoduar çdo vëllim të rishikimeve të huasë që mund të nevojiten.

Me konfigurimin ekzistues të AI, ata mund të bëjnë 1,000 rishikime kredie në orë. Kjo gjithashtu mund të ndodhë 24×7. Nuk ka kohë pushimi të nevojshme për AI. Nuk ka pushim dreke. Inteligjenca artificiale funksionon gjatë gjithë orës pa asnjë zhurmë për të mbingarkuar. Do të themi se me atë ritëm të përafërt, AI mund të përpunojë afro 9 milionë aplikime për kredi në vit.

Vini re se ne kaluam nga 100 agjentë njerëzorë që mund të bënin 200,000 kredi në vit dhe kaluam shumë herë në numrin shumë të rritur prej 9 milionë rishikimesh në vit nëpërmjet sistemit të AI. Ne kemi rritur në mënyrë dramatike përpunimin e kërkesave tona për kredi. Nuk ka dyshim për këtë.

Bëhuni gati për goditjen që ndoshta do t'ju bëjë të bini nga karrigia.

Supozoni se disa nga agjentët tanë njerëzorë po marrin vendimet e tyre për huadhënien mbi bazën e paragjykimeve të padrejta. Ndoshta disa po u japin faktorëve racor një rol kyç në vendimin e huasë. Ndoshta disa po përdorin gjininë. Të tjerët përdorin moshën. Dhe kështu me radhë.

Nga 200,000 rishikimet vjetore të huave, sa po bëhen nën vështrimin e gabuar të paragjykimeve dhe pabarazive negative? Ndoshta 10% që është rreth 20,000 e kërkesave për kredi. Më keq akoma, supozoni se është 50% e kërkesave për kredi, në të cilin rast ka 100,000 raste vjetore mjaft shqetësuese të vendimeve për kredi të vendosura gabimisht.

Kjo është e keqe. Por ne duhet të shqyrtojmë ende një mundësi edhe më të frikshme.

Supozoni se AI ka një paragjykim të fshehur që përbëhet nga faktorë të tillë si raca, gjinia, mosha dhe të ngjashme. Nëse 10% e analizave vjetore të kredisë i nënshtrohen kësaj papëlqyese, kemi 900,000 mijë kërkesa për kredi që po trajtohen në mënyrë të pahijshme. Kjo është shumë më tepër se çfarë mund të bëjnë agjentët njerëzorë, kryesisht për shkak të aspekteve të volumit. Ata 100 agjentë, nëse të gjithë do të bënin një rishikim të padrejtë, më së shumti mund ta bënin këtë në 200,000 rishikimet vjetore të kredisë. AI mund të bëjë të njëjtën gjë në një shkallë shumë të madhe prej 9,000,000 rishikimeve vjetore.

Yikes!

Ky është vërtet paragjykim i zhytur në AI në një shkallë të jashtëzakonshme.

Kur paragjykimet e pakëndshme futen brenda një sistemi të AI, i njëjti shkallëzim që dukej i dobishëm tani kthehet në kokë dhe bëhet një rezultat shkallëzues jashtëzakonisht mashtrues (dhe shqetësues). Nga njëra anë, inteligjenca artificiale mund të jetë e dobishme për të trajtuar më shumë njerëz që kërkojnë kredi për shtëpi. Në sipërfaqe, kjo duket e jashtëzakonshme AI për të mirë. Ne duhet të përkëdhelim pas shpine për të zgjeruar me sa duket shanset që njerëzit të marrin kreditë e nevojshme. Ndërkohë, nëse AI ka ngulitur paragjykime, shkallëzimi do të jetë një rezultat jashtëzakonisht i kalbur dhe ne e gjejmë veten të zhytur keq në AI për të keqen, në një shkallë vërtet masive.

Shpata proverbiale me dy tehe.

AI mund të rrisë rrënjësisht aksesin në vendimmarrje për ata që kërkojnë shërbimet dhe produktet e dëshiruara. Nuk ka më pengesa në punë të kufizuar nga njerëzit. E jashtëzakonshme! Tehu tjetër i shpatës është se nëse AI përmban të këqija të tilla si pabarazitë e fshehura, po i njëjti shkallëzim masiv do të shpallë atë sjellje të pahijshme në një shkallë të paimagjinueshme. Acaruese, e padrejtë, e turpshme dhe nuk mund të lejojmë që shoqëria të bjerë në një humnerë kaq të shëmtuar.

Kushdo që ka qenë në mëdyshje se pse ne duhet të heqim dorë nga rëndësia e Etikës së AI duhet të kuptojë tani se fenomeni i shkallëzimit të AI është një arsye e mallkuar e rëndësishme për ndjekjen e AI Etike. Le të marrim një moment për të shqyrtuar shkurtimisht disa nga parimet kryesore Etike të AI për të ilustruar atë që duhet të jetë një fokus jetik për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe vendosen në mënyrë që personeli përkatës të zotërojë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurat dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaftueshëm të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar kur kodimi i AI duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Ju lutemi, kini parasysh se i duhet një fshat për të krijuar dhe zhvilluar AI. Për të cilën i gjithë fshati duhet të mbajë parasysh Etikën e AI.

Si funksionon shkallëzimi i paragjykimeve me AI-Steeped

Tani që kam hyrë në tabelën se AI mund të përmbajë paragjykime, ne jemi gati të shqyrtojmë disa nga arsyet pse shkallëzimi i AI është kaq ndërhyrës.

Konsideroni këtë listë kryesore të dhjetë arsyeve themelore:

  1. Përsëritet lehtësisht
  2. Kosto minimale në shkallë
  3. Tepër konsistente
  4. Mungesa e vetë-reflektimit
  5. Bindje e verbër
  6. Nuk e kthen dorën
  7. Marrësi që nuk dyshon
  8. Ka tendencë të mos nxisë provokimin
  9. Aura e rreme e drejtësisë
  10. Vështirë për t'u hedhur poshtë

Unë do të shqyrtoj shkurtimisht secilën nga ato pika thelbësore.

Kur përpiqeni të rriteni me punën njerëzore, gjasat janë që ta bësh këtë do të jetë jashtëzakonisht e ndërlikuar. Ju duhet të gjeni dhe punësoni njerëzit. Ju duhet t'i trajnoni ata për të bërë punën. Ju duhet t'i paguani ato dhe të merrni parasysh dëshirat dhe nevojat njerëzore. Krahasoni këtë me një sistem AI. Ju e zhvilloni dhe e vini në përdorim. Përveç një sasie të caktuar të mirëmbajtjes së vazhdueshme të AI, mund të uleni dhe ta lini të përpunohet pafundësisht.

Kjo do të thotë që AI përsëritet lehtësisht. Ju mund të shtoni më shumë fuqi kompjuterike siç mund të kërkojë detyra dhe vëllimi (nuk jeni duke punësuar ose pushuar). Përdorimi global bëhet me shtypjen e një butoni dhe arrihet nga disponueshmëria në mbarë botën e internetit. Rritja është një kosto minimale në krahasim me të njëjtën gjë me punën njerëzore.

Puna njerëzore është jashtëzakonisht e paqëndrueshme. Kur keni skuadra të mëdha, ju keni një kuti të vërtetë çokollate në të cilën nuk e dini kurrë se çfarë mund të keni në duar. Sistemi i AI ka të ngjarë të jetë shumë i qëndrueshëm. Ai përsërit të njëjtat aktivitete pa pushim, çdo herë duke qenë në thelb të njëjta me të fundit.

Normalisht, ne do të shijonim qëndrueshmërinë e AI. Nëse njerëzit janë të prirur ndaj paragjykimeve, ne gjithmonë do të kemi një pjesë të punës sonë njerëzore që po shkon keq. AI, nëse është thjesht e paanshme në ndërtimin dhe përpjekjet e saj llogaritëse, do të ishte shumë më konsistente. Megjithatë, problemi është se nëse AI ka paragjykime të fshehura, konsistenca tani është jashtëzakonisht e neveritshme. Gjasat janë që sjellja e njëanshme do të kryhet vazhdimisht, pa pushim.

Shpresojmë që njerëzit do të kenë një mendim të vetë-reflektimit dhe ndoshta do ta kapnin veten duke marrë vendime të njëanshme. Nuk po them se të gjithë do ta bënin këtë. Nuk po them gjithashtu se ata që e kapin veten domosdoshmërisht do të korrigjojnë gabimet e tyre. Në çdo rast, të paktën disa njerëz ndonjëherë do ta korrigjonin veten.

AI nuk ka gjasa të ketë ndonjë formë të vetë-reflektimit llogaritës. Kjo do të thotë që AI thjesht vazhdon të bëjë atë që po bën. Me sa duket do të kishte zero shanse që AI të zbulojë se është në kundërshtim me barazinë. Duke u thënë kështu, unë kam përshkruar disa përpjekje për t'u marrë me këtë, si ndërtimi i komponentëve të Etikës së AI brenda AI (shih lidhja këtu) dhe hartimin e AI që monitoron IA të tjera për të dalluar aktivitetet joetike të AI (shih lidhja këtu).

Duke mos pasur çdo lloj vetë-reflektimi, AI ka gjithashtu të ngjarë të ketë bindje në thelb të verbër ndaj çdo gjëje që është udhëzuar të bëjë. Njerëzit mund të mos jenë aq të bindur. Gjasat janë që disa njerëz që po bëjnë një detyrë do të vënë në dyshim nëse ndoshta po udhëhiqen në territorin e pabarazisë. Ata do të priren të refuzojnë komandat joetike ose ndoshta të shkojnë në rrugën e sinjalizuesit (shih mbulimin tim në kjo lidhje këtu). Mos prisni që AI e përditshme bashkëkohore të vërë në dyshim programimin e saj.

Më pas i drejtohemi atyre që përdorin AI. Nëse do të kërkoni një kredi për shtëpi dhe do të flisnit me një njeri, mund të jeni në gatishmëri nëse njeriu po ju jep një tronditje të drejtë. Kur përdorni një sistem AI, shumica e njerëzve duket se janë më pak të dyshimtë. Ata shpesh supozojnë se inteligjenca artificiale është e drejtë dhe për këtë arsye nuk mërziten aq shpejt. Inteligjenca artificiale duket se i qetëson njerëzit në një ekstazë "është thjesht një makinë". Për më tepër, mund të jetë e vështirë të përpiqesh të kundërshtosh AI. Në të kundërt, të protestosh se si u trajtove nga një agjent njerëzor është shumë më e lehtë dhe shumë më e pranuar dhe supozuar si e mundur.

Gjithsesi, IA që është e zhytur në paragjykime ka një qëndrim të pandershëm ndaj njerëzve të zhytur në paragjykime, domethënë në aspektin e aftësisë që AI të vendosë masivisht ato paragjykime në një shkallë gjigante, duke e bërë këtë pa u kapur me lehtësi ose pa pasur konsumatorë. kuptojnë se çfarë po ndodh në mënyrë shqetësuese.

Në këtë pikë të këtij diskutimi, unë do të vë bast se ju dëshironi disa shembuj shtesë që mund të shfaqin enigmën e paragjykimeve të rrëmbyera nga AI në shkallë.

Më vjen mirë që pyete.

Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të inteligjencës artificiale është shfaqja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI ndonjë gjë në lidhje me paragjykimet e mëdha të AI në shkallë, dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si një sqarim, veturat e vërteta që drejtojnë vetveten janë ato që AI e drejton makinën tërësisht më vete dhe nuk ka ndonjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë të vetë-drejtimit në Nivelin 5, të cilën ne as nuk e dimë nëse kjo do të jetë e mundur për të arritur, dhe as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makinat që drejtojnë vetë dhe paragjykimet e AI në shkallë

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Unë besoj se siguron një sasi të mjaftueshme paralajmërimesh për të nënvizuar atë që unë jam gati të lidhem.

Ne jemi të përgatitur tani për të bërë një zhytje të thellë në makinat vetë-drejtuese dhe mundësitë etike të AI që sjellin eksplorimin e paragjykimeve të rrëmbyera nga AI që janë shpallur në një shkallë të gjerë.

Le të përdorim një shembull lehtësisht të drejtpërdrejtë. Një makinë vetë-drejtuese e bazuar në AI është duke u nisur në rrugët e lagjes suaj dhe duket se po lëviz në mënyrë të sigurt. Në fillim, i kishit kushtuar vëmendje të veçantë çdo herë që arrinit t'i hidhnit një sy makinës vetë-drejtuese. Automjeti autonome u dallua me raftin e tij të sensorëve elektronikë që përfshinte kamera video, njësi radari, pajisje LIDAR dhe të ngjashme. Pas shumë javësh të makinës vetë-drejtuese që qarkullonte nëpër komunitetin tuaj, tani mezi e vëreni atë. Për sa ju shqetëson, është thjesht një makinë tjetër në rrugët publike tashmë të ngarkuara.

Që të mos mendoni se është e pamundur ose e pabesueshme të njiheni me shikimin e makinave vetë-drejtuese, kam shkruar shpesh se si vendet që janë brenda fushës së provave të makinave vetë-drejtuese janë mësuar gradualisht të shohin automjete të zbukuruara. shikoni analizën time në kjo lidhje këtu. Shumë nga vendasit përfundimisht u zhvendosën nga një gërvishtje e rrëmbyer në gojë, tek tani duke lëshuar një zhurmë të madhe mërzie për të dëshmuar ato makina që lëviznin vetë.

Ndoshta arsyeja kryesore tani që ata mund të vërejnë automjetet autonome është për shkak të faktorit të acarimit dhe acarimit. Sistemet e drejtimit të inteligjencës artificiale të përdorur nga libri sigurohen që makinat u binden të gjitha kufijve të shpejtësisë dhe rregullave të rrugës. Për shoferët e ethshëm njerëzorë në makinat e tyre tradicionale të drejtuara nga njerëzit, ju nervozoheni në momente kur ngecni pas makinave vetë-drejtuese të bazuara në AI që respektojnë rreptësisht ligjin.

Kjo është diçka me të cilën të gjithë mund të na duhet të mësohemi, me të drejtë ose pa të drejtë.

Kthehu në përrallën tonë.

Rezulton se dy shqetësime të pahijshme fillojnë të lindin në lidhje me makinat vetë-drejtuese të bazuara në AI, të padëmshme dhe përgjithësisht të mirëpritura, veçanërisht:

a. Aty ku inteligjenca artificiale po bredh makinat vetë-drejtuese për të marrë udhëtime, ishte një shqetësim i zëshëm

b. Mënyra se si AI po i trajton këmbësorët në pritje që nuk kanë të drejtë kalimi, po ngrihej si një çështje urgjente

Në fillim, AI po bredhte makinat vetë-drejtuese në të gjithë qytetin. Kushdo që dëshironte të kërkonte një udhëtim në makinën që drejtonte vetë, në thelb kishte një shans të barabartë për të përshëndetur një të tillë. Gradualisht, AI filloi të mbante kryesisht makinat vetë-drejtuese në roaming në vetëm një pjesë të qytetit. Ky seksion ishte një fitues më i madh i parave dhe sistemi i AI ishte programuar për të provuar dhe maksimizuar të ardhurat si pjesë e përdorimit në komunitet.

Anëtarët e komunitetit në pjesët e varfra të qytetit kishin më pak gjasa të ishin në gjendje të udhëtonin nga një makinë vetë-drejtuese. Kjo ishte për shkak se makinat vetë-drejtuese ishin më larg dhe roaming në pjesën me të ardhura më të larta të zonës. Kur një kërkesë vinte nga një pjesë e largët e qytetit, çdo kërkesë nga një vend më i afërt që ka të ngjarë në pjesën "e nderuar" të qytetit do të kishte një përparësi më të lartë. Përfundimisht, disponueshmëria e marrjes së një makine vetë-drejtuese në çdo vend tjetër përveç pjesës më të pasur të qytetit ishte pothuajse e pamundur, në mënyrë shqetësuese për ata që jetonin në ato zona tani të uritura nga burimet.

Ju mund të pohoni se AI pothuajse u ul në një formë të diskriminimit me përfaqësues (gjithashtu i referuar shpesh si diskriminim indirekt). AI nuk ishte programuar për të shmangur ato lagje më të varfra. Në vend të kësaj, ajo "mësoi" ta bënte këtë nëpërmjet përdorimit të ML/DL.

Çështja është se shoferët njerëzorë që ndanin udhëtimin ishin të njohur për të bërë të njëjtën gjë, megjithëse jo domosdoshmërisht ekskluzivisht për shkak të këndit të fitimit të parave. Kishte disa nga shoferët njerëzorë që kishin një paragjykim të pahijshëm për të marrë kalorës në pjesë të caktuara të qytetit. Ky ishte një fenomen disi i njohur dhe qyteti kishte vendosur një qasje monitorimi për të kapur shoferët njerëz që e bënin këtë. Drejtuesit njerëzorë mund të futen në telashe për kryerjen e praktikave të pakëndshme të përzgjedhjes.

Supozohej se AI nuk do të binte kurrë në të njëjtin lloj rëre të gjallë. Nuk u krijua asnjë monitorim i specializuar për të mbajtur gjurmët se ku po shkonin makinat vetë-drejtuese të bazuara në AI. Vetëm pasi anëtarët e komunitetit filluan të ankoheshin, drejtuesit e qytetit e kuptuan se çfarë po ndodhte. Për më shumë rreth këtyre llojeve të çështjeve në mbarë qytetin që do të paraqesin automjetet autonome dhe makinat vetë-drejtuese, shihni mbulimin tim në kjo lidhje këtu dhe i cili përshkruan një studim të udhëhequr nga Harvardi, të cilin unë e kam bërë bashkëautor mbi këtë temë.

Ky shembull i aspekteve roaming të makinave vetë-drejtuese të bazuara në AI ilustron treguesin e mëparshëm se mund të ketë situata që sjellin njerëz me paragjykime të pahijshme, për të cilat janë vendosur kontrolle dhe se AI që zëvendëson ata shoferë njerëz është lënë në kërkim. pa pagesë. Për fat të keq, AI më pas mund të zhytet gradualisht në paragjykime të ngjashme dhe ta bëjë këtë pa parmakë të mjaftueshëm mbrojtës në vend.

Kjo gjithashtu tregon paragjykimet e thelluara të AI në çështjen e shkallës.

Në rastin e shoferëve njerëzorë, mund të kishim disa këtu ose atje që po ushtronin një formë të pabarazisë. Për sistemin e drejtimit të AI, zakonisht është një AI e tillë e unifikuar për një flotë të tërë makinash vetë-drejtuese. Kështu, ne mund të kishim filluar të themi me pesëdhjetë makina vetë-drejtuese në qytet (të gjitha të drejtuara nga i njëjti kod AI) dhe gradualisht të rriteshim në le të themi 500 makina vetë-drejtuese (të gjitha të drejtuara nga i njëjti kod AI). Meqenëse të gjitha ato pesëqind makina vetë-drejtuese drejtohen nga e njëjta AI, ato janë përkatësisht të gjitha subjekt i të njëjtave paragjykime dhe pabarazi të ngulitura brenda AI.

Shkallëzimi na dëmton në këtë drejtim.

Një shembull i dytë përfshin AI që përcakton nëse do të ndalet për këmbësorët që presin që nuk kanë të drejtën e kalimit për të kaluar një rrugë.

Padyshim që keni vozitur dhe keni hasur në këmbësorë që prisnin të kalonin rrugën dhe megjithatë ata nuk kishin të drejtën e kalimit për ta bërë këtë. Kjo do të thoshte se ju kishit diskrecion nëse do të ndalonit dhe t'i linit ata të kalonin. Ju mund të vazhdoni pa i lënë ata të kalojnë dhe gjithsesi të jeni plotësisht brenda rregullave ligjore të drejtimit për ta bërë këtë.

Studimet se si shoferët njerëz vendosin të ndalojnë ose të mos ndalojnë për këmbësorë të tillë kanë sugjeruar që ndonjëherë drejtuesit njerëz e bëjnë zgjedhjen bazuar në paragjykime të padëshiruara. Një shofer njerëzor mund të shikojë këmbësorin dhe të zgjedhë të mos ndalojë, edhe pse ata do të kishin ndaluar nëse këmbësori do të kishte një pamje të ndryshme, si për shembull në bazë të racës ose gjinisë. Unë e kam ekzaminuar këtë në lidhja këtu.

Imagjinoni që makinat vetë-drejtuese të bazuara në AI janë të programuara për t'u marrë me pyetjen nëse duhet të ndalojnë apo jo për këmbësorët që nuk kanë të drejtë kalimi. Ja se si zhvilluesit e AI vendosën ta programojnë këtë detyrë. Ata mblodhën të dhëna nga video kamerat e qytetit që janë vendosur në të gjithë qytetin. Të dhënat tregojnë shoferë njerëz që ndalojnë për këmbësorët që nuk kanë të drejtë përparësie dhe drejtues njerëz që nuk ndalojnë. E gjitha është mbledhur në një grup të madh të dhënash.

Duke përdorur Machine Learning dhe Deep Learning, të dhënat modelohen në mënyrë llogaritëse. Sistemi i drejtimit të inteligjencës artificiale përdor më pas këtë model për të vendosur se kur të ndalet ose jo. Në përgjithësi, ideja është se çfarëdo që përbëhet nga zakonet lokale, kjo është mënyra se si AI po drejton makinën vetë-drejtuese.

Për habinë e drejtuesve të qytetit dhe banorëve, inteligjenca artificiale po zgjodhi dukshëm të ndalonte ose të mos ndalonte bazuar në pamjen e këmbësorit, duke përfshirë racën dhe gjininë e tyre. Sensorët e makinës vetë-drejtuese do të skanojnë këmbësorët në pritje, do t'i ushqejnë këto të dhëna në modelin ML/DL dhe modeli do të lëshojë në AI nëse duhet të ndalojë apo të vazhdojë. Fatkeqësisht, qyteti tashmë kishte shumë paragjykime njerëzore në këtë drejtim dhe AI ​​tani po imitonte të njëjtën gjë.

Ky shembull ilustron se një sistem AI thjesht mund të kopjojë paragjykimet tashmë ekzistuese të padëshiruara të njerëzve. Për më tepër, ai e bën këtë në shkallë. Çdo shofer njerëzor mund të jetë mësuar ndonjëherë të bëjë këtë formë të pakëndshme përzgjedhjeje ose ndoshta të jetë zgjedhur personalisht për ta bërë këtë, por shanset janë që pjesa më e madhe e shoferëve njerëz ndoshta të mos e bëjnë këtë në masë.

Në kontrast të fortë, sistemi i drejtimit të AI që përdoret për të drejtuar makina vetë-drejtuese ka të ngjarë të kryejë në mënyrë të neveritshme në mënyrë të vazhdueshme dhe të sigurt paragjykimet e rrjedhura.

Përfundim

Ka shumë mënyra për të provuar dhe shmangur krijimin e AI që ka paragjykime të pakëndshme ose që me kalimin e kohës mbledh paragjykime. Sa më shumë që të jetë e mundur, ideja është të kapni problemet përpara se të shkoni në pajisje të larta dhe të ngriheni për shkallëzim. Shpresojmë që paragjykimet të mos dalin nga dera, si të thuash.

Supozoni se në një mënyrë ose në një tjetër paragjykime do të shfaqen në AI. Pasi të jeni vendosur në një shkallë masive me AI, nuk mund të bëni thjesht një nga ato nocionet e teknologjisë të shpallura shpesh "zjarr dhe harro". Ju duhet të mbani me zell atë që po bën AI dhe të kërkoni të zbuloni çdo paragjykim të pakëndshëm që duhet korrigjuar.

Siç u theksua më herët, një qasje përfshin sigurimin që zhvilluesit e AI janë të vetëdijshëm për Etikën e AI dhe në këtë mënyrë i nxisin ata të jenë të vendosur për të programuar AI për të shmangur këto çështje. Një rrugë tjetër konsiston në të paturit e vetë-monitorimit të AI për sjelljet joetike dhe/ose të kesh një pjesë tjetër të AI që monitoron sisteme të tjera të AI për sjellje potencialisht joetike. Unë kam mbuluar shumë zgjidhje të tjera të mundshme në shkrimet e mia.

Një mendim i fundit për momentin. Pasi e kemi nisur këtë diskutim me një citim të Platonit, mund të jetë e përshtatshme ta mbyllim fjalimin me një thënie tjetër mendjemprehtë të Platonit.

Platoni tha se nuk ka të keqe të përsëritet një gjë e mirë.

Lehtësia për të shkuar në shkallë me AI është sigurisht një mjet i zbatueshëm për të arritur një aspiratë të tillë optimiste kur AI është i AI për të mirë shumëllojshmëri. Na pëlqen të përsërisim një gjë të mirë. Kur AI është AI për të keqen dhe të mbushur me paragjykime dhe pabarazi të pahijshme, ne mund të mbështetemi në vërejtjet e Platonit dhe të themi se ka shumë dëm në përsëritjen e një gjëje të keqe.

Le të dëgjojmë me kujdes fjalët e mençura të Platonit dhe të krijojmë AI tonë në përputhje me rrethanat.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global-scale-specially-fueled-via-looming-fully-autonomous-systems/