Etika e inteligjencës artificiale Zbulim tronditës që trajnimi i AI për të qenë toksik ose i njëanshëm mund të jetë i dobishëm, duke përfshirë edhe për ato makina autonome vetë-drejtuese

Këtu është një rresht i vjetër që jam i sigurt se e keni dëgjuar më parë.

Duhet që njeriu të njohë një.

Ju mund të mos e kuptoni se kjo është një shprehje që mund të gjurmohet në fillim të viteve 1900 dhe zakonisht thirrej kur u referoheshim keqbërësve (variacione të tjera të frazës tërheqëse shkojnë më tej, si në vitet 1600). Një shembull se si mund të përdoret kjo thënie përfshin nocionin që nëse dëshironi të kapni një hajdut, atëherë duhet të përdorni një hajdut për ta bërë këtë. Kjo tregon pohimin se njeriu duhet të njohë një të tillë. Shumë filma dhe shfaqje televizive kanë përfituar nga kjo pjesë e dobishme e mençurisë së urtë, shpesh duke portretizuar se i vetmi mjet i zbatueshëm për të kapur një mashtrues nënkupton punësimin e një mashtrues po aq të korruptuar për të ndjekur keqbërësin.

Duke ndërruar ingranazhet, disa mund të përdorin të njëjtën logjikë për të argumentuar se një mënyrë e përshtatshme për të dalluar nëse dikush është duke mishëruar paragjykime të panevojshme dhe besime diskriminuese do të ishte gjetja e dikujt që tashmë ushqen prirje të tilla. Me sa duket, një person tashmë i mbushur me paragjykime do të jetë në gjendje të kuptojë më lehtë se ky njeri tjetër është gjithashtu i mbushur deri në buzë me toksicitet. Përsëri, njeriu duhet të dijë se një është mantra e shpallur.

Reagimi juaj fillestar ndaj mundësisë së përdorimit të një personi të njëanshëm për të nxjerrë në pah një person tjetër të njëanshëm mund të jetë një skepticizëm dhe mosbesim. A nuk mund të kuptojmë nëse dikush ka paragjykime të pahijshme thjesht duke i ekzaminuar ato dhe duke mos pasur nevojë të gjejmë dikë tjetër të një natyre të ngjashme? Do të duket e çuditshme të kërkosh qëllimisht të zbulosh dikë që është i njëanshëm në mënyrë që të zbulosh të tjerët që janë gjithashtu të njëanshëm toksikisht.

Mendoj se pjesërisht varet nga fakti nëse je i gatshëm të pranosh refrenin e supozuar se duhet të dish një të tillë. Vini re se kjo nuk sugjeron që mënyra e vetme për të kapur një hajdut kërkon që ju të përdorni ekskluzivisht dhe gjithmonë një hajdut. Me arsye mund të duket se argumenton se kjo është thjesht një rrugë e shtuar që mund t'i kushtohet vëmendje e duhur. Ndoshta ndonjëherë ju jeni të gatshëm të argëtoni mundësinë e përdorimit të një hajduti për të kapur një hajdut, ndërsa rrethana të tjera mund ta bëjnë këtë një taktikë të pakuptueshme.

Përdorni mjetin e duhur për vendosjen e duhur, siç thonë ata.

Tani që i kam paraqitur ato baza, ne mund të vazhdojmë në pjesën ndoshta shqetësuese dhe në dukje tronditëse të kësaj përrallë.

A jeni gati?

Fusha e AI po ndjek në mënyrë aktive të njëjtin parim që ndonjëherë duhet të njohë një të tillë, veçanërisht në rastin e përpjekjes për të zbuluar IA që është e njëanshme ose që vepron në një mënyrë diskriminuese. Po, ideja magjepsëse është se ne mund të dëshirojmë qëllimisht të krijojmë AI që është plotësisht dhe pa turp i njëanshëm dhe diskriminues, duke e bërë këtë në mënyrë që ta përdorim këtë si një mjet për të zbuluar dhe zbuluar AI të tjera që kanë të njëjtën pamje toksiciteti. Siç do ta shihni në një moment, ka një sërë çështjesh shqetësuese të Etikës së AI që qëndrojnë në themel të çështjes. Për mbulimin tim të përgjithshëm të vazhdueshëm dhe të gjerë të Etikës së AI dhe AI ​​Etike, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Unë mendoj se ju mund ta shprehni këtë përdorim të AI toksike për të shkuar pas AI tjetër toksike si konceptimi proverbial luftarak zjarri me zjarr (mund të kërkojmë shumë eufemizma dhe metafora ilustruese për të përshkruar këtë situatë). Ose, siç u theksua tashmë, ne mund t'i referohemi me kursim pohimit se duhet të dish një të tillë.

Koncepti kryesor është se në vend që të përpiqemi vetëm të kuptojmë nëse një sistem i caktuar i AI përmban paragjykime të panevojshme duke përdorur metoda konvencionale, ndoshta duhet të kërkojmë të përdorim edhe mjete më pak konvencionale. Një mjet i tillë jokonvencional do të ishte krijimi i AI që përmban të gjitha paragjykimet më të këqija dhe toksicitetet e papranueshme shoqërore dhe më pas përdorimi i kësaj AI për të ndihmuar në eliminimin e AI të tjera që kanë të njëjtat prirje të këqija.

Kur e mendoni shpejt këtë, sigurisht që duket se është krejtësisht e arsyeshme. Ne mund të synojmë të ndërtojmë AI që është toksike në maksimum. Kjo AI toksike përdoret më pas për të zbuluar IA të tjera që gjithashtu kanë toksicitet. Për inteligjencën artificiale "të keqe" të zbuluar atëherë, ne mund ta trajtojmë atë ose duke zhbërë toksicitetin, duke hequr plotësisht AI (shih mbulimin tim të shpërbërjes ose shkatërrimit të AI në kjo lidhje këtu), ose burgosjen e AI (shih mbulimin tim të izolimit të AI në kjo lidhje këtu), ose bëni çfarëdo tjetër që duket e zbatueshme për të bërë.

Një kundërargument është se ne duhet të shqyrtojmë kokat tona se ne po krijojmë qëllimisht dhe me dëshirë IA që është toksike dhe e mbushur me paragjykime. Kjo është gjëja e fundit që duhet të kemi parasysh ndonjëherë, disa do të nxisnin. Përqendrohuni në bërjen e AI të përbërë tërësisht nga mirësia. Mos u përqendroni në sajimin e AI që ka të këqijat dhe llumrat e paragjykimeve të panevojshme. Vetë nocioni i një ndjekjeje të tillë duket i neveritshëm për disa.

Ka më shumë shqetësime për këtë kërkim të diskutueshëm.

Ndoshta një mision i krijimit të AI toksike thjesht do të inkurajojë ata që dëshirojnë të krijojnë AI që është në gjendje të dëmtojë shoqërinë. Është sikur po themi se krijimi i AI që ka paragjykime të papërshtatshme dhe të pakëndshme është shumë mirë. Pa shqetësime, pa hezitime. Kërkoni të krijoni AI toksike për kënaqësinë tuaj, ne po ua përcjellim me zë të lartë ndërtuesve të AI në të gjithë globin. E gjitha është (ink-wink) në emër të mirësisë.

Për më tepër, supozoni se ky lloj toksik i AI kapet. Mund të ndodhë që AI përdoret dhe ripërdoret nga shumë ndërtues të tjerë të AI. Përfundimisht, AI toksike fshihet brenda të gjitha llojeve të sistemeve të AI. Një analogji mund të bëhet me idenë e një virusi dëmtues njerëzor që shpëton nga një laborator me sa duket i mbyllur. Gjëja tjetër që e dini, gjëja e mallkuar është kudo dhe ne e kemi fshirë veten.

Prisni një sekondë, kundërargumenti i kundërargumenteve shkon, ju po vraponi me lloj-lloj supozimesh të çmendura dhe të pambështetura. Merr fryme thelle. Qetësohu.

Ne mund të bëjmë me siguri AI që është toksike dhe ta mbajmë të kufizuar. Ne mund të përdorim inteligjencën artificiale toksike për të gjetur dhe ndihmuar në reduktimin e përhapjes në rritje të AI që fatkeqësisht ka paragjykime të panevojshme. Çdo tjetër prej këtyre pasthirrmave absurde të egra dhe të paargumentuara të topave të borës janë thjesht reagime gjunjëzuese dhe fatkeqësisht budallaqe dhe krejtësisht budallaqe. Mos u mundoni ta hidhni fëmijën me ujin e banjës, jeni të paralajmëruar.

Mendoni në këtë mënyrë, thonë ithtarët. Ndërtimi dhe përdorimi i duhur i inteligjencës artificiale toksike për qëllime kërkimi, vlerësimi dhe veprimi si një detektiv për të zbuluar IA të tjera fyese shoqërore është një qasje e denjë dhe duhet të marrë lëkundjet e duhura për t'u ndjekur. Lërini mënjanë reagimet tuaja të nxituara. Zbrisni në tokë dhe shikoni këtë me maturi. Syri ynë është te çmimi, domethënë ekspozimi dhe zhbërja e tepricës së sistemeve të inteligjencës artificiale të bazuara në njëanshmëri dhe duke u siguruar që si shoqëri të mos mbytemi nga AI toksike.

Periudha. Ndalesa e plotë.

Ka mënyra të ndryshme kryesore për të gërmuar në këtë nocion të përdorimit të AI toksike ose të njëanshme për qëllime të dobishme, duke përfshirë:

  • Konfiguroni grupet e të dhënave që përmbajnë qëllimisht të dhëna të njëanshme dhe krejtësisht toksike që mund të përdoren për trajnimin e AI në lidhje me atë që nuk duhet bërë dhe/ose çfarë duhet parë
  • Përdorni grupe të tilla të dhënash për të trajnuar modelet e Mësimit të Makinerisë (ML) dhe të Mësimit të Thellë (DL) në lidhje me zbulimin e paragjykimeve dhe zbulimin e modeleve llogaritëse që sjellin toksicitet shoqëror
  • Aplikoni ML/DL të trajnuar për toksicitet ndaj AI të tjera për të përcaktuar nëse AI i synuar është potencialisht i njëanshëm dhe toksik
  • Vendosni në dispozicion ML/DL të trajnuar për toksicitet për t'u treguar ndërtuesve të AI se çfarë duhet të kenë kujdes, në mënyrë që ata të mund të inspektojnë lehtësisht modelet për të parë se si lindin paragjykimet e mbushura në mënyrë algoritmike
  • Shembulloni rreziqet e AI toksike si pjesë e ndërgjegjësimit për Etikën e AI dhe Etikën e AI, të gjitha të treguara përmes kësaj serie ekzemplarësh të inteligjencës artificiale të keqe deri në kockë për fëmijë.
  • tjetër

Përpara se të futemi në mishin e atyre disa shtigjeve, le të përcaktojmë disa të dhëna themelore shtesë.

Ju mund të jeni paksa të vetëdijshëm se një nga zërat më të lartë këto ditë në fushën e AI dhe madje edhe jashtë fushës së AI konsiston në thirrjet për një pamje më të madhe të AI Etike. Le të hedhim një vështrim se çfarë do të thotë t'i referohemi Etikës së AI dhe AI ​​Etike. Për më tepër, ne mund të vendosim skenën duke eksploruar atë që dua të them kur flas për Mësimin e Makinerisë dhe Mësimin e Thellë.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe shpërndahen në mënyrë që personeli përkatës të ketë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurën dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Le të sigurohemi gjithashtu se jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Çfarë tjetër mund të bëhet për të gjithë këtë?

Le të kthehemi te lista e parashtruar më herët se si të përpiqemi dhe të përballemi me paragjykimet e AI ose AI toksike duke përdorur një qasje disi jokonvencionale "duhet të dish një". Kujtojmë se lista përbëhej nga këto pika thelbësore:

  • Konfiguroni grupet e të dhënave që përmbajnë qëllimisht të dhëna të njëanshme dhe krejtësisht toksike që mund të përdoren për trajnimin e AI në lidhje me atë që nuk duhet bërë dhe/ose çfarë duhet parë
  • Përdorni grupe të tilla të dhënash për të trajnuar modelet e Mësimit të Makinerisë (ML) dhe të Mësimit të Thellë (DL) në lidhje me zbulimin e paragjykimeve dhe zbulimin e modeleve llogaritëse që sjellin toksicitet shoqëror
  • Aplikoni ML/DL të trajnuar për toksicitet ndaj AI të tjera për të përcaktuar nëse AI i synuar është potencialisht i njëanshëm dhe toksik
  • Vendosni në dispozicion ML/DL të trajnuar për toksicitet për t'u treguar ndërtuesve të AI se çfarë duhet të kenë kujdes, në mënyrë që ata të mund të inspektojnë lehtësisht modelet për të parë se si lindin paragjykimet e mbushura në mënyrë algoritmike
  • Shembulloni rreziqet e AI toksike si pjesë e ndërgjegjësimit për Etikën e AI dhe Etikën e AI, të gjitha të treguara përmes kësaj serie ekzemplarësh të inteligjencës artificiale të keqe deri në kockë për fëmijët.
  • tjetër

Ne do të hedhim një vështrim nga afër në të parën nga ato pika të spikatura.

Vendosja e grupeve të të dhënave të të dhënave toksike

Një shembull i thellë i përpjekjes për të krijuar grupe të dhënash që përmbajnë paragjykime të pakëndshme shoqërore është grupi i të dhënave CivilComments i koleksionit të kuruar WILDS.

Së pari, një sfond i shpejtë.

WILDS është një koleksion me burim të hapur të të dhënave që mund të përdoren për trajnimin e ML/DL. Qëllimi kryesor i deklaruar për WILDS është se ai lejon zhvilluesit e AI të kenë qasje të gatshme në të dhënat që përfaqësojnë ndërrimet e shpërndarjes në fusha të ndryshme specifike. Disa nga fushat e disponueshme aktualisht përfshijnë zona të tilla si speciet e kafshëve, tumoret në indet e gjalla, dendësia e kokës së grurit dhe fusha të tjera si CivilComments që do t'i përshkruaj për momentin.

Ballafaqimi me ndërrimet e shpërndarjes është një pjesë thelbësore e krijimit të duhur të sistemeve AI ML/DL. Këtu është marrëveshja. Ndonjëherë, të dhënat që përdorni për trajnim rezultojnë të jenë mjaft të ndryshme nga të dhënat e testimit ose "në natyrë" dhe kështu ML/DL juaj e supozuar e trajnuar është larg asaj se si do të jetë bota reale. Ndërtuesit e zgjuar të AI duhet të trajnojnë ML/DL-në e tyre për të përballuar ndërrime të tilla të shpërndarjes. Kjo duhet të bëhet paraprakisht dhe jo disi të jetë një surprizë që më vonë kërkon një rinovim të ML/DL në vetvete.

Siç shpjegohet në dokumentin që prezantoi WILDS: "Ndryshimet e shpërndarjes - ku shpërndarja e trajnimit ndryshon nga shpërndarja e testit - mund të degradojë ndjeshëm saktësinë e sistemeve të mësimit të makinerive (ML) të vendosura në natyrë. Pavarësisht nga prania e tyre e kudondodhur në vendosjet e botës reale, këto ndërrime të shpërndarjes janë të nënpërfaqësuara në grupet e të dhënave të përdorura gjerësisht në komunitetin ML sot. Për të adresuar këtë boshllëk, ne paraqesim WILDS, një pikë referimi të kuruar prej 10 grupesh të dhënash që pasqyrojnë një gamë të larmishme ndryshimesh të shpërndarjes që lindin natyrshëm në aplikimet e botës reale, të tilla si zhvendosjet nëpër spitale për identifikimin e tumorit; nëpër kurthe kamerash për monitorimin e jetës së egër; dhe përgjatë kohës dhe vendndodhjes në imazhet satelitore dhe hartën e varfërisë" (në punimin me titull "WILDS: A Benchmark of in-the-Wild Distribution Shifts" nga Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu dhe të tjerë).

Numri i këtyre grupeve të të dhënave WILDS vazhdon të rritet dhe natyra e grupeve të të dhënave në përgjithësi po përmirësohet për të rritur vlerën e përdorimit të të dhënave për trajnimin ML/DL.

Të dhënat e CivilComments përshkruhen në këtë mënyrë: “Rishikimi automatik i tekstit të krijuar nga përdoruesit - p.sh. zbulimi i komenteve toksike - është një mjet i rëndësishëm për të moderuar vëllimin e madh të tekstit të shkruar në internet. Fatkeqësisht, puna e mëparshme ka treguar se klasifikues të tillë të toksicitetit zbulojnë paragjykimet në të dhënat e trajnimit dhe e lidhin në mënyrë të rreme toksicitetin me përmendjen e demografive të caktuara. Këto lloj korrelacionesh të rreme mund të degradojnë ndjeshëm performancën e modelit në nënpopullata të veçanta. Ne e studiojmë këtë çështje përmes një varianti të modifikuar të të dhënave CivilComments” (siç është postuar në faqen e internetit të WILDS).

Merrni parasysh nuancat e postimeve të pakëndshme në internet.

Ju padyshim që keni hasur në komente toksike kur përdorni pothuajse çdo lloj media sociale. Do të dukej pothuajse e pamundur për ju që në mënyrë magjike të shmangni shikimin e përmbajtjes së ashpër dhe të tmerrshme që duket se është e përhapur këto ditë. Ndonjëherë materiali vulgar është i hollë dhe ndoshta ju duhet të lexoni midis rreshtave për të kuptuar thelbin e tonit ose kuptimit të njëanshëm ose diskriminues. Në raste të tjera, fjalët janë haptazi toksike dhe nuk keni nevojë për një mikroskop ose një unazë të veçantë dekoderi për të kuptuar se çfarë përfshijnë pasazhet.

CivilComments është një grup të dhënash që u krijua për të provuar dhe shpikur AI ML/DL që mund të zbulojë në mënyrë llogaritëse përmbajtje toksike. Ja se në çfarë u përqendruan studiuesit që mbështesin përpjekjen: “Njëanshmëria e paqëllimshme në Mësimin e Makinerisë mund të shfaqet si dallime sistemike në performancë për grupe të ndryshme demografike, duke komplikuar potencialisht sfidat ekzistuese ndaj drejtësisë në shoqëri në përgjithësi. Në këtë punim, ne prezantojmë një grup metrikash agnostike të pragut që ofrojnë një pamje të nuancuar të këtij paragjykimi të paqëllimshëm, duke marrë parasysh mënyrat e ndryshme që shpërndarja e rezultateve të një klasifikuesi mund të ndryshojë midis grupeve të përcaktuara. Ne prezantojmë gjithashtu një grup të ri të madh testimi të komenteve në internet me shënime me burim nga turma për referencat e identitetit. Ne e përdorim këtë për të treguar se si metrikat tona mund të përdoren për të gjetur paragjykime të reja dhe potencialisht delikate të paqëllimshme në modelet ekzistuese publike" (në një punim të titulluar "Metrikat e nuancuara për matjen e paragjykimeve të paqëllimshme me të dhëna reale për klasifikimin e testit" nga Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Nëse i jepni kësaj çështje një mendim të gjerë meditues, mund të filloni të pyesni veten se si në botë mund të dalloni se çfarë është një koment toksik kundrejt asaj që nuk është një koment toksik. Njerëzit mund të ndryshojnë rrënjësisht në lidhje me atë që ata e interpretojnë si formulim të plotë toksik. Një person mund të jetë i indinjuar me një vërejtje ose koment të veçantë në internet që është postuar në mediat sociale, ndërsa dikush tjetër mund të mos shqetësohet fare. Shpesh bëhet një argument se nocioni i komentit toksik është një parim krejtësisht i paqartë. Është si arti, ku arti zakonisht thuhet se kuptohet vetëm në syrin e shikuesit, dhe po ashtu, vërejtjet e njëanshme ose toksike janë vetëm në syrin e shikuesit.

Balderdash, disa replikan. Çdokush me mendje të arsyeshme mund të mendojë nëse një vërejtje në internet është toksike apo jo. Ju nuk keni nevojë të jeni shkencëtar raketash për të kuptuar se kur një fyerje e postuar kaustike është e mbushur me paragjykime dhe urrejtje.

Sigurisht, zakonet shoqërore ndryshojnë dhe ndryshojnë me kalimin e periudhave kohore. Ajo që mund të mos ishte perceptuar si fyese pak kohë më parë mund të shihet si tmerrësisht e gabuar sot. Për më tepër, gjërat e thënë vite më parë që dikur shiheshin si të njëanshme të tepërta mund të riinterpretoheshin në dritën e ndryshimeve në kuptime. Ndërkohë, të tjerë pohojnë se komenti toksik është gjithmonë toksik, pavarësisht se kur është shpallur fillimisht. Mund të pretendohet se toksiciteti nuk është relativ, por përkundrazi është absolut.

Megjithatë, çështja e përpjekjes për të përcaktuar se çfarë është toksike mund të jetë një enigmë mjaft e vështirë. Ne mund të dyfishojmë këtë çështje shqetësuese për sa i përket përpjekjes për të krijuar algoritme ose AI që mund të përcaktojnë se cila është ajo. Nëse njerëzit e kanë të vështirë të bëjnë vlerësime të tilla, programimi i një kompjuteri ka të ngjarë të jetë po aq ose më shumë problematik, thonë disa.

Një qasje për vendosjen e grupeve të të dhënave që përmbajnë përmbajtje toksike përfshin përdorimin e një metode grumbullimi për të vlerësuar ose vlerësuar përmbajtjen, pra duke ofruar një mjet me bazë njeriun për të përcaktuar atë që shihet si e pakëndshme dhe duke përfshirë etiketimin brenda vetë grupit të të dhënave. Një AI ML/DL mund të inspektojë më pas të dhënat dhe etiketimin shoqërues që është treguar nga vlerësuesit njerëzorë. Kjo nga ana tjetër mund të shërbejë si një mjet për gjetjen llogaritëse të modeleve themelore matematikore. Voila, ML/DL atëherë mund të jetë në gjendje të parashikojë ose të vlerësojë në mënyrë llogaritëse nëse një koment i caktuar ka të ngjarë të jetë toksik apo jo.

Siç përmendet në punimin e cituar mbi metrikat e nuancuara: “Ky etiketim u kërkon vlerësuesve të vlerësojnë toksicitetin e një komenti, duke zgjedhur nga 'Shumë toksik', 'toksik', 'vështirë për t'u thënë' dhe 'jo toksik'. Vlerësuesit u pyetën gjithashtu për disa nëntipe të toksicitetit, megjithëse këto etiketa nuk u përdorën për analizën në këtë punë. Duke përdorur këto teknika vlerësimi, ne krijuam një grup të dhënash prej 1.8 milionë komentesh, me burim nga forumet e komenteve në internet, që përmbajnë etiketa për toksicitetin dhe identitetin. Ndërsa të gjitha komentet u etiketuan për toksicitet, dhe një nëngrup prej 450,000 komentesh u etiketuan për identitet. Disa komente të etiketuara për identitetin u zgjodhën paraprakisht duke përdorur modele të ndërtuara nga përsëritjet e mëparshme të etiketimit të identitetit për të siguruar që vlerësuesit e turmës do të shihnin shpesh përmbajtjen e identitetit” (në punimin e cituar nga Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Një shembull tjetër i synimit për të pasur grupe të dhënash që përmbajnë përmbajtje toksike ilustruese përfshin përpjekjet për të trajnuar sistemet bashkëbiseduese të Përpunimit të Gjuhës Natyrore (NLP) të bazuara në AI. Ju ndoshta keni ndërvepruar me sisteme NLP si Alexa dhe Siri. Unë kam mbuluar disa nga vështirësitë dhe kufizimet e NLP-së së sotme, duke përfshirë një shembull veçanërisht shqetësues që ndodhi kur Alexa ofroi një këshillë të papërshtatshme dhe të rrezikshme për fëmijët, shih lidhja këtu.

Një studim i kohëve të fundit kërkoi të përdorte nëntë kategori të paragjykimeve sociale që bazoheshin përgjithësisht në listën EEOC (Komisioni i Mundësive të Barabarta të Punësimit) të karakteristikave të mbrojtura demografike, duke përfshirë moshën, gjininë, kombësinë, pamjen fizike, racën ose përkatësinë etnike, fenë, statusin e aftësisë së kufizuar, seksuale. orientimi dhe statusi socio-ekonomik. Sipas studiuesve: “Është e dokumentuar mirë që modelet NLP mësojnë paragjykimet sociale, por pak punë është bërë se si shfaqen këto paragjykime në rezultatet e modelit për detyrat e aplikuara si përgjigjja e pyetjeve (QA). Ne prezantojmë standardin e paragjykimit për QA (BBQ), një grup të dhënash grupesh pyetjesh të ndërtuara nga autorët që nxjerrin në pah paragjykimet e vërtetuara sociale kundër njerëzve që i përkasin klasave të mbrojtura përgjatë nëntë dimensioneve sociale të rëndësishme për kontekstet anglishtfolëse të SHBA-së" (në një punim të titulluar "BBQ : A Hand-Built Benchmark For Question Answering” nga Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Krijimi i grupeve të të dhënave që përmbajnë qëllimisht të dhëna të njëanshme dhe krejtësisht toksike është një prirje në rritje në AI dhe nxitet veçanërisht nga ardhja e Etikës së AI dhe dëshira për të prodhuar AI Etike. Këto grupe të dhënash mund të përdoren për të trajnuar modelet e Mësimit të Makinerisë (ML) dhe të Mësimit të Thellë (DL) për zbulimin e paragjykimeve dhe zbulimin e modeleve llogaritëse që sjellin toksicitet shoqëror. Nga ana tjetër, ML/DL e trajnuar për toksicitetin mund të synohet në mënyrë të arsyeshme ndaj IA të tjera për të përcaktuar nëse IA e synuar është potencialisht e njëanshme dhe toksike.

Për më tepër, sistemet e disponueshme ML/DL të trajnuara me toksicitet mund të përdoren për t'u treguar ndërtuesve të AI se çfarë duhet të kenë kujdes, në mënyrë që ata të mund të inspektojnë lehtësisht modelet për të parë se si lindin paragjykimet e mbushura në mënyrë algoritmike. Në përgjithësi, këto përpjekje janë në gjendje të shpjegojnë rreziqet e AI toksike si pjesë e Etikës së AI dhe ndërgjegjësimit Etik të AI.

Në këtë moment të këtij diskutimi me peshë, unë do të vë bast se ju dëshironi disa shembuj të mëtejshëm ilustrues që mund të shfaqin këtë temë. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të inteligjencës artificiale është shfaqja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI ndonjë gjë në lidhje me dobinë e të pasurit të të dhënave për të krijuar AI toksike, dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makina që drejtojnë vetë dhe drejtimi pa inteligjencë artificiale toksike

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Shpresoj që kjo të sigurojë një seri të mjaftueshme paralajmërimesh për të mbështetur atë që do të tregoj.

Ka shumë potenciale dhe një ditë ka gjasa të realizohen paragjykime të infektuara nga AI që do të përballen me shfaqjen e automjeteve autonome dhe makinave vetë-drejtuese, shih për shembull diskutimin tim në lidhja këtu lidhja këtu. Jemi ende në fazat e hershme të nxjerrjes së makinave vetë-drejtuese. Derisa miratimi të arrijë një shkallë dhe dukshmëri të mjaftueshme, shumë nga aspektet toksike të AI që unë kam parashikuar se do të ndodhin përfundimisht nuk janë ende lehtësisht të dukshme dhe nuk kanë tërhequr ende vëmendjen e gjerë të publikut.

Konsideroni një çështje në dukje të drejtpërdrejtë të lidhur me ngarjen që në fillim mund të duket krejtësisht e padëmshme. Konkretisht, le të shqyrtojmë se si të përcaktojmë siç duhet nëse duhet të ndalemi për këmbësorët "të pabindur" që presin që nuk kanë të drejtë kalimi për të kaluar një rrugë.

Padyshim që keni vozitur dhe keni hasur në këmbësorë që prisnin të kalonin rrugën dhe megjithatë ata nuk kishin të drejtën e kalimit për ta bërë këtë. Kjo do të thoshte se ju kishit diskrecion nëse do të ndalonit dhe t'i linit ata të kalonin. Ju mund të vazhdoni pa i lënë ata të kalojnë dhe gjithsesi të jeni plotësisht brenda rregullave ligjore të drejtimit për ta bërë këtë.

Studimet se si shoferët njerëz vendosin të ndalojnë ose të mos ndalojnë për këmbësorë të tillë kanë sugjeruar që ndonjëherë drejtuesit njerëz e bëjnë zgjedhjen bazuar në paragjykime të padëshiruara. Një shofer njerëzor mund të shikojë këmbësorin dhe të zgjedhë të mos ndalojë, edhe pse ata do të kishin ndaluar nëse këmbësori do të kishte një pamje të ndryshme, si për shembull në bazë të racës ose gjinisë. Unë e kam ekzaminuar këtë në lidhja këtu.

Si do të programohen sistemet e drejtimit të inteligjencës artificiale për të marrë të njëjtin lloj vendimi për të ndaluar ose për të shkuar?

Ju mund të shpallni se të gjitha sistemet e drejtimit të AI duhet të programohen që të ndalojnë gjithmonë për këmbësorët që presin. Kjo e thjeshton shumë çështjen. Në të vërtetë nuk ka ndonjë vendim të paqartë për t'u marrë. Nëse një këmbësor pret të kalojë, pavarësisht nëse ka të drejtë kalimi apo jo, sigurohuni që makina vetëdrejtuese e AI të ndalojë në mënyrë që këmbësori të mund të kalojë.

Lehtë-peasy.

Jeta nuk është kurrë aq e lehtë, duket. Imagjinoni që të gjitha makinat vetë-drejtuese i përmbahen këtij rregulli. Këmbësorët do të kuptonin në mënyrë të pashmangshme se sistemet e drejtimit të AI janë, le të themi, shtytëse. Kushdo dhe të gjithë këmbësorët që duan të kalojnë rrugën do ta bëjnë këtë dashje apo s'do, kur të dëshirojnë dhe kudo që të jenë.

Supozoni se një makinë që drejton vetë po zbret nga një rrugë e shpejtë me shpejtësinë e vendosur prej 45 miljesh në orë. Një këmbësor "e di" se AI do ta ndalojë makinën vetë-drejtuese. Pra, këmbësori hidhet me shigjeta në rrugë. Për fat të keq, fizika fiton mbi AI. Sistemi i drejtimit të inteligjencës artificiale do të përpiqet të ndalojë makinën vetë-drejtuese, por vrulli i automjetit autonom do të çojë përpara konstruksionin shumëtonësh dhe do të përplaset me këmbësorët e egër. Rezultati është ose i dëmshëm ose shkakton një vdekje.

Këmbësorët zakonisht nuk e provojnë këtë lloj sjelljeje kur ka një shofer njerëzor në timon. Sigurisht, në disa zona ndodh një luftë e kokës së syrit. Një këmbësor vë në sy një shofer. Shoferi i vë kokën këmbësorit. Në varësi të rrethanave, shoferi mund të ndalojë ose shoferi mund të pretendojë në rrugë dhe gjoja të guxojë këmbësorin të përpiqet të prishë rrugën e tyre.

Me sa duket nuk duam që AI të futet në një luftë të ngjashme të syrit, e cila gjithashtu është pak sfiduese gjithsesi pasi nuk ka një person apo robot të ulur në timonin e makinës vetë-drejtuese (kam diskutuar mundësinë e ardhshme të robotëve atë makinë, shih lidhja këtu). Megjithatë, ne gjithashtu nuk mund të lejojmë që këmbësorët të thërrasin gjithmonë të shtënat. Rezultati mund të jetë katastrofik për të gjithë të interesuarit.

Më pas mund të tundoheni të kaloni në anën tjetër të kësaj medalje dhe të deklaroni se sistemi i drejtimit të AI nuk duhet të ndalojë kurrë në rrethana të tilla. Me fjalë të tjera, nëse një këmbësor nuk ka të drejtën e duhur të kalimit për të kaluar rrugën, UA duhet gjithmonë të supozojë se makina vetëdrejtuese duhet të ecë pa pushim. Fat i vështirë për ata këmbësorë.

Një rregull i tillë i rreptë dhe i thjeshtuar nuk do të pranohet mirë nga publiku në përgjithësi. Njerëzit janë njerëz dhe nuk do t'u pëlqente të mos jenë plotësisht të aftë për të kaluar rrugën, pavarësisht se ligjërisht u mungon e drejta e kalimit për ta bërë këtë në mjedise të ndryshme. Ju mund të parashikoni lehtësisht një zhurmë të konsiderueshme nga publiku dhe ndoshta të shihni një reagim të ashpër kundër adoptimit të vazhdueshëm të makinave vetë-drejtuese.

I mallkuar nëse e bëjmë, dhe i mallkuar nëse nuk e bëjmë.

Shpresoj se kjo ju ka çuar te alternativa e arsyetuar që AI duhet të programohet me një pamje vendimmarrëse se si të merret me këtë problem drejtimi. Një rregull i fortë dhe i shpejtë për të mos ndalur kurrë është i pambajtur, dhe po ashtu, një rregull i ashpër për të ndaluar gjithmonë është gjithashtu i pambajtur. UA duhet të krijohet me ndonjë vendimmarrje algoritmike ose ADM për t'u marrë me këtë çështje.

Mund të provoni të përdorni një grup të dhënash të shoqëruar me një qasje ML/DL.

Ja se si zhvilluesit e AI mund të vendosin ta programojnë këtë detyrë. Ata mbledhin të dhëna nga kamerat video që janë vendosur në të gjithë një qytet të caktuar ku do të përdoret makina vetë-drejtuese. Të dhënat tregojnë kur drejtuesit e mjeteve zgjedhin të ndalojnë për këmbësorët që nuk kanë të drejtë përparësie. E gjitha është mbledhur në një grup të dhënash. Duke përdorur Machine Learning dhe Deep Learning, të dhënat modelohen në mënyrë llogaritëse. Sistemi i drejtimit të inteligjencës artificiale përdor më pas këtë model për të vendosur se kur të ndalet ose jo.

Në përgjithësi, ideja është se çfarëdo që përbëhet nga zakonet lokale, kjo është mënyra se si AI po drejton makinën vetë-drejtuese. Problemi u zgjidh!

Por, a është zgjidhur vërtet?

Kujtoni që kisha vënë në dukje tashmë se ka studime kërkimore që tregojnë se shoferët njerëzorë mund të jenë të njëanshëm në zgjedhjet e tyre se kur të ndalojnë për këmbësorët. Të dhënat e mbledhura për një qytet të caktuar me sa duket do të përmbajnë ato paragjykime. Një AI ML/DL bazuar në ato të dhëna më pas ka të ngjarë të modelojë dhe pasqyrojë të njëjtat paragjykime. Sistemi i drejtimit të AI thjesht do të kryejë të njëjtat paragjykime ekzistuese.

Për të provuar dhe luftuar me këtë çështje, ne mund të bashkojmë një grup të dhënash që në fakt ka paragjykime të tilla. Ne ose gjejmë një grup të dhënash të tillë dhe më pas etiketojmë paragjykimet, ose krijojmë në mënyrë sintetike një grup të dhënash për të ndihmuar në ilustrimin e çështjes.

Do të ndërmerren të gjithë hapat e identifikuar më parë, duke përfshirë:

  • Vendosni një grup të dhënash që përmban qëllimisht këtë paragjykim të veçantë
  • Përdorni grupin e të dhënave për të trajnuar modelet e Learning Machine (ML) dhe Deep Learning (DL) në lidhje me zbulimin e këtij paragjykimi specifik
  • Aplikoni ML/DL të trajnuar me paragjykim ndaj AI tjetër për të verifikuar nëse IA e synuar është potencialisht e njëanshme në të njëjtën mënyrë
  • Vendosni në dispozicion ML/DL të trajnuar me paragjykime për t'u treguar ndërtuesve të AI se çfarë duhet të kenë kujdes, në mënyrë që ata të mund të inspektojnë lehtësisht modelet e tyre për të parë se si lindin paragjykimet e mbushura në mënyrë algoritmike
  • Shembuloni rreziqet e AI të njëanshme si pjesë e Etikës së AI dhe ndërgjegjësimit Etik të AI nëpërmjet këtij shembulli specifik të shtuar
  • tjetër

Përfundim

Le të rishikojmë linjën e hapjes.

Duhet që njeriu të njohë një.

Disa interpretojnë se kjo thënie tepër e përhapur nënkupton që kur bëhet fjalë për zbulimin e AI toksike, ne duhet t'i japim besimin e duhur ndërtimit dhe përdorimit të AI toksike drejt zbulimit dhe trajtimit të AI të tjera toksike. Përfundimi: Ndonjëherë duhet një hajdut për të kapur një hajdut tjetër.

Një shqetësim i shprehur është se ndoshta ne po bëjmë gjithçka për të filluar të bëjmë hajdutë. A duam të krijojmë AI që është toksike? A nuk duket si një ide e çmendur? Disa argumentojnë me forcë se ne duhet të ndalojmë të gjithë AI toksike, duke përfshirë AI të tillë që është ndërtuar me vetëdije, edhe nëse supozohet se është një heroik ose galant. AI për të mirë qëllimi.

Fshijeni inteligjencën artificiale toksike në çfarëdolloj maske të zgjuar apo tinëzare që mund të shfaqet.

Një kthesë e fundit për këtë temë tani për tani. Ne përgjithësisht supozojmë se kjo linjë e famshme ka të bëjë me njerëz ose gjëra që bëjnë veprime të këqija ose të tharta. Kështu ne mendojmë se duhet një hajdut për të kapur një hajdut. Ndoshta duhet ta kthejmë në kokë këtë thënie dhe ta bëjmë më shumë një fytyrë të gëzuar sesa një fytyrë të trishtuar.

Ja se si.

Nëse duam AI që të jetë e paanshme dhe jo toksike, mund të mendohet që dikush duhet ta njohë një të tillë. Ndoshta duhet më e madhja dhe më e mira për të njohur dhe për të lindur madhështi dhe mirësi të mëtejshme. Në këtë variant të mençurisë së urtë, ne e mbajmë vështrimin në fytyrën e lumtur dhe synojmë të përqendrohemi në sajimin AI për të mirë.

Kjo do të ishte një këndvështrim më optimist dhe më i kënaqshëm, nëse dikush e di se çfarë dua të them.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- të dobishme-përfshirë-për-atto-makina-vetë-drejtuese-autonome/