Etika e inteligjencës artificiale që thotë se AI duhet të përdoret veçanërisht kur paragjykimet njerëzore janë të bollshme

Njerëzit duhet të njohin kufizimet e tyre.

Ju mund t'ju kujtohet linja e ngjashme e famshme për njohjen e kufizimeve tona siç është thënë me ashpërsi nga personazhi Dirty Harry në filmin e vitit 1973 me titull Forca Magnum (sipas fjalëve të folura të aktorit Clint Eastwood në rolin e tij të paharrueshëm si Inspektori Harry Callahan). Nocioni i përgjithshëm është se ndonjëherë ne priremi të anashkalojmë kufijtë tanë dhe të futemi në ujë të nxehtë në përputhje me rrethanat. Qoftë për shkak të mendjemadhësisë, të qenit egocentrik ose thjesht të verbër ndaj aftësive tona, parimi për të qenë të vetëdijshëm dhe për të marrë parasysh qartë prirjet dhe mangësitë tona është jashtëzakonisht i arsyeshëm dhe i dobishëm.

Le t'i shtojmë një kthesë të re këshillës së urtë.

Inteligjenca Artificiale (AI) ka njohur kufizimet e saj.

Çfarë dua të them me atë variant të frazës së nderuar?

Rezulton se nxitimi fillestar për të futur në përdorim AI-n moderne si një zgjidhës shpresëdhënës i problemeve të botës është njollosur dhe turbulluar krejtësisht nga realizimi se AI e sotme ka disa kufizime mjaft të rënda. Ne dolëm nga titujt ngritës të AI për të mirë dhe e kemi gjetur veten gjithnjë e më shumë të zhytur brenda AI për të keqen. E shihni, shumë sisteme të inteligjencës artificiale janë zhvilluar dhe zbatuar me të gjitha llojet e paragjykimeve të pakëndshme racore dhe gjinore, dhe një mori pabarazish të tjera të tilla të tmerrshme.

Për mbulimin tim të gjerë dhe të vazhdueshëm të Etikës së AI dhe AI ​​Etike, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Paragjykimet që zbulohen në këto sisteme të AI nuk janë të tipit "të qëllimshëm" që do t'i atribuonim sjelljes njerëzore. E përmend këtë për të theksuar se AI e sotme nuk është sensitive. Pavarësisht atyre titujve të zhurmshëm që sugjerojnë të kundërtën, thjesht nuk ka ndonjë AI askund që madje i afrohet ndjenjës. Për më tepër, ne nuk dimë se si ta futim AI në grupin e ndjeshmërisë, plus askush nuk mund të thotë me siguri nëse do ta arrijmë ndonjëherë ndjenjën e AI. Ndoshta një ditë do të ndodhë, ose ndoshta jo.

Pra, pikëpamja ime është se ne nuk mund t'i caktojmë veçanërisht qëllimin llojit të AI që posedojmë aktualisht. Thënë kjo, ne mund t'u caktojmë me bollëk qëllim atyre që po krijojnë sisteme AI. Disa zhvillues të AI nuk janë të vetëdijshëm për faktin se ata kanë krijuar një sistem të AI që përmban paragjykime të pakëndshme dhe ndoshta të paligjshme. Ndërkohë, zhvilluesit e tjerë të AI kuptojnë se po futin paragjykime në sistemet e tyre të AI, duke e bërë këtë potencialisht në një mënyrë keqbërjeje të qëllimshme.

Sido që të jetë, rezultati është megjithatë ende i pahijshëm dhe me gjasë i paligjshëm.

Përpjekjet e rrepta janë duke u zhvilluar për të shpallur parimet e Etikës së AI që do të ndriçojnë zhvilluesit e AI dhe do të ofrojnë udhëzime të përshtatshme për të shmangur paragjykimet në sistemet e tyre të AI. Kjo do të ndihmojë në një mënyrë dyfish. Së pari, ata që krijojnë AI nuk do të kenë më justifikimin e gatshëm se thjesht nuk ishin të vetëdijshëm se cilat rregulla duhet të ndiqen. Së dyti, ata që devijojnë nga kushtet Etike të AI do të kapen më lehtë dhe do të tregohen se do të shmangin atë që ata ishin paralajmëruar të bënin dhe të mos bënin.

Le të marrim një moment për të shqyrtuar shkurtimisht disa nga parimet kryesore Etike të AI për të ilustruar atë që ndërtuesit e AI duhet të mendojnë dhe të ndërmarrin me rigorozitet nga një qëndrim i Etikës së AI.

Siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe vendosen në mënyrë që personeli përkatës të zotërojë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurat dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaftueshëm të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar kur kodimi i AI duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Ju lutemi, kini parasysh se i duhet një fshat për të krijuar dhe zhvilluar AI. Për të cilën i gjithë fshati duhet të mbajë parasysh Etikën e AI.

Gjithsesi, tani që kam hyrë në tabelën se AI mund të përmbajë paragjykime, ndoshta të gjithë mund të pajtohemi me këto dy fakte të dukshme:

1. Njerëzit mund të kenë paragjykime të shumta të pakëndshme dhe mund të veprojnë sipas tyre

2. AI mund të ketë paragjykime të shumta të pakëndshme dhe mund të veprojë mbi ato paragjykime

Unë jam disi i urryer të grumbulloj njerëzit kundrejt AI në atë kontekst pasi mund të nënkuptojë disi se AI ka kapacitete të ndjeshme në të njëjtin nivel me njerëzit. Kjo me siguri nuk është kështu. Do t'i kthehem për momentin shqetësimeve në rritje për antropomorfizimin e AI pak më vonë në këtë diskutim.

Cila është më e keqja, njerëzit që shfaqin paragjykime apo AI që e bën këtë?

Guxoj të them se pyetja shtron një nga ato zgjedhjet e pahijshme. Është proverbiale më e vogël e dy të këqijave, dikush mund të pretendojë. Do të dëshironim që njerëzit të mos mishëronin paragjykime të pahijshme. Ne do të dëshironim më tej që edhe nëse njerëzit kanë paragjykime të pakëndshme, ata nuk do të veprojnë sipas këtyre paragjykimeve. E njëjta gjë mund të thuhet me vend për AI. Ne do të dëshironim që AI të mos nguliste paragjykime të padëshiruara dhe që edhe nëse ka paragjykime të tilla të koduara nga brenda, UA të paktën të mos vepronte sipas tyre.

Megjithatë, dëshirat nuk drejtojnë domosdoshmërisht botën (për analizën time të pamjes në rritje dhe shqetësuese të të ashtuquajturit Përmbushja e dëshirave të AI nga shoqëria në përgjithësi, shih lidhja këtu).

Në rregull, ne duam që njerëzit të dinë kufizimet e tyre. Është e rëndësishme të dallosh kur ke paragjykime të pakëndshme. Ka po aq rëndësi në përpjekjen për të parandaluar që ato paragjykime të padëshiruara të futen në veprimet dhe vendimet tuaja. Bizneset sot po përpiqen të gjitha llojet e qasjeve për t'i mbajtur punonjësit e tyre që të mos bien në grackat e tmerrshme të paragjykimeve. Punonjësve iu jepet trajnime të specializuara se si të kryejnë punën e tyre në mënyra të shëndosha etike. Proceset janë formuar rreth punonjësve për t'i paralajmëruar ata kur duket se po shfaqin zakone joetike. Dhe kështu me radhë.

Një mënyrë tjetër për t'u përballur me njerëzit dhe paragjykimet e tyre të pakëndshme do të ishte automatizimi i punës me bazë njerëzore. Po, thjesht hiqni njeriun nga lak. Mos lejoni që njeriu të kryejë një detyrë vendimmarrëse dhe me sa duket nuk keni më shqetësime të vazhdueshme për sjelljen njerëzore ndaj ndonjë paragjykimi të padrejtë. Nuk ka asnjë njeri të përfshirë dhe kështu problemi i paragjykimeve të mundshme njerëzore duket se është zgjidhur.

Unë e sjell këtë sepse ne jemi dëshmitarë të një ndryshimi gradual dhe masiv drejt përdorimit të AI në një mënyrë vendimmarrjeje algoritmesh (ADM). Nëse mund të zëvendësoni një punonjës njerëzor me AI, gjasat janë që do të shfaqen shumë përfitime. Siç u përmend tashmë, ju nuk do të shqetësoheni më për paragjykimet njerëzore të atij punonjësi njerëzor (ai që nuk po e bën më atë punë). Shanset janë që AI do të jetë më pak i kushtueshëm në përgjithësi kur krahasohet me një horizont kohor afatgjatë. Ju hiqni dorë nga të gjitha vështirësitë e tjera të ndryshme që vijnë pjesërisht me punëtorët njerëzorë. etj.

Një propozim që po fiton terren duket të jetë ky: Kur përpiqeni të vendosni se ku të vendosni më mirë AI, shikoni së pari te cilësimet që tashmë sjellin paragjykime njerëzore nga punonjësit tuaj dhe për të cilat ato paragjykime janë nënvlerësuar ose përndryshe komplikojnë tepër detyra të veçanta vendimmarrëse.

Në fund të fundit është se do të dukej e kujdesshme të mblidhni më shumë për paratë tuaja për sa i përket investimit në AI, duke synuar drejtpërsëdrejti detyra vendimmarrëse njerëzore shumë të ekspozuara që janë të vështira për t'u kontrolluar nga një perspektivë e pakëndshme e infuzionit të paragjykimeve. Hiqni punëtorët njerëzorë në atë rol. Zëvendësojini ato me AI. Supozimi është se AI nuk do të kishte paragjykime të tilla të pakëndshme. Prandaj, ju mund ta hani tortën tuaj dhe ta hani gjithashtu, domethënë, të merrni detyrat e vendimit të ndërmarra dhe ta bëni këtë duke përjashtuar spektrin etik dhe ligjor të paragjykimeve të padëshiruara.

Kur e kuptoni këtë, ROI (kthimi nga investimi) ka të ngjarë ta bënte adoptimin e AI një zgjedhje pa mend.

Ja se si ndodh zakonisht.

Shikoni në të gjithë firmën tuaj dhe përpiquni të identifikoni detyrat vendimmarrëse që ndikojnë te klientët. Nga këto detyra, cilat ka më shumë gjasa të ndikohen në mënyrë të papërshtatshme nëse punëtorët mishërojnë paragjykime të padrejta? Nëse tashmë jeni përpjekur t'i frenoni ato paragjykime, ndoshta i lini gjërat të qëndrojnë siç janë. Nga ana tjetër, nëse paragjykimet vazhdojnë të rishfaqen dhe përpjekja për t'i eliminuar ato është e vështirë, merrni parasysh hedhjen e një AI përkatëse në atë rol. Mos i mbani punëtorët në përzierje, pasi ata mund të anashkalojnë AI ose ta shtyjnë AI përsëri në humnerën e pakëndshme të paragjykimeve. Gjithashtu, sigurohuni që AI mund ta kryejë detyrën me aftësi dhe ju keni kapur mjaftueshëm aspektet e vendimmarrjes që kërkohen për të kryer punën.

Shpëlajeni dhe përsërisni.

E kuptoj që duket si një nocion i drejtpërdrejtë, megjithëse e kuptoj se ka shumë mënyra që zëvendësimi i punëtorëve njerëzorë me AI mund të shkojë lehtësisht keq. Shumë kompani ishin të etur për të ndërmarrë veprime të tilla dhe nuk menduan se si ta bënin këtë. Si rezultat, ata shpesh bënin një rrëmujë shumë më të keqe se sa kishin në dorë për të filluar.

Dua të sqaroj dhe të theksoj se AI nuk është një ilaç.

Duke folur për këtë, ekziston një pengesë e madhe në lidhje me pastërtinë e hedhjes në dukje të vendimmarrësve të njëanshëm ndaj njeriut me AI të supozuar të paanshëm. Problemi është se ju thjesht mund të zëvendësoni një grup paragjykimesh të pakëndshme me një tjetër. Sipas treguesit të mëparshëm, AI mund të përmbajë paragjykime të pakëndshme dhe mund të veprojë mbi ato paragjykime. Të bësh një supozim të pacipë se shkëmbimi i njerëzve të njëanshëm me AI të paanshëm nuk është gjithçka që mund të bëhet.

Me pak fjalë, këtu është marrëveshja kur e shikoni çështjen në mënyrë rigoroze nga faktorët e paragjykimit:

  • AI nuk ka paragjykime të pakëndshme dhe për këtë arsye ADM-ja e bazuar në AI është e përshtatshme për t'u vendosur
  • Inteligjenca artificiale ka të njëjtat paragjykime si njerëzit e zëvendësuar dhe kështu ADM-ja e bazuar në AI është shqetësuese
  • Inteligjenca artificiale prezanton paragjykime të reja përtej atyre të njerëzve të zëvendësuar dhe ka të ngjarë të përkeqësojë gjërat në përputhje me rrethanat
  • Inteligjenca artificiale në fillim duket e mirë dhe më pas gradualisht lëkundet në paragjykime të pakëndshme
  • tjetër

Ne mund t'i shpaketojmë shkurtimisht ato mundësi.

E para është versioni i idealizuar i asaj që mund të ndodhë. AI nuk ka paragjykime të pakëndshme. Ju e vendosni AI në vend dhe ajo e bën punën në mënyrë të shkëlqyer. Mirë për ty! Sigurisht, dikush do të shpresonte që ju të keni trajtuar gjithashtu në një mënyrë të shkathët zhvendosjen e punëtorëve njerëz për shkak të përfshirjes së AI.

Në rastin e dytë, ju vendosni AI dhe zbuloni se AI po shfaq të njëjtat paragjykime të pakëndshme që kishin punëtorët njerëzorë. Si mund të jetë kjo? Një mënyrë e zakonshme për të rënë në këtë kurth është përdorimi i Mësimit të Makinerisë (ML) dhe Mësimit të Thellë (DL) bazuar në të dhënat e mbledhura se si njerëzit në rol po merrnin më parë vendimet e tyre.

Më lejoni një moment të shpjegoj.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë bërë punën për vite pas vitesh kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera sensitive të modelimit në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime të ngulitura ende brenda modeleve të përputhjes së modelit të ML/DL.

Gjithçka, mund të përfundoni në fillim. Të njëjtat paragjykime të padëshiruara të njerëzve tani pasqyrohen në mënyrë llogaritëse në sistemin e AI. Ju nuk i keni zhdukur paragjykimet.

Më keq akoma, mund të keni më pak gjasa të kuptoni se AI ka paragjykime. Në rastin e njerëzve, normalisht mund të jeni të kujdesshëm që njerëzit të kenë paragjykime të pakëndshme. Kjo është një pritshmëri bazë. Përdorimi i AI mund t'i qetësojë udhëheqësit që të besojnë se automatizimi ka hequr plotësisht çdo lloj paragjykimi njerëzor. Kështu ata po e vendosin veten se e kanë qëlluar veten në këmbë. Ata hoqën qafe njerëzit me paragjykime në dukje të njohura, duke u zëvendësuar nga AI që mendohej se nuk kishte paragjykime të tilla, dhe megjithatë tani kanë vënë në përdorim AI të mbushur me të njëjtat paragjykime që dihet tashmë se ekzistojnë.

Kjo mund t'i bëjë gjërat vërtet të kryqëzuara. Ju mund të keni hequr parmakë të tjerë mbrojtës që përdoren me punëtorët njerëzorë që janë krijuar për të zbuluar dhe parandaluar shfaqjen e atyre paragjykimeve njerëzore të parashikuara tashmë. AI tani ka frenim të lirë. Asgjë nuk është në vend për ta kapur atë përpara se të veproni lart. Më pas, AI mund të fillojë t'ju udhëheqë në një rrugë të turpshme të akumulimit të gjerë të veprimeve të njëanshme.

Dhe, ju jeni në pozicionin e vështirë dhe ndoshta të përgjegjshëm që dikur e dinit për paragjykimet dhe tani i keni lejuar ato paragjykime të bëjnë kërdi. Është ndoshta një gjë që të mos keni hasur ndonjëherë në ndonjë paragjykim të tillë të pakëndshëm dhe më pas befas papritmas AI i nxjerr ato. Ju mund të përpiqeni ta justifikoni këtë me llojin "kush do ta kishte marrë me mend" të shpërqendrimit (ndoshta jo shumë bindëse). Por të kesh vendosur tani AI që po bën të njëjtat veprime të paanshme si më parë, arsyetimet e tua po bëhen më të holla dhe më të zbehta.

Një kthesë në këtë nënkupton që AI të shfaq paragjykime të pakëndshme që nuk ishin hasur më parë kur njerëzit po bënin detyrën. Mund të thuash se kjo është ndoshta më e vështirë për t'u parandaluar pasi ajo përbëhet nga paragjykime "të reja" për të cilat firma nuk kishte kërkuar më parë. Në fund, megjithatë, justifikimet mund të mos ju ofrojnë shumë lehtësim. Nëse sistemi i AI ka hyrë në territor joetik dhe të paligjshëm, pata juaj mund të jetë gatuar.

Një aspekt tjetër që duhet mbajtur në mend është se AI mund të fillojë mirë dhe më pas të futet në paragjykime të pakëndshme. Kjo është veçanërisht e mundshme kur përdorimi i Learning Machine ose Deep Learning bëhet në mënyrë të vazhdueshme për të mbajtur të përditësuar AI. Pavarësisht nëse ML/DL është duke punuar në kohë reale ose duke bërë përditësime periodike, vëmendja duhet të jetë nëse AI ka mundësi të gëlltisë të dhëna që tani përmbajnë paragjykime dhe që më parë nuk ishin të pranishme.

Për drejtuesit që mendojnë se po marrin një drekë falas duke tundur një shkop magjik për të zëvendësuar punëtorët e njëanshëm njerëzorë me AI, ata janë në një zgjim shumë të vrazhdë. Shihni diskutimin tim rreth rëndësisë së fuqizimit të udhëheqësve me parimet e Etikës së AI në lidhja këtu.

Në këtë pikë të këtij diskutimi, do të vë bast se ju dëshironi disa shembuj të botës reale që mund të shfaqin enigmën e zëvendësimit (ose jo) të paragjykimeve njerëzore me paragjykime të padëshiruara të bazuara në AI.

Më vjen mirë që pyete.

Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të inteligjencës artificiale është shfaqja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI, diçka rreth paragjykimeve të padëshiruara në AI, dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si një sqarim, veturat e vërteta që drejtojnë vetveten janë ato që AI e drejton makinën tërësisht më vete dhe nuk ka ndonjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë të vetë-drejtimit në Nivelin 5, të cilën ne as nuk e dimë nëse kjo do të jetë e mundur për të arritur, dhe as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makina që drejtojnë vetë dhe inteligjenca artificiale me paragjykime të pakëndshme

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Unë besoj se siguron një sasi të mjaftueshme paralajmërimesh për të nënvizuar atë që unë jam gati të lidhem.

Ne jemi të përgatitur tani për të bërë një zhytje të thellë në makinat vetë-drejtuese dhe mundësitë Etike të AI që sjellin eksplorimin e AI dhe paragjykimet e padrejta.

Le të përdorim një shembull lehtësisht të drejtpërdrejtë. Një makinë vetë-drejtuese e bazuar në AI është duke u nisur në rrugët e lagjes suaj dhe duket se po lëviz në mënyrë të sigurt. Në fillim, i kishit kushtuar vëmendje të veçantë çdo herë që arrinit t'i hidhnit një sy makinës vetë-drejtuese. Automjeti autonome u dallua me raftin e tij të sensorëve elektronikë që përfshinte kamera video, njësi radari, pajisje LIDAR dhe të ngjashme. Pas shumë javësh të makinës vetë-drejtuese që qarkullonte nëpër komunitetin tuaj, tani mezi e vëreni atë. Për sa ju shqetëson, është thjesht një makinë tjetër në rrugët publike tashmë të ngarkuara.

Që të mos mendoni se është e pamundur ose e pabesueshme të njiheni me shikimin e makinave vetë-drejtuese, kam shkruar shpesh se si vendet që janë brenda fushës së provave të makinave vetë-drejtuese janë mësuar gradualisht të shohin automjete të zbukuruara. shikoni analizën time në kjo lidhje këtu. Shumë nga vendasit përfundimisht u zhvendosën nga një gërvishtje e rrëmbyer në gojë, tek tani duke lëshuar një zhurmë të madhe mërzie për të dëshmuar ato makina që lëviznin vetë.

Ndoshta arsyeja kryesore tani që ata mund të vërejnë automjetet autonome është për shkak të faktorit të acarimit dhe acarimit. Sistemet e drejtimit të inteligjencës artificiale të përdorur nga libri sigurohen që makinat u binden të gjitha kufijve të shpejtësisë dhe rregullave të rrugës. Për shoferët e ethshëm njerëzorë në makinat e tyre tradicionale të drejtuara nga njerëzit, ju nervozoheni në momente kur ngecni pas makinave vetë-drejtuese të bazuara në AI që respektojnë rreptësisht ligjin.

Kjo është diçka me të cilën të gjithë mund të na duhet të mësohemi, me të drejtë ose pa të drejtë.

Kthehu në përrallën tonë.

Rezulton se dy shqetësime të pahijshme fillojnë të lindin në lidhje me makinat vetë-drejtuese të bazuara në AI, të padëmshme dhe përgjithësisht të mirëpritura, veçanërisht:

a. Aty ku AI po bredh makinat vetë-drejtuese për të marrë udhëtime është bërë një shqetësim i shqetësuar në komunitetin në përgjithësi.

b. Mënyra se si AI po i trajton këmbësorët në pritje që nuk kanë të drejtë kalimi është gjithashtu një çështje në rritje

Në fillim, AI po bredhte makinat vetë-drejtuese në të gjithë qytetin. Kushdo që dëshironte të kërkonte një udhëtim në makinën që drejtonte vetë, në thelb kishte një shans të barabartë për të përshëndetur një të tillë. Gradualisht, AI filloi të mbante kryesisht makinat vetë-drejtuese në roaming në vetëm një pjesë të qytetit. Ky seksion ishte një fitues më i madh i parave dhe sistemi i AI ishte programuar për të provuar dhe maksimizuar të ardhurat si pjesë e përdorimit në komunitet.

Anëtarët e komunitetit në pjesët e varfra të qytetit kishin më pak gjasa të ishin në gjendje të udhëtonin nga një makinë vetë-drejtuese. Kjo ishte për shkak se makinat vetë-drejtuese ishin më larg dhe roaming në pjesën me të ardhura më të larta të zonës. Kur një kërkesë vinte nga një pjesë e largët e qytetit, çdo kërkesë nga një vend më i afërt që ka të ngjarë në pjesën "e nderuar" të qytetit do të kishte një përparësi më të lartë. Përfundimisht, disponueshmëria e marrjes së një makine vetë-drejtuese në çdo vend tjetër përveç pjesës më të pasur të qytetit ishte pothuajse e pamundur, në mënyrë shqetësuese për ata që jetonin në ato zona tani të uritura nga burimet.

Ju mund të pohoni se AI pothuajse u ul në një formë të diskriminimit me përfaqësues (gjithashtu i referuar shpesh si diskriminim indirekt). AI nuk ishte programuar për të shmangur ato lagje më të varfra. Në vend të kësaj, ajo "mësoi" ta bënte këtë nëpërmjet përdorimit të ML/DL.

Çështja është se shoferët njerëzorë që ndanin udhëtimin ishin të njohur për të bërë të njëjtën gjë, megjithëse jo domosdoshmërisht ekskluzivisht për shkak të këndit të fitimit të parave. Kishte disa nga shoferët njerëzorë që kishin një paragjykim të pahijshëm për të marrë kalorës në pjesë të caktuara të qytetit. Ky ishte një fenomen disi i njohur dhe qyteti kishte vendosur një qasje monitorimi për të kapur shoferët njerëz që e bënin këtë. Drejtuesit njerëzorë mund të futen në telashe për kryerjen e praktikave të pakëndshme të përzgjedhjes.

Supozohej se AI nuk do të binte kurrë në të njëjtin lloj rëre të gjallë. Nuk u krijua asnjë monitorim i specializuar për të mbajtur gjurmët se ku po shkonin makinat vetë-drejtuese të bazuara në AI. Vetëm pasi anëtarët e komunitetit filluan të ankoheshin, drejtuesit e qytetit e kuptuan se çfarë po ndodhte. Për më shumë rreth këtyre llojeve të çështjeve në mbarë qytetin që do të paraqesin automjetet autonome dhe makinat vetë-drejtuese, shihni mbulimin tim në kjo lidhje këtu dhe i cili përshkruan një studim të udhëhequr nga Harvardi, të cilin unë e kam bërë bashkëautor mbi këtë temë.

Ky shembull i aspekteve roaming të makinave vetë-drejtuese të bazuara në AI ilustron treguesin e mëparshëm se mund të ketë situata që sjellin njerëz me paragjykime të pahijshme, për të cilat janë vendosur kontrolle dhe se AI që zëvendëson ata shoferë njerëz është lënë në kërkim. pa pagesë. Për fat të keq, AI më pas mund të zhytet gradualisht në paragjykime të ngjashme dhe ta bëjë këtë pa parmakë të mjaftueshëm mbrojtës në vend.

Një shembull i dytë përfshin AI që përcakton nëse do të ndalet për këmbësorët që presin që nuk kanë të drejtën e kalimit për të kaluar një rrugë.

Padyshim që keni vozitur dhe keni hasur në këmbësorë që prisnin të kalonin rrugën dhe megjithatë ata nuk kishin të drejtën e kalimit për ta bërë këtë. Kjo do të thoshte se ju kishit diskrecion nëse do të ndalonit dhe t'i linit ata të kalonin. Ju mund të vazhdoni pa i lënë ata të kalojnë dhe gjithsesi të jeni plotësisht brenda rregullave ligjore të drejtimit për ta bërë këtë.

Studimet se si shoferët njerëz vendosin të ndalojnë ose të mos ndalojnë për këmbësorë të tillë kanë sugjeruar që ndonjëherë drejtuesit njerëz e bëjnë zgjedhjen bazuar në paragjykime të padëshiruara. Një shofer njerëzor mund të shikojë këmbësorin dhe të zgjedhë të mos ndalojë, edhe pse ata do të kishin ndaluar nëse këmbësori do të kishte një pamje të ndryshme, si për shembull në bazë të racës ose gjinisë. Unë e kam ekzaminuar këtë në lidhja këtu.

Imagjinoni që makinat vetë-drejtuese të bazuara në AI janë të programuara për t'u marrë me pyetjen nëse duhet të ndalojnë apo jo për këmbësorët që nuk kanë të drejtë kalimi. Ja se si zhvilluesit e AI vendosën ta programojnë këtë detyrë. Ata mblodhën të dhëna nga video kamerat e qytetit që janë vendosur në të gjithë qytetin. Të dhënat tregojnë shoferë njerëz që ndalojnë për këmbësorët që nuk kanë të drejtë përparësie dhe drejtues njerëz që nuk ndalojnë. E gjitha është mbledhur në një grup të madh të dhënash.

Duke përdorur Machine Learning dhe Deep Learning, të dhënat modelohen në mënyrë llogaritëse. Sistemi i drejtimit të inteligjencës artificiale përdor më pas këtë model për të vendosur se kur të ndalet ose jo. Në përgjithësi, ideja është se çfarëdo që përbëhet nga zakonet lokale, kjo është mënyra se si AI po drejton makinën vetë-drejtuese.

Për habinë e drejtuesve të qytetit dhe banorëve, inteligjenca artificiale po zgjodhi dukshëm të ndalonte ose të mos ndalonte bazuar në pamjen e këmbësorit, duke përfshirë racën dhe gjininë e tyre. Sensorët e makinës vetë-drejtuese do të skanojnë këmbësorët në pritje, do t'i ushqejnë këto të dhëna në modelin ML/DL dhe modeli do të lëshojë në AI nëse duhet të ndalojë apo të vazhdojë. Fatkeqësisht, qyteti tashmë kishte shumë paragjykime njerëzore në këtë drejtim dhe AI ​​tani po imitonte të njëjtën gjë.

Lajmi i mirë është se kjo ngre një çështje që pothuajse askush nuk e kishte ditur më parë se ekzistonte. Lajmi i keq ishte se meqenëse AI u kap duke bërë këtë, ajo mori pjesën më të madhe të fajit. Ky shembull ilustron se një sistem AI thjesht mund të kopjojë paragjykimet tashmë ekzistuese të padëshiruara të njerëzve.

Përfundim

Ka shumë mënyra për të provuar dhe shmangur idenë e AI që ose nga porta ka paragjykime të pakëndshme ose që me kalimin e kohës nxjerr paragjykime. Një qasje përfshin sigurimin që zhvilluesit e AI janë të vetëdijshëm për këtë që po ndodh dhe kështu i mbajnë ata në këmbë për të programuar AI për të shmangur këtë çështje. Një rrugë tjetër konsiston në të paturit e vetë-monitorimit të AI për sjellje joetike (shih diskutimin tim në lidhja këtu) dhe/ose të kesh një pjesë tjetër të AI që monitoron sisteme të tjera të AI për sjellje potencialisht joetike (e kam mbuluar këtë në lidhja këtu).

Për ta përmbledhur, duhet të kuptojmë se njerëzit mund të kenë paragjykime të pakëndshme dhe se disi duhet të dinë kufizimet e tyre. Po kështu, AI mund të ketë paragjykime të pakëndshme dhe disi duhet të dimë kufizimet e tyre.

Për ata prej jush që po e përqafojnë me zell Etikën e AI, do të doja të përfundoja tani me një linjë tjetër të famshme që të gjithë duhet ta dinë tashmë. Gjegjësisht, ju lutemi vazhdoni të përdorni dhe të ndani rëndësinë e AI Etike. Dhe duke e bërë këtë, unë do të thosha me paturpësi këtë: "Vazhdo, bëje ditën time".

Burimi: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/