Mësimet e etikës dhe sistemeve autonome të inteligjencës artificiale të nxjerra nga ai fluturim i fundit i Alaska Airlines, ku piloti dhe bashkë-piloti nuk u pajtuan përpara se të niseshin dhe papritmas zgjodhën taksinë për t'u kthyer në terminal dhe shkonin në rrugë të ndara

Linjat ajrore kanë qenë mjaft në lajme së fundmi.

Jemi në krizën verore të fluturimeve. Pasagjerët e lodhur dhe të frustruar e gjejnë veten duke u përballur me të gjitha llojet e ndërprerjeve të fluturimeve dhe çoroditjeve të planifikimit të linjave ajrore. Fluturimet anulohen në mënyrë të papritur. Fluturimet janë me vonesë. Pasagjerët tymi. Fatkeqësisht, ka pasur shumë raste të pasagjerëve që lejojnë që këto shqetësime të shpërthejnë, dhe ne kemi parë mjerisht shumë video virale të konfrontimeve kokë më kokë dhe nganjëherë goditjet me grushte.

Më rrallë mësojmë për mosmarrëveshjet midis një piloti dhe kopilotit që mund të ndodhin gjatë qëndrimit në kabinë.

Kjo është mjaft surprizë.

Në të vërtetë, natyrshëm jemi të befasuar kur mendojmë se një pilot dhe një kopilot do të kishin në dukje një mosmarrëveshje serioze gjatë çdo faze të një fluturimi. Nëse mosmarrëveshja lidhet me atë se cila markë e kafesë është më e mira, supozimi ynë është se kjo nuk do të ndërhynte në përpjekjen e punës që përfshin fluturimin e aeroplanit. Të dy thjesht do të shmangnin mungesën e syrit për një temë në dukje të parëndësishme për fluturimin. Sjellja e tyre profesionale dhe trajnimi i gjatë i pilotëve do të fillonin dhe ata do të kthenin fokusin e tyre përsëri në të dhënat e fluturimit.

Megjithatë, merrni parasysh kur a mosmarrëveshje profesionale ndërhyn.

Unë do të ndaj shkurtimisht me ju një lajm të botuar gjerësisht në lidhje me një rast të fundit të diçkaje që ndodhi gjatë një fluturimi në SHBA në lidhje me një mosmarrëveshje të pretenduar profesionale në kabinë.

Kjo është përmendur kryesisht këtu në mënyrë që të mund të eksplorojmë një temë të lidhur që ka një rëndësi të madhe për ardhjen e Inteligjencës Artificiale (AI). E shihni, mund të ketë një formë mosmarrëveshjeje profesionale midis jo vetëm njerëzve në një mosmarrëveshje njeri-në-njeri, por mund të kemi gjithashtu diçka të ngjashme në mes të adoptimit të AI dhe mosmarrëveshjeve profesionale që rezultojnë nga njeriu kundër AI . Shfaqen të gjitha llojet e konsideratave të Etikës së AI. Për mbulimin tim të gjerë dhe të vazhdueshëm të Etikës së AI dhe çështjeve Etike të AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Bëhuni gati për një përrallë magjepsëse.

Siç u raportua kohët e fundit në lajme, një rast "mosmarrëveshjeje profesionale" me sa duket lindi gjatë një fluturimi të Alaska Airline që po shkonte nga Uashingtoni në San Francisko. Sipas njoftimeve të lajmeve, fluturimi ishte larguar nga porta dhe po priste në pistë për leje për taksi dhe fluturim. Një stuhi ishte duke u zhvilluar dhe çoi në një vonesë fluturimi prej më shumë se një orë e gjysmë. Rezulton se avioni përfundimisht u kthye dhe u nis përsëri te porta, gjë që disa nga pasagjerët normalisht mund të kishin supozuar se ishte thjesht një masë paraprake sigurie e lidhur me stuhinë.

Përmes postimeve të ndryshme në Twitter, duket se piloti dhe bashkëpiloti kishin një lloj mosmarrëveshjeje jashtë pamjes gjatë kohës së tyre atje në kabinë dhe disi arritën në përfundimin se qasja më e kujdesshme do të ishte pastrimi i fluturimit dhe kthimi në terminal. . Tweetet sugjeruan se kapiteni dhe oficeri i parë me sa duket nuk mund të shkonin mirë me njëri-tjetrin. Linja ajrore më vonë lëshoi ​​një deklaratë se situata ishte e pafat (situata nuk u deklarua në mënyrë eksplicite ose nuk u shpjegua në vetvete), dy oficerët e fluturimit u vlerësuan nga menaxhmenti dhe u konsideruan të përshtatshëm për të fluturuar, ekuipazhet u shkëmbyen dhe fluturimi përfundoi duke u zhvilluar dhe më vonë arriti në San Francisko.

Në një kuptim, nëse në fakt piloti dhe bashkëpiloti kishin një mosmarrëveshje profesionale, si p.sh. nëse avioni ishte gati për fluturim ose nëse rreziku i fluturimit përmes një stuhie ishte brenda një kufiri të përshtatshëm sigurie, ata pasagjerë duhet të lehtësohen dhe mirënjohës që avioni u kthye në portë. Më mirë të jesh i sigurt sesa të vjen keq. Të kesh një vonesë shtesë ia vlen reduktimi i supozuar i rreziqeve që lidhen me një udhëtim fluturues të konsideruar të ashpër ose të pafavorshëm.

Disa njerëz mund të habiten që mund të lindë një mosmarrëveshje e tillë profesionale.

Ndoshta kemi një përshtypje të rreme se gjithçka që ndodh në kabinë është tërësisht e saktë dhe e shkruar mirë. Me sa duket, të gjitha format e gjykimit njerëzor janë hequr nga procesi. Bazuar në grafikët e saktë dhe të llogaritur plotësisht, një fluturim ose është në rregull për të vazhduar ose nuk është. Nuk mund të ketë asnjë mosmarrëveshje kur i gjithë kompleti dhe kabudi mendohet se bazohen në llogaritje të pakundërshtueshme faktesh dhe shifrash.

Kjo nuk është e vërteta e plotë e çështjes. Sigurisht, ka një mori protokollesh dhe të gjitha llojeve të kontrolleve dhe ekuilibrave, por kjo nuk shtrydh çdo pikë të gjykimit njerëzor. Pilotët dhe kopilotët ende ushtrojnë gjykimin njerëzor. Për fat të mirë, ky gjykim njerëzor është nderuar nga vitet e fluturimit. Gjasat janë që një pilot dhe bashkëpilot në një aeroplan komercial pasagjerësh të kenë përvojë të mëparshme të fluturimit dhe të përdorin lehtësisht arsyetimin dhe gjykimin e tyre shumëvjeçar të thelluar të lidhur me të qenit në kontrollet e fluturimit.

Duke pasur parasysh rolin e dukshëm të gjykimit njerëzor, ne mund të parashikojmë logjikisht që një pilot dhe bashkëpilot ndonjëherë do të kenë mosmarrëveshje profesionale. Shumicën e kohës me sa duket ka shumë pak mosmarrëveshje të tilla. Piloti dhe bashkëpiloti për fluturimet e përditshme ka të ngjarë të jenë të harmonizuara mirë me mbizotërimin e kohës. Vetëm kur një skenar fluturimi mund të dalë jashtë kufijve konvencionalë, ne do të presim që të lindin fërkime më të tensionuara.

Nëse ka një dallim të fortë mendimesh midis të dyve, do të guxoja të them se ne duam që ata ta hasin atë.

Imagjinoni një situatë ku piloti dëshiron me forcë të vazhdojë, por bashkëpiloti e kupton se rreziqet janë shumë të larta. Thjesht t'i përkulesh pilotit pilotit do të dukej e padëshirueshme. Kopiloti është një kontroll-dhe-balancim i asaj që një pilot mund të mendojë të bëjë. Për ata që duan që një kopilot të mbyllë gojën dhe të veprojë vetëm pa mend për çfarëdo që dekreton piloti, mirë, kjo nuk është shumë siguri. Një kopilot nuk është thjesht një "pilot" rezervë që hyn në foto vetëm kur piloti është plotësisht i paaftë. Ky është një kuptim i gabuar i vlerës së të pasurit një pilot dhe kopilot në kabinë.

Ekziston një kënd tjetër i kësaj.

Konsideroni rastin e një piloti që nuk beson se një fluturim duhet të vazhdojë dhe ndërkohë kopiloti është i gung-ho për t'u ngritur në ajër. Po pastaj? Sipas hierarkisë së pritshme, piloti supozohet se do të mbizotërojë në mënyrë konvencionale mbi bashkëpilotin. Roli i caktuar i të qenit përgjegjës kryesor e bën pilotin më të madh nga ajo që përndryshe është disi e barabartë. Normalisht, piloti ka më shumë erëza të përgjithshme të kohës së fluturimit sesa kopiloti dhe kështu që në mënyrë hierarkike supozohet se kopiloti duhet t'i nënshtrohet dëshirave të pilotit (kur është brenda arsyes).

Në çdo rast, mendoj se të gjithë mund të pajtohemi se zgjedhja për të mos fluturuar është një zgjedhje me siguri më pak e rrezikshme sesa vendosja për të fluturuar. Sapo avioni ngrihet në ajër, nivelet e rrezikut bëhen të mëdha në krahasim me të qenit në çdo terren të zakonshëm të qëndrueshëm. Një fluturim komercial i zakonshëm që thjesht kthehet me taksi në terminal pa u futur në ajër do të ishte një zgjidhje mjaft miqësore për çdo debat të ashpër të ashpër rreth nisjes së fluturimit.

Le të ndërrojmë marshin dhe ta përdorim këtë lajm të mrekullueshëm për një qëllim krejtësisht të ndryshëm, por të afërt.

Ne po kemi gradualisht mes nesh një përhapje të sistemeve autonome të bazuara në AI. Ndonjëherë AI drejton shfaqjen, si të thuash. AI bën gjithçka nga A në Z, dhe ne mund ta interpretojmë këtë si AI që është plotësisht autonome ose pothuajse e tillë. Në raste të tjera, ne mund të kemi AI që ndërvepron me dhe në një farë mase është programuar që të mbështetet në të paturit e një njeriu-in-the-loop.

Do të doja të përqendrohesha në çështjen e një sistemi autonom ose gjysmë autonom të bazuar në AI, i cili që nga fillimi ka një njeri në lak. Inteligjenca artificiale dhe njeriu janë të bashkuar qëllimisht së bashku dhe supozohet se punojnë së bashku me njëri-tjetrin. Ata janë grupe në kryerjen e një detyre të caktuar. Vetëm AI nuk supozohet të jetë duke vepruar në detyrë. Inteligjenca artificiale duhet të ndërveprojë me personin e caktuar në qark.

Unë e sjell këtë karakterizim për të dalluar nga situatat ku njeriu-në-lak konsiderohet një aspekt opsional. Në thelb, AI-së i jepet freri i lirë. Nëse AI zgjedh të përdorë njeriun, qoftë kështu. Nuk ka asnjë kërkesë që AI duhet të prekë bazën ose të punojë krah për krah me njeriun e caktuar. Analizat që do të bëj janë padyshim që lidhen me atë lloj fakultativ Marrëveshja e ndërveprimit, por nuk është ajo për të cilën po drejtohem në mënyrë specifike në këtë diskutim të veçantë.

Mirë, kështu që ne kemi një lloj detyre për të cilën një njeri dhe një AI do të punojnë së bashku, në mënyrë të pandashme nga njëri-tjetri. Në një kuptim abstrakt, ne kemi një njeri të ulur në një vend dhe një sistem AI të ulur në sediljen tjetër shoqëruese. E them këtë me paturpësi sepse nuk po e kufizojmë këtë diskutim në një robot, për shembull, që mund të jetë ulur në një vend. Po aludoj në mënyrë metaforike në nocionin se AI është diku duke marrë pjesë në detyrë dhe po ashtu edhe njeriu. Fizikisht, vendndodhja e tyre nuk është veçanërisht jetike për diskutimin.

Ju mund të jeni të pasigurt se kur mund të lindë një rrethanë e tillë.

Lehtë-peasy.

Më vonë do të diskutoj ardhjen e automjeteve autonome dhe makinave vetë-drejtuese. Në nivele të caktuara të autonomisë, AI dhe njeriu supozohet të punojnë së bashku. AI mund të jetë duke drejtuar makinën dhe kërkon që njeriu të marrë kontrollet e drejtimit. Njeriu mund të jetë duke drejtuar makinën dhe të aktivizojë AI për të marrë kontrollet. Ata janë duke marrë me radhë kontrollet e drejtimit.

Për më tepër, disa dizajne po bëjnë që AI të jetë në thelb aktive gjatë gjithë kohës (ose, nëse nuk fiket), në mënyrë që AI të jetë gjithmonë gati. Për më tepër, AI mund të ndërhyjë drejtpërdrejt, edhe pa pyetur njeriun, në varësi të situatës që po shpaloset. Supozoni për shembull që njeriu duket se ka rënë në gjumë në timon. Meqenëse njeriu në dukje nuk mund të aktivizojë AI (sepse personi është duke fjetur), AI mund të programohet për të marrë kontrollet nga njeriu.

Disa dizajne sjellin AI dhe njerëzit në një qasje të dyfishtë të drejtimit. Inteligjenca artificiale po drejton dhe njeriu po drejton. Ose, nëse preferoni, njeriu është duke vozitur dhe AI ​​po ngas gjithashtu. Secili prej tyre po drejton automjetin. Unë e krahasoj këtë me ato makina të montuara posaçërisht që mund t'i keni përdorur gjatë trajnimit të shoferit dhe kishte dy grupe kontrollesh drejtimi në automjet, një për shoferin student dhe një për instruktorin e drejtimit.

Ky është vetëm një shembull i një mjedisi në të cilin AI dhe njerëzit mund të punojnë së bashku në një detyrë. Të gjitha mundësitë ekzistojnë. Lloje të tjera automjetesh autonome mund të krijohen në mënyrë të ngjashme, të tilla si aeroplanët, dronët, zhytësit, anijet sipërfaqësore, trenat, etj. Nuk duhet të marrim parasysh vetëm cilësimet e automjeteve dhe të transportit. Parashikoni fushën mjekësore dhe operacionet që po kryhen së bashku nga një mjek dhe një sistem AI. Lista është e pafund.

Pothuajse më pëlqen t'i referohem shakasë klasike të zhurmshme për një njeri dhe një AI që hyjnë së bashku në një lokal. Është shumë për të qeshur për ata që janë në AI.

Seriozisht, le të kthehemi në fokusin e një njeriu dhe një sistemi AI që po punojnë së bashku në një detyrë të caktuar. Së pari, dua të shmang antropomorfizimin e AI, gjë që do ta theksoj gjatë gjithë kohës. Inteligjenca artificiale nuk është e ndjeshme. Ju lutemi mbani në mend këtë.

Këtu ka diçka për të menduar: A do të jetë gjithmonë në një marrëveshje të plotë një person-in-the-loop i caktuar me një AI të bashkë-skuadruar?

Për çdo detyrë komplekse, do të duket e pamundur që njeriu dhe inteligjenca artificiale të jenë plotësisht dhe gjithmonë plotësisht në bllokim dhe hap. Njeriu në disa raste ndoshta do të mos pajtohet me AI. Ne mund ta çojmë këtë supozim deri në bankë.

Do të dëshiroja që ju të merrni në konsideratë edhe këtë mundësi ndoshta befasuese: A do të jetë gjithmonë inteligjenca artificiale në marrëveshje të plotë me një person-in-the-loop të caktuar?

Përsëri, për çdo detyrë komplekse, do të duket mjaft e imagjinueshme që AI nuk do të jetë në marrëveshje me njerëzit në disa raste. Nëse tashmë jeni duke u prirur drejt idesë se AI duhet të jetë gjithmonë i gabuar ndërsa njerëzit duhet të kenë gjithmonë të drejtë, do të ishte e mençur të rimendonit këtë përfundim të nxituar. Imagjinoni një makinë që ka një njeri dhe AI ​​që drejtojnë së bashku automjetin gjysmë autonom. Njeriu drejtohet drejt një muri me tulla. Pse? Ne nuk e dimë, ndoshta njeriu është i dehur ose ka rënë në gjumë, por ne e dimë se përplasja me një mur me tulla nuk është një ide e mirë, gjithçka tjetër është e barabartë. AI mund të zbulojë fatkeqësinë e ardhshme dhe të kërkojë të largohet nga pengesa e afërt.

Gjithsesi, ne do të kemi mundësinë e dallueshme që AI dhe njerëzit të mos pajtohen me njëri-tjetrin. Mënyra tjetër për të thënë të njëjtën gjë është se njerëzit dhe AI nuk pajtohen me njëri-tjetrin. Vini re se nuk dua që renditja e AI-dhe-human kundrejt njeriut-dhe-AI të sugjerojë ndonjë gjë në lidhje me drejtimin ose besueshmërinë e mosmarrëveshjes.

Dy punëtorët, një njeri dhe tjetri me AI, nuk janë dakord me njëri-tjetrin.

Ne mund të deklarojmë paraprakisht se sa herë që ndodh një mosmarrëveshje midis një AI të caktuar dhe një njeriu të caktuar, ne paraprakisht shpallim se njeriu mbizotëron mbi IA. Duke u thënë kështu, shembulli im ilustrues për makinën që po shkon në një mur me tulla duket se na bind se njeriu gjithmonë do të ketë të drejtë.

Në të kundërt, ne mund të zgjedhim të deklarojmë paraprakisht se sa herë që lind një mosmarrëveshje, ne do të kemi vërtetuar paraprakisht se AI është e drejtë dhe njeriu ka gabuar. Kjo nuk është as një dispozitë e përgjithësueshme. Imagjinoni një makinë në të cilën AI ka disa gabime ose gabime të softuerit të integruar, dhe AI ​​po përpiqet ta drejtojë automjetin nga rruga dhe në një kanal. Duke supozuar se gjithçka tjetër është e barabartë, njeriu duhet të jetë në gjendje të kapërcejë këtë veprim të drejtimit të AI dhe të parandalojë që automjeti të ulet në hendek.

Le të bëjmë një përmbledhje të shpejtë të kësaj:

  • A do të jetë gjithmonë një njeri-in-the-loop në marrëveshje të plotë me AI? Përgjigje: Jo.
  • A do të jetë AI gjithmonë në marrëveshje të plotë me një njeri në lak? Përgjigje: jo.
  • A do të ketë gjithmonë të drejtë një njeri-in-the-loop në krahasim me AI? Përgjigje: Jo domosdoshmërisht.
  • A do të ketë gjithmonë të drejtë AI në krahasim me njeriun në lak? Përgjigje: Jo domosdoshmërisht.

Ju me siguri mund të konfiguroni AI që të konsiderohet si parazgjedhje si pala "e gabuar" ose më e dobët dhe për këtë arsye t'ia lini gjithmonë njeriut sa herë që shfaqet një mosmarrëveshje. Po kështu, ju mund të konfiguroni AI për të supozuar se AI konsiderohet "e drejtë" sa herë që një njeri është në mosmarrëveshje me AI. Unë dua të sqaroj se ne mund ta bëjmë atë në mënyrë programore nëse dëshirojmë ta bëjmë këtë. Unë po pretendoj se në përgjithësi, kjo nuk do të jetë gjithmonë kështu. Sigurisht që ka mjedise në të cilat ne nuk e dimë paraprakisht nëse AI është "e drejtë" apo njeriu ka "të drejtë" për sa i përket zgjedhjes së njërës ose tjetrës për një mosmarrëveshje që lidhet me një detyrë të caktuar.

Ju kam çuar te një pyetje shumë e rëndësishme dhe shumë e ndërlikuar.

Çfarë duhet të bëjmë kur ndodh një mosmarrëveshje profesionale midis njeriut-in-the-loop dhe AI ​​(ose, në mënyrë ekuivalente, mund ta shprehim këtë si të qenit midis AI dhe njeriut-in-the-loop)?

Mos u përpiqni t'i shmangeni pyetjes.

Disa mund të argumentojnë se kjo nuk do të ndodhte kurrë, por siç e kam paraqitur në shembullin tim për makinën, me siguri mund të ndodhë. Disa mund të argumentojnë se një njeri është padyshim superior dhe duhet të jetë fituesi i çdo mosmarrëveshjeje. Shembulli im i makinës dhe murit me tulla e rrëzon atë. Ka përkrahës të inteligjencës artificiale që mund të këmbëngulin se AI duhet të jetë fituesi, për shkak të gjoja kapërcimit të emocioneve njerëzore dhe të menduarit të pakujdesshëm nga ata njerëz të rastësishëm që mendojnë paqartë. Edhe një herë, shembulli im tjetër që përfshin makinën që shkon në hendek e nënvlerëson këtë pohim.

Në botën reale, AI dhe njerëzit do të mos pajtohen, edhe kur të dy sillen qëllimisht në një situatë ekipore për të kryer një detyrë të ndërmarrë së bashku. Do te ndodhe. Ne nuk mund të vendosim kokën në rërë dhe të pretendojmë se nuk do të ndodhë.

Ne pamë që njerëzit që pilotonin aeroplanin patën një mosmarrëveshje me sa duket. Fatmirësisht, ata ranë dakord të mos ishin dakord, kështu duket. Ata e sollën avionin përsëri në terminal. Ata gjetën një mjet për të përballuar mosmarrëveshjen. Zgjidhja e mosmarrëveshjes së tyre funksionoi mirë, në krahasim me nëse ndoshta ata ishin përplasur në kabinë ose ndoshta kishin fluturuar në ajër dhe vazhduan të ishin luftarakë me njëri-tjetrin. Ky është një skenar i trishtuar që është i paqëndrueshëm, dhe ne mund të jemi mirënjohës që nuk ndodhi.

Më lejoni të jap listën time të mënyrave të ndryshme në të cilat mund të zgjidhen mosmarrëveshjet e AI dhe njeriu në lak (ose, njeriu në qark dhe AI):

  • Inteligjenca artificiale dhe njerëzit e bashkuar i zgjidhin gjërat (miqësisht ose jo)
  • Njeriu mbizotëron mbi AI, si parazgjedhje
  • AI mbizotëron mbi njeriun, si parazgjedhje
  • Disa rezolucion të tjera fikse të paracaktuara mbizotërojnë, si parazgjedhje
  • Njeriu i palës së tretë është i lidhur dhe treguesi i tyre mbizotëron mbi palët
  • Inteligjenca artificiale e palës së tretë është e lidhur dhe treguesi i saj mbizotëron mbi palët
  • Njeriu i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri
  • AI e palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri
  • Njeriu i palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri (tani nga njeriu në njeri)
  • AI i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri (tani AI-te-AI)
  • tjetër

Ato janë me bollëk të denjë për t'u zbërthyer.

Përpara se të merremi me mish dhe patate të tjera rreth konsideratave të egra dhe të leshta që qëndrojnë në themel të mënyrës se si të merreni me AI dhe mosmarrëveshjet njerëzore, le të parashtrojmë disa baza shtesë mbi tema thellësisht thelbësore. Ne duhet të bëjmë shkurtimisht një zhytje të lehtë në Etikën e AI dhe veçanërisht ardhjen e Mësimit të Makinerisë (ML) dhe Mësimit të Thellë (DL).

Ju mund të jeni paksa të vetëdijshëm se një nga zërat më të lartë këto ditë në fushën e AI dhe madje edhe jashtë fushës së AI konsiston në thirrjet për një pamje më të madhe të AI Etike. Le të hedhim një vështrim se çfarë do të thotë t'i referohemi Etikës së AI dhe AI ​​Etike. Për më tepër, ne do të shqyrtojmë se çfarë dua të them kur flas për Mësimin e Makinerisë dhe Mësimin e Thellë.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe shpërndahen në mënyrë që personeli përkatës të ketë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurën dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Le të sigurohemi gjithashtu se jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Le të kthehemi në fokusin tonë në mosmarrëveshjet midis AI dhe një njeriu.

Më herët kam treguar se këto janë disa nga strategjitë për zgjidhjen e mosmarrëveshjeve:

  • Inteligjenca artificiale dhe njerëzit e bashkuar i zgjidhin gjërat (miqësisht ose jo)
  • Njeriu mbizotëron mbi AI, si parazgjedhje
  • AI mbizotëron mbi njeriun, si parazgjedhje
  • Disa rezolucion të tjera fikse të paracaktuara mbizotërojnë, si parazgjedhje
  • Njeriu i palës së tretë është i lidhur dhe treguesi i tyre mbizotëron mbi palët
  • Inteligjenca artificiale e palës së tretë është e lidhur dhe treguesi i saj mbizotëron mbi palët
  • Njeriu i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri
  • AI e palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri
  • Njeriu i palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri (tani nga njeriu në njeri)
  • AI i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri (tani AI-te-AI)
  • tjetër

Koha për t'i shpaketuar këto.

Së pari, konsideroni se kjo është e gjitha profesional mosmarrëveshjet.

Një mosmarrëveshje profesionale përkufizohet lirshëm si një mosmarrëveshje e lidhur me një detyrë të lidhur me punën.

Për shembull, një mosmarrëveshje që lind midis një piloti dhe kopilotit për të vazhduar me një fluturim që po përballet me një stuhi, në mënyrë të arsyeshme mund të etiketohet si një mosmarrëveshje profesionale. Në të kundërt, një mosmarrëveshje e ashpër se cila markë kafeje mbron piloti kundrejt markës që preferon bashkëpiloti, kategorizohet lehtësisht si një mosmarrëveshje joprofesionale në këtë kontekst të veçantë.

Natyrisht, nëse një mosmarrëveshje joprofesionale shndërrohet në një mosmarrëveshje profesionale, në fund të fundit mund të jemi të interesuar për mosmarrëveshjen joprofesionale si një burim ose shkëndijë e supozuar për atë profesionale. Imagjinoni që një pilot dhe një kopilot të diskutojnë ashpër se cila markë e kafesë është më e mira, e cila më pas, për fat të keq, derdhet në shqetësime specifike të fluturimit (punë!), si p.sh. nëse duhet të ngrihet apo jo.

Së dyti, duhet të kemi parasysh përmasat e mosmarrëveshjeve profesionale.

Ndoshta piloti dhe bashkëpiloti ose në mosmarrëveshje të lehta për të vazhduar fluturimin. Ata nuk janë në mosmarrëveshje dhe thjesht mendojnë të mirat dhe të këqijat nëse do të ngrihen. Ky nuk është kalibri ose madhësia e një mosmarrëveshjeje profesionale që ne zakonisht po e konsiderojmë këtu. Puna është se mosmarrëveshja profesionale mund të jetë kalimtare dhe të dyja palët të gjejnë një zgjidhje përzemërsisht ose të paktën në kohën e duhur. Në përgjithësi, fokusi i mosmarrëveshjeve profesionale brenda fushëveprimit janë ato që në dukje janë të pazgjidhshme dhe të dy palët mbeten të palëkundura në mosmarrëveshje.

Së treti, zakonisht duhet të ketë diçka serioze në linjë që këto udhëzime të hyjnë në lojë.

Zgjedhja për të fluturuar ose jo është një lloj vendimi i vendosur për jetë a vdekje nëse fluturimi është në rrezik për shkak të një stuhie ose avioni konsiderohet i papërgatitur plotësisht për një udhëtim të tillë. Ky është një biznes serioz. Ne ende mund t'i zbatojmë udhëzimet për mosmarrëveshjet profesionale më pak me ndikim, megjithëse mund të jetë më shumë shqetësuese sesa ia vlen.

Në rregull, konsideratat tona janë se:

  • Mosmarrëveshja është kryesisht e orientuar profesionalisht dhe jo për diçka joprofesionale
  • Mosmarrëveshja është e një natyre të qëndrueshme dhe jo thjesht kalimtare ose ndryshe e zgjidhur lehtësisht
  • Mosmarrëveshja parashikon pasoja të rënda dhe zakonisht është me një rezultat ndikues
  • Palët janë në mosmarrëveshje dhe duken të vështira

Le të hedhim një vështrim më të afërt në secilën nga udhëzimet ose qasjet e mia të sugjeruara në lidhje me mënyrën se si të përballemi me mosmarrëveshje të tilla profesionale.

Inteligjenca artificiale dhe njerëzit e bashkuar i zgjidhin gjërat (miqësisht ose jo)

Unë e filloj listën me mundësinë e drejtpërdrejtë që AI dhe njeriu-in-the-loop janë në gjendje të zgjidhin mosmarrëveshjen profesionale mes tyre. Duket se ndoshta shembulli i dy njerëzve, pilotit dhe kopilotit, ilustrojnë këtë lloj rrethane. Ata vendosën disi të ktheheshin në terminal dhe të shkonin në rrugët e tyre të ndara. Mund të ndodhë që një sistem AI dhe një njeri të jenë në gjendje të kuptojnë një qasje zgjidhëse që përgjithësisht është e kënaqshme për të dyja palët dhe çështja është përfunduar kështu në mënyrë të kënaqshme.

Njeriu mbizotëron mbi AI, si parazgjedhje

Kur konfigurojmë AI, ne mund të programojmë një rregull që thotë se njeriu-në-the-loop do të mbizotërojë gjithmonë sa herë që lind një mosmarrëveshje profesionale. Ky do të ishte parazgjedhja e koduar në mënyrë eksplicite. Ne gjithashtu mund të lejojmë një formë të anashkalimit, për çdo rast, megjithëse rregulli i qëndrueshëm do të jetë që njeriu të mbizotërojë.

AI mbizotëron mbi njeriun, si parazgjedhje

Kur konfigurojmë AI, ne mund të programojmë një rregull që thotë se AI do të mbizotërojë gjithmonë mbi njeriun në qark sa herë që lind një mosmarrëveshje profesionale. Ky është parazgjedhja e koduar në mënyrë eksplicite. Ne gjithashtu mund të lejojmë një formë të anashkalimit, për çdo rast, megjithëse rregulli i qëndrueshëm do të jetë që AI të mbizotërojë.

Disa rezolucion të tjera fikse të paracaktuara mbizotërojnë, si parazgjedhje

Kur konfigurojmë AI, ne mund të programojmë një rregull që thotë se disa rezolucione të tjera fikse të paracaktuara do të mbizotërojnë sa herë që lind një mosmarrëveshje profesionale me njeriun në lak. Human-in-the-loop nuk mbizotëron si parazgjedhje. AI nuk mbizotëron si parazgjedhje. Ka një zgjidhje tjetër të paraidentifikuar. Për shembull, ndoshta është hedhja e një monedhe që do të përdoret për të vendosur se cila nga dy palët konsiderohet rruga e duhur për të ndjekur. Kjo padyshim do të dukej mjaft arbitrare; Kështu, një shembull tjetër përqasjeje do të ishte që një rregull i specializuar fillon në atë që llogarit një vlerë bazuar në inputet nga të dy palët dhe arrin në një rezultat si një barazim.

Njeriu i palës së tretë është i lidhur dhe treguesi i tyre mbizotëron mbi palët

Pas një mosmarrëveshjeje profesionale, një rregull mund të jetë që një palë e tretë që është njeri thirret dhe futet në mjedis për të marrë një vendim për zgjidhjen e mosmarrëveshjes. Inteligjenca artificiale është programuar që t'i nënshtrohet çdo gjëje që vendos njeriu i palës së tretë. Njeriu tashmë në ciklin e njeriut është udhëzuar paraprakisht që nëse lind një situatë e tillë, edhe ata duhet t'i kalojnë njeriut të palës së tretë. Si mënjanë, ka të ngjarë të parashikoni që njeriu në lak mund të ketë ankth për të aderuar në çdo gjë që vendos njeriu i palës së tretë nëse vendimi nuk pajtohet me qëndrimin e njeriut në lak.

Inteligjenca artificiale e palës së tretë është e lidhur dhe treguesi i saj mbizotëron mbi palët

Pas një mosmarrëveshjeje profesionale, një rregull mund të jetë që një palë e tretë që është një sistem tjetër i AI të thirret dhe të futet në mjedis për të marrë një vendim për zgjidhjen e mosmarrëveshjes. Inteligjenca artificiale origjinale është programuar që t'i nënshtrohet çdo gjëje që vendos AI i palës së tretë. Njeriu tashmë në ciklin e njeriut është udhëzuar paraprakisht që nëse lind një situatë e tillë, edhe ata duhet t'i kalojnë AI-së së palës së tretë. Si mënjanë, ka të ngjarë të parashikoni që njeriu në lak mund të ketë ankth për aderimin në çdo gjë që vendos AI i palës së tretë nëse vendimi nuk pajtohet me qëndrimin e njeriut në lak.

Njeriu i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri

Pas një mosmarrëveshjeje profesionale, njeriu-in-the-loop zëvendësohet nga një palë e tretë që është një njeri dhe që bëhet tani e tutje njeriu-in-the-loop. Njeriu që ishte njeriu fillestar në lak për detyrën nuk konsiderohet më pjesë e detyrës në fjalë. Është një aspekt i hapur për atë që ndodh ndryshe me njeriun-in-the-loop tashmë të zëvendësuar, por ne po themi se me siguri ata nuk kanë më ndonjë rol të vazhdueshëm në detyrën e punës.

AI e palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri

Pas një mosmarrëveshjeje profesionale, AI zëvendësohet nga një AI e palës së tretë dhe kjo bëhet tani e tutje AI që përdoret për detyrën e punës në fjalë. AI që fillimisht po përdorej për detyrën nuk konsiderohet më pjesë e detyrës në fjalë. Është një aspekt i hapur për atë që ndodh ndryshe me AI-n e zëvendësuar tani, por ne po themi se me siguri AI nuk ka më ndonjë rol të vazhdueshëm në detyrën e punës.

Njeriu i palës së tretë zëvendëson AI ekzistuese, gjërat vazhdojnë përsëri (tani nga njeriu në njeri)

Pas një mosmarrëveshjeje profesionale, AI zëvendësohet nga një person i palës së tretë, për të cilin ai person tani bëhet pala e konsideruar e bashkë-ekipit që do të përdoret për detyrën e punës në fjalë. AI që fillimisht po përdorej për detyrën nuk konsiderohet më pjesë e detyrës në fjalë. Është një aspekt i hapur për atë që ndodh ndryshe me AI-n e zëvendësuar tani, por ne po themi se me siguri AI nuk ka më ndonjë rol të vazhdueshëm në detyrën e punës. Shkurtimisht, kjo tani bëhet një detyrë e kryer nga njeriu në njeri nga dy palë.

AI i palës së tretë zëvendëson njeriun ekzistues, gjërat vazhdojnë përsëri (tani AI-te-AI)

Pas një mosmarrëveshjeje profesionale, "human-in-the-loop" zëvendësohet nga një AI e palës së tretë dhe kjo AI bëhet tash e tutje plotësuesi për njeriun-in-the-loop paraardhës. Njeriu që ishte njeriu fillestar në lak për detyrën nuk konsiderohet më pjesë e detyrës në fjalë. Është një aspekt i hapur për atë që ndodh ndryshe me njeriun-in-the-loop tashmë të zëvendësuar, por ne po themi se me siguri ata nuk kanë më ndonjë rol të vazhdueshëm në detyrën e punës. Shkurtimisht, kjo tani bëhet një AI-to-AI me dy palë për të kryer detyrën.

tjetër

Mund të krijohen variacione të tjera për të përballuar një mosmarrëveshje profesionale, por ne kemi mbuluar këtu disa nga themelet.

Si të vendosim se cila nga këto qasje do të jetë e duhura për një situatë të caktuar?

Një gamë e gjerë çështjesh hyjnë në marrjen e një zgjedhjeje të tillë. Ka konsiderata teknologjike. Ka konsiderata biznesi. Ka konsiderata ligjore dhe etike.

Në një farë mase, kjo është arsyeja pse Etika e AI dhe UA Etike janë një temë kaq e rëndësishme. Rregullat e Etikës së AI na bëjnë të qëndrojmë vigjilentë. Teknologët e AI ndonjëherë mund të preokupohen me teknologjinë, veçanërisht me optimizimin e teknologjisë së lartë. Ata nuk janë domosdoshmërisht duke marrë parasysh degëzimet më të mëdha shoqërore. Të kesh një mentalitet të Etikës së AI dhe ta bësh këtë në mënyrë integrale në zhvillimin dhe zbatimin e AI është jetike për prodhimin e AI të përshtatshme, duke përfshirë (ndoshta çuditërisht ose në mënyrë ironike) vlerësimin se si Etika e AI adoptohet nga firmat.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Në fakt, ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në këtë moment të këtij diskutimi me peshë, do të vë bast se ju dëshironi disa shembuj ilustrues që mund të shfaqin këtë temë. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të inteligjencës artificiale është shfaqja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në inteligjencë artificiale ndonjë gjë në lidhje me zgjidhjet e mosmarrëveshjeve me AI dhe njerëzit, dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makinat që drejtojnë vetë dhe mosmarrëveshja e AI-përkundrejt-njerëzore

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Shpresoj që kjo të sigurojë një seri të mjaftueshme paralajmërimesh për të mbështetur atë që do të tregoj.

Për automjetet plotësisht autonome mund të mos ketë asnjë shans për një mosmarrëveshje profesionale midis një njeriu dhe inteligjencës artificiale për shkak të mundësisë që të mos ketë asnjë njeri në lak për të filluar. Aspirata e shumë prej prodhuesve të sotëm të makinave vetë-drejtuese është të largojnë shoferin njerëzor plotësisht nga detyra e drejtimit. Automjeti nuk do të përmbajë as kontrolle drejtimi të aksesueshme nga njerëzit. Në atë rast, një shofer njerëzor, nëse është i pranishëm, nuk do të jetë në gjendje të marrë pjesë në detyrën e vozitjes pasi nuk ka akses në çdo kontroll të drejtimit.

Për disa automjete plotësisht autonome, disa dizajne ende lejojnë që një njeri të jetë në lak, megjithëse njeriu nuk duhet të jetë i disponueshëm ose të marrë pjesë fare në procesin e drejtimit. Kështu, një person mund të marrë pjesë në ngarje, nëse personi dëshiron ta bëjë këtë. Sidoqoftë, në asnjë moment AI nuk varet nga njeriu për të kryer ndonjë nga detyrat e drejtimit.

Në rastin e automjeteve gjysmë autonome, ekziston një marrëdhënie dorë më dorë midis shoferit njerëzor dhe AI. Shoferi njerëzor mund të marrë përsipër kontrollet e drejtimit tërësisht dhe në thelb të ndalojë AI të marrë pjesë në drejtimin e automjetit. Nëse shoferi njerëzor dëshiron të rivendosë AI në rolin drejtues, ata mund ta bëjnë këtë, megjithëse kjo ndonjëherë e detyron njeriun të heqë dorë nga kontrollet e drejtimit.

Një formë tjetër e operimit gjysmë-autonom do të kërkonte që drejtuesi i njeriut dhe AI ​​të punojnë së bashku në një mënyrë ekipore. Inteligjenca artificiale po drejton dhe njeriu po drejton. Ata janë duke vozitur së bashku. Inteligjenca artificiale mund t'i kalojë njeriut. Njeriu mund t'i nënshtrohet AI.

Në një moment, sistemi i drejtimit të AI dhe shoferi njerëzor në lak mund të arrijnë një pikë të një "mosmarrëveshjeje profesionale" për sa i përket detyrës së drejtimit në fjalë.

Për të ilustruar se si disa nga rregullat e lartpërmendura për trajtimin e një mosmarrëveshjeje profesionale mund të jenë sfiduese për t'u zbatuar, merrni parasysh shembullin e thirrjes së një personi të palës së tretë për të hyrë në këtë çështje dhe për të ofruar një vendim për të zgjidhur çështjen e pazgjidhur.

Supozoni se një prodhues automjetesh ose një firmë teknologjike vetëdrejtuese ka rregulluar që operatorët njerëzorë në distancë të kenë akses në kontrollet e drejtimit të automjeteve brenda flotës së tyre. Operatori njerëzor është ulur në një zyrë të largët ose në një mjedis të ngjashëm. Nëpërmjet një sistemi kompjuterik, ata janë në gjendje të shikojnë skenën e vozitjes duke aksesuar kamerat dhe pajisjet e tjera sensore të ngarkuara në makinën vetë-drejtuese. Për ta, kjo është pothuajse si të luash një lojë video në internet, megjithëse, sigurisht, rrethanat e jetës reale kanë pasoja potencialisht të tmerrshme.

Një sistem AI dhe një shofer njerëzor brenda makinës po drejtojnë një automjet gjysmë autonom në një autostradë të gjatë. Krejt papritur, AI dëshiron të futet në një hendek. Shoferi njerëzor nuk dëshiron ta bëjë këtë. Të dy po përleshen për kontrollet e drejtimit.

Si do të zgjidhet kjo?

Ndoshta mund të kishim vendosur që më parë se njeriu fiton gjithmonë. Supozoni se ne kemi zgjedhur të mos e bëjmë këtë.

Mund të kishim vendosur që më parë se AI fiton gjithmonë. Supozoni se ne vendosëm të mos e bëjmë këtë. Në përgjithësi, ne nuk miratuam asnjë nga ato rregulla, përveçse vendosëm të lejojmë që një person i palës së tretë të ndërhyjë dhe të zgjidhë një mosmarrëveshje profesionale të çfarëdo natyre thelbësore.

Në këtë rast përdorimi, AI dhe shoferi i njeriut në timon po luftojnë për kontrollet e drejtimit. Kjo le të themi i përcillet operatorit të njeriut në distancë (njerëzit tonë të palës së tretë). Operatori njerëzor në distancë ekzaminon atë që po ndodh dhe vendos të largohet nga gropa, duke shmangur atë që AI po përpiqej të bënte. Në të njëjtën kohë, supozoni se operatori i largët i njeriut drejton trafikun që vjen përballë, gjë që ndoshta as AI dhe as drejtuesi i njeriut brenda makinës nuk kishin dashur ta bënin.

Çështja është se mënyra në të cilën është zbatuar ky rregull është se operatori njerëzor i palës së tretë është në gjendje të anashkalojë plotësisht si AI-n ashtu edhe njeriun-in-the-loop. Nëse kjo do të sjellë një rezultat të mirë, sigurisht që nuk është e sigurt.

Unë do ta përdor këtë shembull për të nënvizuar disa njohuri të shtuara mbi këto çështje.

Ju nuk mund të bëni supozimin e pacipë se vetëm për shkak se një nga këto rregulla zbatohet, rezultati i mosmarrëveshjes së zgjidhur është domosdoshmërisht një rezultat i mirë i garantuar. Mund të mos jetë. Nuk ka asnjë lloj rregulli gjithmonë të drejtë të hekurt që mund të zgjidhet.

Më pas, disa nga këto rregulla mund të mos jenë të zbatueshme në mënyrë praktike.

Konsideroni shembullin e operatorit njerëzor në distancë që ndërhyn kur AI dhe shoferi njerëzor po grinden mbi kontrollet e drejtimit. Mund të duhen shumë sekonda kohë që operatori në distancë të kuptojë se çfarë po ndodh. Deri atëherë, automjeti mund të kishte përfunduar tashmë në hendek ose të kishte ndonjë rezultat tjetër negativ. Gjithashtu, supozoni se vendndodhja e automjetit përjashton aksesin në distancë, si p.sh. të qenit në një vend ku nuk ka lidhje elektronike në rrjet. Ose ndoshta veçoritë e rrjetit të automjetit nuk po funksionojnë në atë moment të caktuar.

Siç mund ta shihni, rregulli mund të duket i shkëlqyeshëm në letër, megjithëse vendosja e rregullit në përdorim aktual mund të jetë një qasje shumë e vështirë ose shumë e mundshme. Shihni mbulimin tim me sy kritik në operatorin në distancë të automjeteve autonome dhe makinave vetë-drejtuese në lidhja këtu.

Do të doja të mbuloja shkurtimisht një temë tjetër të lidhur që do të mbuloj më në thellësi në një analizë të ardhshme.

Një nga shqetësimet në rritje për automjetet autonome dhe makinat vetë-drejtuese që janë gjysmë autonome është i ashtuquajturi Sindroma e patates së nxehtë.

Këtu është marrëveshja.

Një sistem drejtimi i AI dhe një njeri po drejtojnë bashkë. Shfaqet një gjendje e rëndë. Inteligjenca artificiale është programuar të heqë dorë nga detyra e drejtimit dhe t'i dorëzojë gjërat te njeriu kur ndodh një moment i tmerrshëm. Kjo duket ndoshta "e arsyeshme" në atë që ne duket se po thirremi në rregullin për qenien njerëzore "fituesin" e paracaktuar në çdo mosmarrëveshje të mundshme profesionale.

Por braktisja e inteligjencës artificiale mund të jetë për qëllime më të liga ose të konsideruara tinëzare. Mund të ndodhë që prodhuesi i automjeteve ose firma e teknologjisë që drejton vetën nuk dëshiron që AI i tyre të konsiderohet si "faji" kur ndodh një aksident me makinë. Për të shmangur në dukje ngecjen në atë mënyrë, AI ia dorëzon befas kontrollet njeriut. Voila, njeriu tani me sa duket është plotësisht përgjegjës për automjetin.

Shkëlqimi është se supozoni se AI e bën këtë dorëzim me le të themi një sekondë para se të ndodhë një përplasje.

A do të kishte vërtet njeriu ndonjë kohë në dispozicion për të shmangur përplasjen?

Me gjasë jo.

Supozoni se AI bën dorëzimin me disa milisekonda ose nanosekonda të mbetura për të shkuar. Unë guxoj të them se njeriu ka në thelb zero shanse për të bërë asgjë për të shmangur përplasjen.

Nga këndvështrimi i prodhuesit të automjeteve ose firmës së makinave që drejtojnë vetë, ata mund të përpiqen të sillen sikur duart e tyre të ishin të pastra kur ndodh një përplasje e tillë me makinë. Makina drejtohej nga një person. Inteligjenca artificiale nuk po drejtonte makinën. I vetmi përfundim "logjik" duket se është se njeriu duhet të jetë në faj dhe AI ​​duhet të jetë plotësisht i pafajshëm.

Është një pjatë.

Unë do ta diskutoj këtë më në thellësi në një rubrikë të ardhshme.

Përfundim

Mosmarrëveshjet profesionale do të ndodhin.

Është e vështirë të imagjinohet ndonjë detyrë komplekse që ka dy palë që e kryejnë detyrën bashkë dhe për të cilën nuk do të kishte kurrë ndonjëherë ndonjë mosmarrëveshje profesionale. Kjo duket si një vend fantazi ose të paktën një gjë e rrallë.

Sot, ne kemi shumë e shumë raste të mosmarrëveshjeve profesionale nga njeriu në njeri, për të cilat në baza ditore rezolutat merren në mënyrë paqësore dhe të arsyeshme në një mënyrë ose në një tjetër. Në fakt, ne shpesh krijojmë situata qëllimisht për të nxitur dhe shfaqur mosmarrëveshje profesionale. Ju mund të argumentoni se kjo tregon mençurinë e famshme që ndonjëherë dy koka janë më të mira se një.

Ndërsa AI bëhet më i përhapur, ne do të kemi shumë ekzekutues detyrash dypalëshe nga AI për njeriun ose nga njeriu me AI dhe do të ketë mosmarrëveshjet profesionale që do të ndodhë. Qasja dembele është që gjithmonë t'i drejtoheni njeriut. Kjo mund të mos jetë qasja më e përshtatshme. AI mund të jetë zgjidhja më e mirë. Ose një nga rregullat e tjera të lartpërmendura mund të jetë një qasje më e shëndoshë.

Ekziston ajo linjë e urtë që përsëritet shpesh se ne të gjithë duhet të jemi në gjendje të biem dakord të mos pajtohemi, megjithëse kur bëhet fjalë për tela, ndonjëherë një mosmarrëveshje duhet të zgjidhet pa mëdyshje, përndryshe çështja në fjalë do të çojë në fatkeqësi të patregueshme. Nuk mund të lejojmë që një mosmarrëveshje të zbehet në hardhi. Koha mund të jetë thelbësore dhe jetët mund të jenë në rrezik.

Ekziston një kërkesë e qartë për disa mjete të kujdesshme për të zgjidhur mosmarrëveshjet, edhe nëse jo domosdoshmërisht në mënyrë të kënaqshme, duke përfshirë kur AI dhe një njeri në lak nuk po shohin sy më sy e as bajt për bajt.

Unë besoj se ju nuk do të pajtoheni me atë argument krejtësisht të këndshëm.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- piloti-dhe-bashkë-piloti-nuk u pajtuan-para-zbritje-dhe-papritmas-zgjodhi-taksi-kthehej-në-terminal-dhe-shkon-mënyrat e tyre-veçmas/