Etika e inteligjencës artificiale turbullohet rreth sindromës së patates në rritje që përdoret nga krijuesit e AI me sa duket duke u përpjekur të shmangin përgjegjësinë për sistemet e tyre autonome që vendosin për jetën

Të gjithë e dimë se duhet të siguroheni që të mos përfundoni me pataten e nxehtë proverbiale.

Gambiti i nxehtë i patates duket se i ka rrënjët të paktën në fund të viteve 1800, kur një lojë sallonesh me qirinj të ndezur e bëri topin të rrotullohej. Njerëzit zakonisht do të ulen në një seri karrigesh prej druri që ishin relativisht ngjitur me njëra-tjetrën dhe luanin një lojë krejtësisht emocionuese në atë epokë. Një qiri i ndezur do të dorëzohej nga personi në person nga lojtarët dhe përfaqësonte atë që ne, më vonë, zgjodhëm ta shprehnim si dorëzim patate e nxehtë.

Ishte zakon që çdo personi t'i kërkohej të fliste me zë të lartë një rimë popullore përpara se të kalonin përgjatë qiririt që digjej në mënyrë progresive. Rima me sa duket shkoi kështu:

“Xheku është gjallë dhe ka gjasa të jetojë;

Nëse ai vdes në dorën tuaj, ju keni një humbje për të dhënë.”

Ky recital me rimë me sa duket do t'i lejonte qiriut pak kohë që të vazhdojë të digjet drejt përfundimit të tij përfundimtar. Kushdo që ngecte me qirinjën në posedim pas shuarjes natyrale në fund ishte personi që humbi ndeshjen (punë e fjalës!).

Sipas fjalëve të treguara në rimë, humbësi duhej të paguante "humbjen" dhe kështu zakonisht duhej të dilte nga çdo raund tjetër i lojës. Kjo më pas mund të kombinohet me ato që ne sot i konsiderojmë si karrige muzikore të përditshme, në mënyrë që personi që ka humbur raundin të mos marrë më pjesë në raundet e mëpasshme (sikur muzika të ndalonte dhe ata nuk ishin në gjendje të zinin një vend të lirë). Në fund të fundit, do të kishin mbetur vetëm dy persona që kalonin qirinjën e ndezur dhe thoshin rimën, derisa të përcaktohej fituesi përfundimtar në fikjen përfundimtare.

Ju mund të pyesni veten pse ne nuk e luajmë më këtë lojë me një qiri të ndezur dhe pse ne në vend të kësaj zakonisht i referohemi kësaj si një patate e nxehtë në vend që ta përshkruajmë këtë si një skemë "qiri të ndezur". Studiuesit kanë dalë me shumë teori se si kjo ndodhi gradualisht. Historia duket e turbullt dhe e pavendosur se si kanë evoluar gjërat në këtë çështje. Unë supozoj se mund të jemi të lehtësuar që qirinjtë e ndezur zakonisht nuk përdoren kështu, pasi mundësitë që diçka të shkojë keq do të dukeshin shumë shqetësuese (dikush e lëshon qirinjën dhe ndez një zjarr, ose dikush digjet nga qiri kur i jepet nga një lojtar tjetër, etj.).

Për sa i përket patateve të nxehtë si një zëvendësues i mundshëm për qirinjën e ndezur, në përgjithësi mund të argumentoni se patatja do të jetë disi më e sigurt në përgjithësi. Asnjë flakë e hapur. Nuk ka dyll të shkrirë. Baza e mundshme për përdorimin e patateve në këtë kontekst është se ato dihet se ruajnë lehtësisht nxehtësinë pasi të jenë ngrohur. Mund ta kaloni pataten përreth dhe do të qëndrojë e nxehtë për pak kohë. Dikush supozon se vendosja kur patatja e nxehtë nuk është më e nxehtë dhe përkundrazi vlerësohet si e ftohtë do të ishte një propozim shumë i diskutueshëm.

Sigurisht, nocioni i një patate të nxehtë proverbiale është më shumë një konsideratë e pavarur këto ditë. Çdo gjë që vlerësohet ose renditet si një patate e nxehtë është zakonisht e një cilësie serioze për të hequr qafe. Ju nuk dëshironi të mbani një patate të nxehtë. Ju dëshironi të siguroheni që të shkojë diku tjetër. Në një farë mase, mund të mos shqetësoheni tepër se ku shkon, thjesht se nuk është më në zotërimin tuaj.

Do të dukeshit shumë i pashpirt nëse mund t'i jepni një patate të nxehtë një miku të dashur ose një të njohuri të ngjashëm. Kjo do të dukej krejtësisht jashtë llojit. Ndoshta gjeni dikë tjetër ose diku tjetër për të vendosur atë patate të nxehtë, nëse mund ta bëni këtë. Një veprim i dëshpëruar mund të jetë t'i detyrosh patatet e nxehta një kolegu të dashur, por kjo shpresojmë të bëhet vetëm si mjeti i fundit.

Ana tjetër e asaj medalje është se mund të kënaqeni duke i dorëzuar një patate të nxehtë dikujt që nuk ju pëlqen ose të cilit po kërkoni hakmarrje. Sigurisht, një patate e nxehtë mund të jetë pothuajse shumë e dobishme nëse synoni të nënvlerësoni një person që ju ka trajtuar keq. Lërini të kuptojnë se çfarë të bëjnë me pataten e nxehtë. Largim të mirë për pataten dhe fat më të keq për personin me të cilin e keni etiketuar.

Në një skenar të patates së nxehtë që përfshin vetëm dy persona, ekziston mundësia e një mosmarrëveshjeje të shpejtë përpara dhe mbrapa lidhur me atë se cili person po mban sendin e pakëndshëm dhe të padëshiruar. Për shembull, unë jua dorëzoj pataten e nxehtë dhe ju ma ktheni me nxitim. Duke supozuar se nuk kemi nevojë të shpallim një rimë për fëmijë midis çdo dorëzimi, ne mund të kalojmë pak a shumë përgjatë patateve aq shpejt sa na lejojnë krahët ta bëjmë këtë.

Ju mund të jeni kurioz se pse kam zgjedhur të bëj një zhytje të thellë në pataten e nxehtë të nderuar dhe të cituar shpesh.

Ja pse.

Rezulton se maska ​​e patates së nxehtë po përdoret gjithnjë e më shumë në fushën e Inteligjencës Artificiale (AI).

Shumica e njerëzve nuk dinë asgjë për të. Ata kurrë nuk kanë dëgjuar për të. Ata janë plotësisht të pavetëdijshëm se çfarë është. Edhe shumë zhvillues të AI nuk janë të vetëdijshëm për këtë çështje. Sidoqoftë, ai ekziston dhe duket se po përdoret në mjedise vërtet të diskutueshme, veçanërisht në raste që përfshijnë rrethana jetë ose vdekje.

Unë i referohem kësaj si AI Sindroma e patates së nxehtë.

Ka shumë pasoja serioze që qëndrojnë në themel të kësaj sindrome dhe ne duhet të sigurohemi që të vendosim kapakët tanë të të menduarit të Etikës së AI dhe të shqyrtojmë se çfarë duhet bërë. Ka konsiderata të kthjellta etike. Duhet të ketë gjithashtu implikime të dukshme ligjore (të cilat nuk kanë arritur ende dukshmërinë shoqërore, megjithëse parashikoj se së shpejti do të jenë). Për mbulimin tim të vazhdueshëm dhe të gjerë të çështjeve të Etikës së AI, UA Etike dhe çështjeve ligjore të AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Le të shpaketojmë Sindroma e patates së nxehtë të AI.

Imagjinoni një sistem AI që punon së bashku me një njeri. Inteligjenca artificiale dhe njeriu po kalojnë kontrollin e disa aktiviteteve në zhvillim, të tilla që nganjëherë njeriu është në kontroll ndërsa herë të tjera AI është në kontroll. Kjo mund të bëhet fillimisht në një mënyrë, do të themi me sjellje të mirë ose të arsyeshme. Për arsye të ndryshme, të cilat do t'i hyjmë momentalisht, AI mund të konstatojë në mënyrë llogaritëse se kontrolli duhet t'i kalohet me ngut njeriut.

Kjo është patate e nxehtë që vjen në rrezikimin e jetës në botën reale në vend që të shërbejë thjesht si një lojë mësimore për fëmijë.

Problemi me një kalim të shpejtë të kontrollit nga AI tek njeriu është se kjo mund të bëhet në një mënyrë të arsyeshme ose mund të arrihet në një mënyrë mjaft të paarsyeshme. Nëse njeriu nuk e pret veçanërisht dorëzimin, ky ka të ngjarë të jetë një problem. Nëse njeriu në përgjithësi është në rregull me kalimin e kontrollit, rrethanat në bazë të dorëzimit mund të jenë të frikshme kur njeriut i jepet kohë e pamjaftueshme ose nuk ka vetëdije të mjaftueshme se përse kontrolli po ushqehet me forcë në duart e tyre njerëzore.

Ne do të shqyrtojmë shembuj se si kjo mund të prodhojë rrezik për jetë ose vdekje për njeriun dhe ndoshta njerëzit e tjerë aty pranë. Është gjë serioze. Periudha, pikë.

Përpara se të futemi në disa nga aspektet mishtore të konsideratave të egra dhe të leshta që qëndrojnë në themel të Sindroma e patates së nxehtë të AI, le të parashtrojmë disa baza shtesë mbi tema thellësisht thelbësore. Ne duhet të bëjmë shkurtimisht një zhytje të shpejtë në Etikën e AI dhe veçanërisht ardhjen e Mësimit të Makinerisë (ML) dhe Mësimit të Thellë (DL).

Ju mund të jeni paksa të vetëdijshëm se një nga zërat më të lartë këto ditë në fushën e AI dhe madje edhe jashtë fushës së AI konsiston në thirrjet për një pamje më të madhe të AI Etike. Le të hedhim një vështrim se çfarë do të thotë t'i referohemi Etikës së AI dhe AI ​​Etike. Për më tepër, ne do të shqyrtojmë se çfarë dua të them kur flas për Mësimin e Makinerisë dhe Mësimin e Thellë.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe shpërndahen në mënyrë që personeli përkatës të ketë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurën dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Le të sigurohemi gjithashtu se jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Le të kthehemi te fokusi ynë te patatja e nxehtë dhe përdorimi i saj potencialisht katastrofik në AI. Ekziston gjithashtu një djallëzi që mund të fshihet edhe brenda dredhisë së nxehtë të patates.

Si një përmbledhje e shpejtë në lidhje me manifestimin e AI të gambit të nxehtë të patates:

  • Inteligjenca artificiale dhe një njeri-in-the-loop po punojnë së bashku në një detyrë të caktuar
  • AI ka kontroll disa herë
  • Njeriu-in-the-loop ka kontroll disa herë
  • Ekziston një formë e protokollit të dorëzimit midis AI dhe njeriut
  • Dorëzimi mund të jetë shumë i dukshëm, ose mund të jetë delikat dhe pothuajse i fshehur
  • Kjo zakonisht ndodh brenda një konteksti në kohë reale (diçka është duke u zhvilluar në mënyrë aktive)

Fokusi kryesor këtu është kur dorëzimi është në thelb një patate e nxehtë dhe AI ​​zgjedh që papritur t'ia dorëzojë kontrollin njeriut. Ju lutemi vini re se më vonë këtu do të mbuloj edhe aspektin tjetër, domethënë kontrollin e dorëzimit të njeriut tek AI si një patate e nxehtë.

Së pari, merrni parasysh se çfarë mund të ndodhë kur AI bën një dorëzim të nxehtë të patates tek një njeri-in-the-loop.

Unë do t'i referohem njeriut si njeriu në lak, sepse po them se njeriu është tashmë pjesë përbërëse e aktivitetit që po punohet. Ne mund të kemi skenarë të tjerë ku një njeri që nuk ishte veçanërisht i përfshirë në aktivitet, ndoshta një i panjohur për të gjithë çështjen, i jepet patatja e nxehtë nga AI, kështu që mbani në mend se shije të tjera të këtij mjedisi ekzistojnë.

Nëse do të të dorëzoja një patate të nxehtë dhe do të doja ta bëja në një mënyrë të arsyeshme, ndoshta do t'ju paralajmëroja se do t'jua dorëzoja gjërat. Për më tepër, do të përpiqesha ta bëja këtë nëse do të besoja vërtet se posedimi i patateve të nxehta ishte më i mirë në përgjithësi sesa ta kisha atë. Do të llogarisja mendërisht nëse duhet ta kesh atë apo nëse duhet të vazhdoj me të.

Imagjinoni një lojë basketbolli. Unë dhe ti jemi në të njëjtin ekip. Shpresojmë që të punojmë së bashku për të fituar ndeshjen. Kanë mbetur vetëm pak sekonda në orar dhe na duhet dëshpërimisht të shënojmë, përndryshe do ta humbim ndeshjen. Unë futem në pozicionin për të bërë goditjen e fundit. A duhet ta bëj këtë, apo duhet të të kaloj topin dhe a duhet të bësh goditjen e fundit?

Nëse jam një basketbollist më i mirë dhe kam një shans më të madh për të fundosur goditjen, ndoshta duhet ta mbaj basketbollin dhe të përpiqem të bëj goditjen. Nëse je basketbollist më i mirë se unë, ndoshta duhet të të kaloj topin dhe të të lë të gjuash. Konsiderata të tjera dalin në plan të parë, të tilla si se cili prej nesh është në një pozicion më të mirë në fushë për të kryer goditjen, plus nëse njëri prej nesh është i rraskapitur pasi loja pothuajse ka përfunduar dhe mund të jetë i lodhur dhe jo në nivel. të shtënat e tyre. etj.

Me gjithë ata faktorë në mes të momentit të vështirë, më duhet të vendos nëse do ta mbaj topin apo do ta kaloj tek ju.

Kuptoni qartë se në këtë skenar ora është vendimtare. Ju dhe unë jemi përballur të dy me një përgjigje jashtëzakonisht në kohë. E gjithë loja është tani në linjë. Pasi mbaron ora, ne ose kemi fituar sepse njëri prej nesh ka bërë goditjen, ose kemi humbur pasi nuk e fundosëm atë. Unë ndoshta mund të jem heroi nëse e fundos shportën. Ose mund të bëhesh heroi nëse unë të kaloj topin dhe ti e fundos atë.

Ka edhe anën e dhisë ose dobësitë e kësaj. Nëse mbaj topin dhe humbas goditjen, të gjithë mund të më akuzojnë se jam dhia ose se kam zhgënjyer të gjithë ekipin. Nga ana tjetër, nëse të kaloj topin dhe ti humbet goditjen, mirë, bëhesh dhi. Kjo mund të jetë krejtësisht e padrejtë për ju, sepse ju kam detyruar të jeni gjuajtësi i fundit dhe të bëni goditjen e fundit.

Patjetër që do ta dinit që unë ju vendosa në atë pozitë të pakëndshme. Dhe megjithëse të gjithë mund të më shihnin duke bërë këtë, ata janë të detyruar të përqendrohen vetëm te personi i fundit që kishte topin. Unë ndoshta do të bëj patina pa pagesë. Askush nuk do të kujtohej që të kalova topin në momentin e fundit. Ata do të kujtonin vetëm se kishe topin dhe e humbe lojën sepse nuk e bëre gjuajtjen.

Në rregull, kështu që unë jua kaloj topin.

Pse bëra kështu?

Nuk ka asnjë mënyrë të lehtë për ta përcaktuar këtë.

Synimet e mia të vërteta mund të jenë që nuk doja të ngecja duke qenë dhi, dhe kështu vendosa të bëj të gjithë presionin mbi ju. Kur më pyetën pse kalova topin, mund të pretendoja se e bëra këtë sepse mendova se je gjuajtës më i mirë se unë (por, le të pretendojmë se nuk e besoj fare këtë). Ose mendova se ishe në një pozitë më të mirë se unë (le të pretendojmë se nuk e kam menduar as këtë). Askush nuk do ta dinte kurrë se unë në fakt thjesht po përpiqesha të mos mbërthehesha me pataten e nxehtë.

Nga këndvështrimi i jashtëm i gjërave, askush nuk mund ta dallonte me lehtësi arsyetimin tim të vërtetë për të pasuar topin te ju. Ndoshta e bëra pa faj sepse besoja se ti ishe lojtari më i mirë. Ky është një kënd. Ndoshta e bëra këtë sepse nuk doja që të gjithë të më quanin humbës për shkak të humbjes së goditjes, kështu që ju mora topin dhe mendova se ishte një lehtësim i madh për mua. Nëse unë me të vërtetë kujdesesha për ju është një çështje krejtësisht tjetër.

Tani jemi në gjendje të shtojmë disa detaje të mëtejshme për pataten e nxehtë të lidhur me AI:

  • Inteligjenca artificiale zgjedh t'i japë kontrollin njeriut në lak në momentin e fundit
  • Momenti i fundit tashmë mund të jetë shumë përtej çdo veprimi të zbatueshëm për njeriun
  • Human-in-the-loop ka kontroll, por disi në mënyrë të gabuar për shkak të kohës së dorëzimit

Mendoni këtë për një moment.

Supozoni se një sistem AI dhe një njeri në lak po punojnë së bashku në një detyrë në kohë reale që përfshin drejtimin e një makinerie në shkallë të gjerë në një fabrikë. Inteligjenca artificiale zbulon se makineria është duke u prishur. Në vend që AI të vazhdojë të mbajë kontrollin, AI papritmas ia jep kontrollin njeriut. Makineritë në këtë fabrikë po shkojnë me shpejtësi drejt kaosit të pastër dhe nuk ka kohë që njeriu të ndërmarrë veprime korrigjuese.

Inteligjenca artificiale ia ka dorëzuar pataten e nxehtë njeriut në lak dhe e ka bllokuar njeriun me pataten e vërtetë të nxehtë, në mënyrë që rrethanat të mos jenë më të mundshme për t'u përballuar. Tag, ju jeni ajo, shkon linja e vjetër kur luani lojëra me etiketa si fëmijë. Njeriu është le të themi etiketuar me rrëmujën.

Ashtu si shembulli im për lojën e basketbollit.

Pse AI bëri dorëzimin?

Epo, ndryshe nga kur një njeri dorëzon befas një top basketbolli dhe më pas bën disa tundje të egra me dorë se pse e bënë këtë, ne zakonisht mund të shqyrtojmë programimin e AI dhe të kuptojmë se çfarë e shtyu AI të bënte këtë lloj dorëzimi të nxehtë të patates.

Një zhvillues i AI mund të ketë vendosur që më parë që kur AI futet në një telash vërtet të keq, AI duhet të vazhdojë t'i japë kontrollin njeriut-në-the-loop. Kjo duket krejtësisht e arsyeshme dhe e arsyeshme. Njeriu mund të jetë "lojtari më i mirë" në fushë. Njerëzit mund të përdorin aftësitë e tyre njohëse për të zgjidhur potencialisht çdo problem që është në dispozicion. AI ka mundur të arrijë kufijtë e programimit të saj dhe nuk ka asgjë tjetër konstruktive që mund të bëjë në këtë situatë.

Nëse AI do ta kishte bërë dorëzimin me një minutë të mbetur përpara se makineria të shkonte kablam, ndoshta një minutë kokë lart është mjaft e gjatë që njeriu-in-the-loop të mund t'i korrigjojë gjërat. Supozoni megjithatë se AI e bëri dorëzimin me tre sekonda të mbetura. A mendoni se një njeri mund të reagojë në atë hark kohor? Nuk ka gjasa. Në çdo rast, vetëm për t'i bërë gjërat edhe më pak turbulluese, supozoni se dorëzimi tek njeriu në lak ndodhi me disa nanosekonda të mbetura për të shkuar (një nanosekonda është një e miliarda e sekondës, e cila në krahasim me një injorim të shpejtë të syri është i plogësht 300 milisekonda).

A mund të reagojë mjaftueshëm një njeri-in-the-loop nëse AI i ka dhënë pataten e nxehtë me sekonda të ndara thjesht adoleshente për të ndërmarrë ndonjë veprim të hapur?

Jo.

Dorëzimi është më shumë gënjeshtër sesa mund të duket ndryshe.

Në realitet, dorëzimi nuk do të bëjë ndonjë të mirë kur bëhet fjalë për gjendjen e rëndë. Inteligjenca artificiale e ka shtrënguar njeriun që të bëhet dhi.

Disa zhvillues të AI nuk mendojnë për këtë kur krijojnë AI-n e tyre. Ata (gabimisht) me lumturi nuk e marrin parasysh se koha është një faktor vendimtar. Gjithçka që ata bëjnë është të zgjedhin të programojnë një dorëzim kur gjërat bëhen të vështira. Kur nuk i mbetet asgjë AI për të bërë në mënyrë konstruktive, hidheni topin te lojtari njerëzor.

Zhvilluesit e AI mund të dështojnë të japin ndonjë mendim të përkushtuar për këtë në kohën e kodimit të AI, dhe ata më pas shpesh dështojnë duke dështuar në kryerjen e testeve që e nxjerrin këtë në dritë. Gjithçka që tregon testimi i tyre është se AI "me përkushtim" bëri një dorëzim kur u arritën kufijtë e AI. Voila, AI supozohet të jetë i mirë dhe gati për të shkuar. Testimi nuk përfshinte një njeri aktual që ishte vendosur në atë pozicion të palakmueshëm dhe të pamundur. Nuk kishte një proces të duhur testimi me njeriun në ciklin që mund të kishte protestuar se kjo mbyllje e syve në momentin e fundit, ose në të vërtetë pas momentit të fundit, u bëri atyre pak ose aspak mirë.

Sigurisht, disa zhvillues të inteligjencës artificiale do ta kenë konsideruar me zgjuarsi këtë lloj telashe, me mençuri.

Pasi të shqyrtojnë rebusin, ata do të vazhdojnë të programojnë AI që të veprojë në këtë mënyrë, gjithsesi.

Pse?

Sepse nuk ka asgjë tjetër për të bërë, të paktën në mendjen e tyre. Kur gjithçka tjetër dështon, kontrolloni njeriun. Ndoshta do të ndodhë një mrekulli. Thelbi megjithatë është se kjo nuk është shqetësuese për zhvilluesin e AI, dhe ata po i japin njeriut mundësinë e fundit për të përballuar rrëmujën në fjalë. Zhvilluesi i AI lan duart për çdo gjë që ndodh më pas.

Dua të sqaroj se zhvilluesit e AI nuk janë ideuesit e vetëm të këtyre modeleve të patates së nxehtë. Ka një mori palësh të tjera të interesuara që vijnë në tryezë për këtë. Ndoshta një analist i sistemeve që bëri analizën e specifikimeve dhe kërkesave kishte deklaruar se kjo është ajo që supozohet të bëjë AI. Zhvilluesit e inteligjencës artificiale të përfshirë e krijuan AI në përputhje me rrethanat. Menaxheri i projektit të AI mund ta ketë ideuar këtë. Drejtuesit dhe menaxhmenti që mbikëqyrin zhvillimin e AI mund ta kenë ideuar këtë.

Të gjithë gjatë gjithë ciklit jetësor të zhvillimit të AI mund të kenë çuar përpara të njëjtin dizajn të patates së nxehtë. Nuk mund ta themi me siguri nëse e ka vënë re dikush. Nëse ata do ta kishin vënë re, ata mund të ishin etiketuar si kundërshtues dhe të ishin larguar mënjanë. Të tjerëve mund t'u vihej në vëmendje çështja, por ata nuk i kuptuan pasojat. Ata mendonin se ishte një gjë e vogël teknike që nuk ishte brenda fushës së tyre.

Unë do t'i shtoj kësaj liste joformale të "arsyeve" një mundësi shumë më të keqe.

Sindroma e patates së nxehtë të AI ndonjëherë përdoret qëllimisht, sepse ata që bëjnë AI donin të kishin pretendimin e tyre të pasionuar për mohim të besueshëm.

Bëhuni gati për këtë pjesë të përrallës.

Në rastin e makinerisë së fabrikës që shkon keq, me siguri do të ketë shumë gishta për të treguar se kush është përgjegjës për atë që ndodhi. Për sa i përket operimit të makinerive, ne kishim një sistem AI që e bënte këtë dhe kishim një njeri-in-the-loop që e bënte këtë. Këta janë dy basketbollistet tanë, metaforikisht.

Ora po ecte dhe makineria ishte në prag të kabumit. Le të themi se ju dhe unë e dimë se AI bëri një dorëzim tek njeriu në lak, duke e bërë këtë me kohë të pamjaftueshme që njeriu të ndërmarrë ndonjë veprim të mjaftueshëm për të korrigjuar ose shmangur katastrofën. Askush tjetër nuk e kupton se kjo është ajo që ndodhi.

Firma që prodhon inteligjencën artificiale në çdo rast mund të deklarojë menjëherë se ata nuk kanë faj sepse njeriu kishte kontrollin. Sipas të dhënave të tyre të patëmetë, AI nuk ishte në kontroll në kohën e kabumit. Njeriu ishte. Prandaj, është qartësisht e qartë se një njeri është fajtor.

A gënjen në thelb kompania e AI kur bën këtë pohim të hapur?

Jo, duket se po thonë të vërtetën.

Kur u pyetën nëse ata janë të sigurt se AI nuk ishte në kontroll, kompania do të shpallte me zë të lartë dhe me krenari se AI nuk ishte fare në kontroll. Ata kanë dokumentuar prova të këtij pohimi (duke supozuar se AI ka mbajtur një regjistër të incidentit). Në fakt, drejtuesit e kompanisë së AI mund të ngrenë vetullat me neveri se dikush do të sfidonte integritetin e tyre në këtë pikë. Ata do të ishin të gatshëm të betoheshin në betimin e tyre të shenjtë se AI ishte nuk në kontroll. Njeriu-in-the-loop kishte kontrollin.

Besoj se e shihni se sa mashtruese mund të jetë kjo.

Po, njeriut iu dorëzua kontrolli. Në teori, njeriu ishte në kontroll. AI nuk ishte më në kontroll. Por mungesa e kohës dhe njoftimit të disponueshëm e bën këtë një pretendim jashtëzakonisht të zbrazët.

E bukura e kësaj, nga këndvështrimi i krijuesit të AI, do të ishte se pakkush mund të sfidonte pretendimet e ofruara. Prodhuesi i AI mund të mos publikojë regjistrat e incidentit. Një veprim i tillë mund të largojë situatën e manipuluar. Regjistrat argumentohen si pronë intelektuale (IP) ose ndryshe të një natyre pronësore dhe konfidenciale. Firma ka të ngjarë të pretendojë se nëse regjistrat do të tregoheshin, kjo do të shfaqte salcën sekrete të AI-së së tyre dhe do të shteronte IP-në e tyre të çmuar.

Imagjinoni gjendjen e rëndë të njeriut të varfër në lak. Ata janë të hutuar që të gjithë po i fajësojnë se i kanë lënë gjërat të dalin jashtë kontrollit. AI "bëri gjënë e duhur" dhe ia dorëzoi kontrollin njeriut. Kjo mund të ketë qenë ajo që specifikimet thanë se do të bënin (përsëri, megjithatë, specifikimet ishin të gabuara duke mos marrë parasysh faktorët e kohës dhe të fizibilitetit). Regjistrat që nuk janë publikuar, por pretendohet se janë të hekurosura nga prodhuesi i AI dëshmojnë për faktin absolut se njeriut i ishte dhënë kontrolli nga AI.

Ju mund ta deklaroni këtë si një përplasje të dhimbshme për njeriun e hutuar që pothuajse me siguri do të marrë rënien.

Gjasat janë që vetëm nëse kjo shkon në gjykatë, realiteti i asaj që ndodhi do të përfundonte duke u zbuluar. Nëse beagles mendjemprehtë legalë janë të vetëdijshëm për këtë lloj koncerti, ata do të përpiqen të marrin ligjërisht trungjet. Ata do të duhet të marrin një dëshmitar ekspert (diçka që kam bërë herë pas here) për të deshifruar shkrimet. Vetëm regjistrat mund të mos jenë të mjaftueshëm. Regjistrat mund të korrigjohen ose ndryshohen, ose të krijohen qëllimisht për të mos shfaqur qartë detajet. Si i tillë, kodi i AI mund të duhet gjithashtu të thellohet.

Ndërkohë, gjatë gjithë këtij procesi të mundimshëm dhe të gjatë të zbulimit ligjor, njeriu-in-the-loop do të dukej vërtet keq. Mediat do ta përshkruanin personin si të papërgjegjshëm, të humbur kokën, të dështuar të jenë të zellshëm dhe duhet të mbahen plotësisht përgjegjës. Ndoshta për muaj apo vite, gjatë këtij procesi, ai person do të ishte ende ai që të gjithë drejtonin gishtin akuzues. Era e keqe nuk mund të hiqet kurrë.

Mbani në mend gjithashtu se e njëjta rrethanë mund të përsëritet lehtësisht. Dhe perseri. Duke supozuar se krijuesi i AI nuk e ka ndryshuar AI, sa herë që lind një situatë e ngjashme në minutën e fundit, AI do të bëjë atë dorëzim pa kohë të majtë. Dikush do të shpresonte që këto situata të mos ndodhin shpesh. Në rastet e rralla ku ndodh, njeriu-in-the-loop është ende djali i përshtatshëm i vjeshtës.

Është një truk djallëzor.

Ju mund të dëshironi të këmbëngulni se krijuesi i AI nuk ka bërë asgjë të keqe. Ata po thonë të vërtetën. AI hoqi dorë nga kontrolli. Njeriu më pas u konsiderua në kontroll. Këto janë faktet. Nuk ka kuptim ta kundërshtosh atë.

Nëse dikush mendon dhe bën pyetje të vështira, plus nëse krijuesi i AI u përgjigjet atyre pyetjeve në ndonjë mënyrë të drejtpërdrejtë, kjo është diçka që duket se ndodh rrallë.

Pyetjet përfshijnë:

  • Kur e bëri inteligjenca artificiale dorëzimin te njeriu-in-the-loop?
  • Mbi çfarë baze të programuar e bëri AI dorëzimin?
  • A iu dha kohë e mjaftueshme njeriut-in-the-loop për të marrë kontrollin?
  • Si u projektua dhe u krijua AI për këto probleme?
  • Dhe kështu me radhë.

Në një farë mase, kjo është arsyeja pse Etika e AI dhe UA Etike janë një temë kaq e rëndësishme. Rregullat e Etikës së AI na bëjnë të qëndrojmë vigjilentë. Teknologët e AI ndonjëherë mund të preokupohen me teknologjinë, veçanërisht me optimizimin e teknologjisë së lartë. Ata nuk janë domosdoshmërisht duke marrë parasysh degëzimet më të mëdha shoqërore. Të kesh një mentalitet të Etikës së AI dhe ta bësh këtë në mënyrë integrale në zhvillimin dhe zbatimin e AI është jetike për prodhimin e AI të përshtatshme, duke përfshirë (ndoshta çuditërisht ose në mënyrë ironike) vlerësimin se si Etika e AI adoptohet nga firmat.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Në fakt, ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në këtë moment të këtij diskutimi me peshë, do të vë bast se ju dëshironi disa shembuj ilustrues shtesë që mund të shfaqin këtë temë. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të AI është ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI ndonjë gjë në lidhje me Sindromën e patates së nxehtë të AI dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makinat që drejtojnë vetë dhe Sindroma e patates së nxehtë të AI

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Shpresoj që kjo të sigurojë një seri të mjaftueshme paralajmërimesh për të mbështetur atë që do të tregoj.

Për automjetet plotësisht autonome mund të mos ketë asnjë shans që të ndodhë një dorëzim midis AI dhe një njeriu, për shkak të mundësisë që të mos ketë asnjë njeri-në-the-loop për të filluar. Aspirata e shumë prej prodhuesve të sotëm të makinave vetë-drejtuese është që ta largojnë shoferin njerëzor plotësisht nga detyra e drejtimit. Automjeti nuk do të përmbajë as kontrolle drejtimi të aksesueshme nga njerëzit. Në atë rast, një shofer njerëzor, nëse është i pranishëm, nuk do të jetë në gjendje të marrë pjesë në detyrën e vozitjes pasi nuk ka akses në çdo kontroll të drejtimit.

Për disa automjete plotësisht autonome, disa dizajne ende lejojnë që një njeri të jetë në lak, megjithëse njeriu nuk duhet të jetë i disponueshëm ose të marrë pjesë fare në procesin e drejtimit. Kështu, një person mund të marrë pjesë në ngarje, nëse personi dëshiron ta bëjë këtë. Sidoqoftë, në asnjë moment AI nuk varet nga njeriu për të kryer ndonjë nga detyrat e drejtimit.

Në rastin e automjeteve gjysmë autonome, ekziston një marrëdhënie dorë më dorë midis shoferit njerëzor dhe AI. Për disa modele, shoferi i njeriut mund të marrë përsipër kontrollet e drejtimit tërësisht dhe në thelb të ndalojë AI të marrë pjesë në drejtimin e automjetit. Nëse shoferi njerëzor dëshiron të rivendosë AI në rolin drejtues, ata mund ta bëjnë këtë, megjithëse kjo ndonjëherë e detyron njeriun të heqë dorë nga kontrollet e drejtimit.

Një formë tjetër e operimit gjysmë-autonom do të kërkonte që drejtuesi i njeriut dhe AI ​​të punojnë së bashku në një mënyrë ekipore. Inteligjenca artificiale po drejton dhe njeriu po drejton. Ata janë duke vozitur së bashku. Inteligjenca artificiale mund t'i kalojë njeriut. Njeriu mund t'i nënshtrohet AI.

Në një moment, sistemi i drejtimit të inteligjencës artificiale mund të konstatojë në mënyrë llogaritëse se makina vetë-drejtuese po shkon në një situatë të paqëndrueshme dhe se automjeti autonom do të përplaset.

Si mënjanë, disa ekspertë po qarkullojnë duke pretenduar se makinat që drejtojnë vetë do të jenë të papranueshme, gjë që është e pakuptimtë dhe një gjë e egër dhe e gabuar për t'u thënë, shikoni mbulimin tim në lidhja këtu.

Duke vazhduar skenarin e një makine vetë-drejtuese që shkon drejt një përplasjeje ose përplasjeje me makinë, sistemi i drejtimit të AI mund të programohet që t'i dorëzojë në mënyrë të përmbledhur kontrollet e drejtimit tek shoferi njerëzor. Nëse ka kohë të mjaftueshme në dispozicion që shoferi njerëzor të ndërmarrë veprime evazive, kjo me të vërtetë mund të jetë një gjë e arsyeshme dhe e duhur për të bërë AI.

Por supozoni se AI e bën dorëzimin me një fraksion të sekondës së mbetur për të shkuar. Koha e reagimit të shoferit njerëzor nuk është aq e shpejtë sa duhet për t'u përgjigjur në mënyrë adekuate. Plus, nëse për mrekulli njeriu ishte mjaft i shpejtë, gjasat janë që nuk ka veprime evazive të zbatueshme që mund të ndërmerren me kohën e kufizuar të mbetur para përplasjes. Ky është një tjetër: (1) koha e pamjaftueshme që shoferi njerëzor të ndërmarrë veprime, (2) koha e pamjaftueshme që nëse veprimi ishte i mundur nga drejtuesi i njeriut, veprimi mund të kryhej në kohën e pamjaftueshme të parashikuar.

Në përgjithësi, kjo është e ngjashme me diskutimin tim të mëparshëm në lidhje me situatën e zhurmës së basketbollit dhe makinerinë e fabrikës që shkoi në një skenar të tërbuar.

Le t'i shtojmë kësaj përbërësin e poshtër.

Një prodhues automjetesh ose firmë teknologjike që drejton vetë nuk dëshiron të etiketohet me përplasje të ndryshme makinash që kanë ndodhur në flotën e tyre. Sistemi i drejtimit të inteligjencës artificiale është programuar që gjithmonë t'ia kalojë kontrollin shoferit njerëzor, pavarësisht nëse ka kohë të mjaftueshme që shoferi njerëzor të bëjë diçka për situatën e vështirë. Sa herë që ndodh një aksident automobilistik i këtij lloji, prodhuesi i automjeteve ose firma e teknologjisë që drejton vetë është në gjendje të këmbëngulë me zë që shoferi i njeriut ishte në kontrolle, ndërsa AI jo.

Rekordi i tyre për sistemet e drejtimit të AI duket të jetë yjor.

Asnjë herë sistemi i drejtimit të AI nuk është "fajtor" për këto përplasje makinash. Janë gjithmonë ata shoferë njerëzorë të mallkuar që duket se nuk i mbajnë sytë nga rruga. Ne mund të priremi ta gëlltisim këtë gabim dhe të besojmë se inteligjenca artificiale plotësisht e saktë ka të ngjarë të mos jetë kurrë e gabuar. Ne mund të priremi të besojmë (pasi e dimë nga përvoja) se shoferët njerëzorë janë të ngathët dhe bëjnë shumë gabime në drejtim të automjetit. Përfundimi logjik është se drejtuesit njerëzorë duhet të jenë fajtori përgjegjës dhe sistemi i drejtimit të AI është plotësisht i pafajshëm.

Përpara se disa avokatë të vetëdrejtimit të mërziten për këtë karakterizim, le të pranojmë absolutisht se shoferi njerëzor mund të ketë shumë faj dhe se ata duhet të kishin ndërmarrë veprime më të shpejta, siç është marrja e kontrolleve të drejtimit nga AI. Ekziston gjithashtu mundësia që shoferi njerëzor të kishte bërë diçka thelbësore kur AI dorëzoi kontrollet e drejtimit. etj.

Fokusi këtu ka qenë në rrethanat kur AI konsiderohej drejtuesi i automjetit dhe më pas papritur dhe me pak vëmendje ndaj asaj që një shofer njerëzor mund të ishte në gjendje të bënte, i hedh pataten e nxehtë shoferit njerëzor. Kjo është gjithashtu arsyeja pse kaq shumë janë të shqetësuar për rolin e dyfishtë të drejtimit të automjeteve gjysmë autonome. Ju mund të thoni se ka shumë shoferë në timon. Synimi, duket se do të ishte zgjidhja e çështjes duke pasur automjete plotësisht autonome që nuk kanë nevojë për një njeri në timon dhe AI ​​është gjithmonë duke e drejtuar automjetin.

Kjo ngre pyetjen aleate se çfarë ose kush është përgjegjës kur AI është duke vozitur, të cilën e kam adresuar shumë herë në rubrikat e mia, si p.sh. lidhja këtu lidhja këtu.

Përfundim

Duhet të jemi të kujdesshëm kur dëgjojmë ose lexojmë për aksidente automobilistike që përfshijnë automjete gjysmë autonome. Jini të kujdesshëm ndaj atyre që përpiqen të na mashtrojnë duke shpallur se sistemi i tyre i drejtimit të AI ka një rekord të patëmetë. Mashtrimi konfiskues i Sindroma e patates së nxehtë të AI mund të jetë në përzierje.

Për kompanitë që përpiqen të jenë të ndërlikuara në këto çështje, ndoshta ne mund të mbajmë pranë zemrës sonë fjalinë e famshme të Abraham Lincoln: "Ju mund të mashtroni të gjithë njerëzit disa herë dhe disa nga njerëzit gjatë gjithë kohës, por nuk mund t'i mashtroni. gjithë njerëzit gjatë gjithë kohës.”

Jam përpjekur të zbuloj këtu magjinë e inteligjencës artificiale të fshehur pas ekranit dhe në disa raste të vendosura nën kapuç, të cilën e kam sqaruar në mënyrë që më shumë njerëz nuk do të të mashtrohen më shumë herë.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- në dukje-përpjekje-të-shmang-përgjegjshmërinë-për-jetën e tyre-duke vendosur-sistemet-autonome/