Etika e Inteligjencës Artificiale dhe Ligji i AI që sqaron se çfarë është në fakt AI i besueshëm

Besimi është gjithçka, kështu thonë ata.

Filozofi i njohur Lao Tzu tha se nuk do t'u besohet atyre që nuk besojnë sa duhet. Ernest Hemingway, një romancier i nderuar, tha se mënyra më e mirë për të zbuluar nëse mund t'i besoni dikujt është t'i besoni atij.

Ndërkohë, duket se besimi është sa i çmuar dhe i brishtë. Besimi që ka dikush mund të shembet si një shtëpi me letra ose papritmas të shpërthejë si një tullumbace e hedhur.

Tragjediani i lashtë grek Sofokliu pohoi se besimi vdes, por mosbesimi lulëzon. Filozofi dhe matematikani francez Descartes pohoi se është e kujdesshme të mos u besojmë kurrë plotësisht atyre që na kanë mashtruar qoftë edhe një herë. Investitori i jashtëzakonshëm i biznesit miliarder Warren Buffett nxiti se duhen njëzet vjet për të krijuar një reputacion të besueshëm dhe pesë minuta për ta shkatërruar atë.

Ju mund të habiteni kur të dini se të gjitha këto pikëpamje të ndryshme dhe opinione provokuese rreth besimit janë vendimtare për ardhjen e Inteligjencës Artificiale (AI).

Po, ka diçka që përmendet fort si AI i besueshëm që vazhdon të marrë një vëmendje të madhe këto ditë, duke përfshirë thirrjet e dorës nga brenda fushës së AI dhe gjithashtu shpërthime të zhurmshme nga ata jashtë sferës së AI. Nocioni i përgjithshëm nënkupton nëse shoqëria do të jetë apo jo e gatshme të vendosë besim në sistemet si AI.

Me sa duket, nëse shoqëria nuk do ose nuk mund t'i besojë AI, gjasat janë që sistemet e AI të dështojnë të fitojnë tërheqje. Inteligjenca artificiale siç e njohim aktualisht do të shtyhet mënjanë dhe thjesht do të mbledhë pluhur. Në mënyrë tronditëse, AI mund të përfundojë në grumbullin e mbeturinave, historikisht i zbritur në asgjë më shumë se një eksperiment i provuar dëshpërimisht, por i dështuar spektakolar i teknologjisë së lartë. Çdo përpjekje për të rigjallëruar AI potencialisht do të përballet me një betejë të madhe të vështirë dhe do të ndalet nga të gjitha llojet e kundërshtimeve dhe protestave të drejtpërdrejta. Me sa duket, për shkak të mungesës së besimit në AI.

Cila do të jetë, a duhet t'i besojmë AI, apo nuk duhet t'i besojmë AI?

Në thelb, a do të kemi vërtet AI të besueshme?

Këto janë pyetje të dikurshme dhe të pazgjidhura. Le ta shpaketojmë.

Etika e AI dhe lufta për AI të besueshme

Besimi nga shumë brenda AI është se zhvilluesit e sistemeve të AI mund të fitojnë besim në AI duke krijuar në mënyrë të përshtatshme AI që është e besueshme. Thelbi është se nuk mund të shpresoni të fitoni besim nëse AI nuk është në dukje i besueshëm në fillim. Duke krijuar sisteme të AI në një mënyrë që perceptohet të jetë e besueshme, ka një shans të fortë që njerëzit të pranojnë AI dhe të miratojnë përdorime të AI.

Një shqetësim që tashmë shqetëson për këtë konsideratë të besueshme të AI është se ne mund të jemi tashmë në një deficiti i besimit publik kur është fjala për AI. Mund të thuash që AI që kemi parë tashmë ka hapur një gropë dhe ka hedhur poshtë besimin në sasi masive. Kështu, në vend që të fillojë në një bazë të mjaftueshme besueshmërie, AI do të duhet të dalë çuditërisht nga deficiti, duke kërkuar për çdo ons të dëshiruar besimi të shtuar që do të nevojitet për të bindur njerëzit se AI është në fakt i besueshëm.

Në këtë sfidë hyn Etika e AI dhe Ligji i AI.

Etika e inteligjencës artificiale dhe ligji i inteligjencës artificiale po luftojnë fuqishëm në përpjekjen për të kuptuar se çfarë do të duhet për ta bërë AI të besueshme. Disa sugjerojnë se ekziston një formulë ose ligje të hekurta që do ta çojnë AI në qiejt e besueshëm. Të tjerë tregojnë se do të duhet punë e vështirë dhe respektim i vazhdueshëm dhe i pandërprerë ndaj parimeve të Etikës së AI dhe ligjit të AI për të marrë besimin e lavdëruar të shoqërisë.

Enigma bashkëkohore rreth besimit në AI nuk është veçanërisht e re në vetvete.

Mund të ktheheni lehtësisht në fund të viteve 1990 dhe të gjurmoni shfaqjen e një dëshire të kërkuar për "kompjuterë të besuar" nga ato ditë. Kjo ishte një përpjekje e industrisë së teknologjisë në shkallë të gjerë për të dalluar nëse kompjuterët të gjithë të thënë mund të bëheshin në një mënyrë që do të interpretohej si e besueshme nga shoqëria.

Pyetjet kryesore përbëheshin nga:

  • A mund të bëhej pajisja kompjuterike e tillë që të ishte e besueshme?
  • A mund të krijohej softueri i tillë që të ishte i besueshëm?
  • A mund të vendosim kompjuterë të rrjetit global që do të ishin të besueshëm?
  • Dhe kështu me radhë.

Ndjenja mbizotëruese atëherë dhe që vazhdon edhe sot e kësaj dite është se llogaritja e besueshme mbetet një lloj graali i shenjtë që, për fat të keq, nuk është ende brenda mundësive tona (siç është vënë në dukje në një punim të titulluar "Inteligjenca artificiale e besueshme" në Komunikimet e ACM). Ju mund të argumentoni bindshëm se AI është një tjetër komponent i mbulimit të besueshmërisë kompjuterike, megjithatë AI e bën ndjekjen e besimit edhe më sfidues dhe të pasigurt. Inteligjenca artificiale është bërë prishësi i mundshëm në luftën për të arritur një kompjuter të besueshëm. Ndoshta hallka më e dobët e zinxhirit, si të thuash.

Le të hedhim një vështrim të shpejtë se përse Inteligjenca Artificiale e ka rritur mendjen për të qenë më pak se i besueshëm. Përveç kësaj, ne do të eksplorojmë parimet e Etikës së AI që shpresohet se do të ndihmojnë në mbështetjen e besimit të perceptuar tashmë gjysmë-nënujor (ose mosbesimit të fryrë) të AI-së së sotme. Për mbulimin tim të vazhdueshëm dhe të gjerë të Etikës së AI, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe shpërndahen në mënyrë që personeli përkatës të ketë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurën dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Le të sigurohemi gjithashtu se jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Le ta lidhim këtë me pyetjen në lidhje me AI të besueshme

Sigurisht, ne nuk do të dukej të jemi të gatshëm t'i besojmë AI që shfaq paragjykime të pafavorshme dhe veprime diskriminuese. Besimi ynë, në atë rast, do të ishte se një AI e tillë nuk është padyshim e besueshme, kështu që ne do të anonim drejt mosbesimit aktiv ndaj AI. Pa e tepruar me një krahasim antropomorfik (do të them më shumë për antropomorfizimin e AI brenda një momenti), një njeri që shfaqi paragjykime të padëshiruara do t'i nënshtrohej gjithashtu vlerësimit si jo veçanërisht të besueshëm.

Gërmimi në besim dhe besueshmëri

Ndoshta duhet të hedhim një vështrim në atë që nënkuptojmë kur pohojmë se ne besojmë ose nuk i besojmë dikujt ose diçkaje. Së pari, merrni parasysh disa përkufizime të fjalorit të përditshëm të besimit.

Shembuj të asaj që definitivisht do të thotë besim janë:

  • Mbështetja e sigurt në karakterin, aftësinë, forcën ose të vërtetën e dikujt ose diçkaje (Fjalori në internet Merriam-Webster).
  • Mbështetja në integritetin, forcën, aftësinë, sigurinë, etj., të një personi ose sendi (Dictionary.com)
  • Besim i fortë në besueshmërinë, të vërtetën, aftësinë ose forcën e dikujt ose diçkaje (Fjalori në internet i Gjuhëve të Oksfordit).

Do të doja të theksoja se të gjitha këto përkufizime i referohen "dikujt" dhe gjithashtu i referohen "diçkaje" si potencialisht të besueshme. Kjo është e dukshme pasi disa mund të këmbëngulin që ne t'u besojmë vetëm njerëzve dhe se akti i besimit është i rezervuar ekskluzivisht për njerëzimin si objektivi ynë i besueshmërisë. Jo ashtu. Ju mund të keni besim në tostin tuaj të kuzhinës. Nëse duket se bën dolli në mënyrë të besueshme dhe punon në mënyrë rutinore për ta bërë këtë, me siguri mund të keni një dukje besimi nëse dollia është në të vërtetë e besueshme.

Në të njëjtën linjë të të menduarit, AI mund të jetë gjithashtu objekt i këndvështrimit tonë të besimit. Gjasat janë që besimi i lidhur me inteligjencën artificiale do të jetë shumë më i komplikuar sesa të themi një thotë dolli i zakonshëm. Një thotë dolli zakonisht mund të bëjë vetëm një pjesë të vogël të veprimeve. Një sistem AI ka të ngjarë të jetë shumë më kompleks dhe duket se funksionon më pak në mënyrë transparente. Aftësia jonë për të vlerësuar dhe konstatuar besueshmërinë e inteligjencës artificiale do të jetë shumë më e vështirë dhe do të ofrojë sfida të ndryshme.

Përveçse është thjesht më kompleks, një sistem tipik i AI thuhet se është jo-përcaktues dhe potencialisht vetë-rregullues ose vetë-rregullues. Mund ta eksplorojmë shkurtimisht këtë nocion.

Një makinë deterministe tenton të bëjë të njëjtat gjëra pa pushim, në mënyrë të parashikueshme dhe me një model të dukshëm të dukshëm se si funksionon. Ju mund të thoni se një dolli e zakonshme bën dolli përafërsisht në të njëjtën mënyrë dhe ka kontrolle pjekjeje që zvogëlojnë gatimin, të gjitha këto janë përgjithësisht të parashikueshme nga personi që përdor dolli. Në të kundërt, sistemet komplekse të inteligjencës artificiale shpesh krijohen të jenë jo-përcaktuese, që do të thotë se ato mund të bëjnë gjëra krejt të ndryshme përtej asaj që ju mund të prisnit ndryshe. Kjo mund të përforcohet pjesërisht edhe më tej nëse AI është shkruar për t'u vetë-rregulluar, një aspekt që mund të lejojë në mënyrë të favorshme AI të përmirësohet në rastin e ML/DL, megjithëse mund të shkaktojë gjithashtu në mënyrë shqetësuese që AI të lëkundet ose të hyjë në rangun. e keqe e AI. Ju mund të mos e dini se çfarë ju goditi, në një mënyrë të të folurit, pasi u kapët plotësisht nga veprimet e AI.

Çfarë mund të bëjmë për ta sjellë AI më afër besueshmërisë?

Një qasje konsiston në përpjekjen për të siguruar që ata që ndërtojnë dhe ushtrojnë inteligjencën artificiale i përmbahen një sërë parimesh të Etikës së AI. Siç u përmend nga këta studiues të AI: “Besimi është një qëndrim që një agjent do të sillet siç pritet dhe mund të mbështetet tek ai për të arritur qëllimin e tij. Besimi prishet pas një gabimi ose keqkuptimi midis agjentit dhe individit besimtar. Gjendja psikologjike e besimit në AI është një veti emergjente e një sistemi kompleks, që zakonisht përfshin shumë cikle të projektimit, trajnimit, vendosjes, matjes së performancës, rregullimit, ridizajnimit dhe rikualifikimit” (tregohet në Komunikimet e ACM, "Trust, Rregullorja dhe AI ​​Human-in-the-Loop Brenda Rajonit Evropian" nga Stuart Middleton, Emmanuel Letouze, Ali Hossaini dhe Adriane Chapman, prill 2022).

Thelbi është se nëse ne mund t'i bëjmë zhvilluesit e AI të respektojnë AI Etike, ata shpresojmë se do të përfundojnë duke prodhuar AI të besueshme. Kjo është e gjitha mirë dhe mirë, por duket disi jopraktike në bazë të botës reale, megjithëse është absolutisht një rrugë që ia vlen të ndiqet.

Ja çfarë dua të them.

Supozoni se është ndërmarrë një përpjekje e zellshme nga zhvilluesit e AI që krijojnë një sistem të AI për një qëllim që ne përgjithësisht do ta quajmë X. Ata sigurohen me kujdes që AI i përmbahet parimeve të transparencës të Etikës së AI. Ata sigurojnë me zell që privatësia të jetë e integruar në mënyrë të përshtatshme në AI. Për pothuajse të gjitha parimet e zakonshme të Etikës së AI, ndërtuesit e AI sigurojnë në mënyrë shteruese që AI përmbush parimin e dhënë.

A duhet t'i besoni tani asaj AI?

Më lejoni të ndihmoj të përshkoj mendimet tuaja për atë pyetje të hapur.

Rezulton se mashtruesit kibernetikë arritën të depërtonin në AI dhe ta detyronin tinëzisht AI të kryente X dhe megjithatë gjithashtu të ushqente hakerët kibernetikë të gjitha të dhënat që AI po mbledh. Duke vepruar kështu, këta keqbërës po nënvlerësojnë në mënyrë tinëzare parimin e privatësisë. Ju nuk jeni në dijeni të lumturisë se kjo po ndodh nën kapuçin e AI.

Me atë informacion të shtuar, do t'ju bëj përsëri të njëjtën pyetje.

A i besoni asaj AI?

Unë guxoj të them se shumica e njerëzve do të deklarojnë menjëherë se ata me siguri e bëjnë nuk besoni kësaj AI të veçantë. Ata mund t'i kishin besuar më herët. Ata tani zgjedhin të mos e konsiderojnë më të besueshme AI.

Disa njohuri kyçe të bazuara në këtë shembull të thjeshtë janë të denjë për meditim:

  • Dinamika e Besimit. Edhe qëllimet më të mira për të mbuluar të gjitha bazat për t'u siguruar që Etika e AI është ndërtuar në një sistem AI nuk është garanci për atë që mund të rezultojë ose të bëhet AI. Sapo IA të vihet në përdorim, të huajt mund të minojnë potencialisht akumulimet e AI Etike.
  • Ulja e besimit nga brenda. Akti i nënvlerësimit të besueshmërisë nuk duhet domosdoshmërisht të jetë i jashtëm. Një person i brendshëm që po bën mirëmbajtje të rregullt të sistemit të AI mund të gabojë dhe të dobësojë AI drejt të qenit më pak i besueshëm. Ky zhvillues i AI mund të jetë i paditur për atë që ata kanë bërë.
  • Kompromiset e paqëllimshme të besimit. Një AI vetë-rregulluese ose vetërregulluese mund të përshtatet në një moment dhe të devijojë në territorin e pabesueshëm. Ndoshta AI përpiqet të forcojë transparencën e AI dhe megjithatë në të njëjtën kohë dhe në mënyrë të papërshtatshme komprometon aspektet e privatësisë.
  • Shpërndarja e Besimit. Përpjekja për të arritur të gjitha parimet e Etikës së AI në të njëjtën shkallë të besueshmërisë, zakonisht nuk është lehtësisht e zbatueshme pasi ato shpesh janë në qëllime të ndërthurura ose kanë konflikte të tjera të natyrshme të mundshme. Është një perspektivë mjaft e idealizuar të besosh se të gjitha parimet Etike të AI janë të përafruara në mënyrë ëndërrimtare dhe të gjitha të arritshme në një shkallë të barabartë maksimale.
  • Besimi mund të jetë i kushtueshëm për t'u arritur. Kostoja për të provuar dhe për të arritur një pamje të nivelit të lartë të AI të besueshme përmes ndërmarrjes së hapave të ndryshëm të gjerë dhe shterues dhe respektimit të litanisë së parimeve të Etikës së AI do të jetë relativisht e lartë. Mund të argumentoni lehtësisht se kostoja do të ishte penguese për sa i përket përdorimit të disa sistemeve të AI që përndryshe kanë vlerë të rëndësishme për shoqërinë, edhe nëse AI do të ishte, do të themi më pak se ideale nga një dëshirë besueshmërie.
  • Dhe kështu me radhë.

Mos i keqinterpretoni vërejtjet e mësipërme për të sugjeruar që ne duhet të shmangim disi përpjekjet për të ndërtuar dhe vënë në zbatim AI të besueshme. Në mënyrë të përmbledhur do ta hidhnit fëmijën me ujin e banjës, si të thuash. Interpretimi i duhur është se ne duhet t'i bëjmë ato aktivitete besimi për ta marrë AI në një konsideratë të besueshme, dhe megjithatë kjo vetëm nuk është një kurë ose një plumb argjendi.

Shtigje me shumë degë drejt AI të besueshme

Ka mënyra të rëndësishme shtesë të shumëfishta për t'u përpjekur drejt AI të besueshme.

Për shembull, siç e kam mbuluar më parë në kolonat e mia, një mori ligjesh dhe rregulloresh të reja në lidhje me AI synojnë t'i shtyjnë krijuesit e AI drejt krijimit të AI të besueshme, shih lidhja këtu lidhja këtu.

Këto parmakë ligjore janë thelbësore si një mjet gjithëpërfshirës për t'u siguruar që ata që hartojnë AI të mbahen plotësisht përgjegjës për AI-në e tyre. Pa mjete të tilla të mundshme juridike dhe ndëshkime të ligjshme, ata që ngulin inteligjencën artificiale në treg, ka të ngjarë të vazhdojnë ta bëjnë këtë me pak ose aspak konsideratë serioze për arritjen e AI të besueshme. Mund të shtoj veçanërisht, se nëse ato ligje dhe rregullore hartohen dobët ose zbatohen në mënyrë të pamjaftueshme, ato mund të zvogëlojnë me keqardhje ndjekjen e AI të besueshme, ndoshta në mënyrë ironike dhe të çuditshme duke nxitur AI jo të besueshme mbi AI të besueshme (shih diskutimet e kolonës sime për shpjegime të mëtejshme).

Unë kam qenë gjithashtu një avokat i vendosur për atë që e kam përmendur me zjarr Bots engjëlli mbrojtës i AI (shih mbulimin tim në lidhja këtu). Kjo është një metodë ose qasje e ardhshme e përpjekjes për të luftuar zjarrin me zjarr, domethënë duke përdorur AI për të na ndihmuar në trajtimin e AI të tjera që mund ose nuk mund të jenë të besueshme.

Së pari, një kontekst sfondi do të jetë i dobishëm.

Supozoni se jeni duke zgjedhur të mbështeteni në një sistem AI që nuk jeni të sigurt për besueshmërinë e tij. Një shqetësim kryesor mund të jetë se ju jeni vetëm në përpjekjet tuaja për të zbuluar nëse AI duhet të besohet apo jo. Inteligjenca artificiale është potencialisht më e shpejtë nga ana llogaritëse se ju dhe mund të përfitojë nga ju. Keni nevojë për dikë ose diçka në anën tuaj për t'ju ndihmuar.

Një perspektivë është se duhet të ketë gjithmonë një njeri në lak që do t'ju ndihmojë kur jeni duke përdorur një sistem AI. Edhe pse kjo është një zgjidhje problematike. Nëse inteligjenca artificiale funksionon në kohë reale, për të cilën do të diskutojmë momentalisht kur bëhet fjalë për ardhjen e makinave vetë-drejtuese të bazuara në AI, mund të mos jetë e mjaftueshme të kesh një njeri në lak. Inteligjenca artificiale mund të veprojë në kohë reale dhe në kohën kur një njeri i caktuar në lak hyn në foto për të kuptuar nëse AI po funksionon siç duhet, një rezultat katastrofik mund të ketë ndodhur tashmë.

Si mënjanë, kjo sjell një tjetër faktor për besimin. Zakonisht caktojmë një nivel besimi bazuar në kontekstin ose rrethanat me të cilat po përballemi. Ju mund t'i besoni plotësisht djalit ose vajzës suaj të vogël që të jenë besnikë ndaj jush, por nëse jeni jashtë për ecje dhe vendosni të mbështeteni tek fëmija i vogël për t'ju thënë nëse është e sigurt të shkelni në buzë të një shkëmbi, mendoj se do të ishit të mençur. për të marrë në konsideratë nëse fëmija i vogël mund të japë atë lloj këshille për jetë a vdekje. Fëmija mund ta bëjë këtë me zell dhe sinqeritet, dhe gjithsesi, të mos jetë në gjendje të japë në mënyrë adekuate një këshillë të tillë.

I njëjti nocion lidhet me besimin kur bëhet fjalë për AI. Një sistem AI që po përdorni për të luajtur damë ose shah ndoshta nuk është i përfshirë në asnjë diskutim për jetë a vdekje. Ju mund të jeni më të qetë me caktimin tuaj të besimit. Një makinë vetëdrejtuese e bazuar në inteligjencë artificiale, e cila po ecën në autostradë me shpejtësi të lartë, kërkon një nivel shumë më të fortë besimi. Goditja më e vogël nga sistemi i drejtimit të AI mund të çojë drejtpërdrejt në vdekjen tuaj dhe vdekjen e të tjerëve.

Në një intervistë të botuar të Beena Ammanath, Drejtoreshë Ekzekutive e Institutit Global Deloitte AI dhe autore e librit AI i besueshëm, një theks i ngjashëm në marrjen në konsideratë të aspekteve kontekstuale se ku vjen për të luajtur besueshmëria e AI: “Nëse po ndërtoni një zgjidhje të AI që po bën diagnozën e pacientit, drejtësia dhe paragjykimi janë shumë të rëndësishme. Por nëse po ndërtoni një algoritëm që parashikon dështimin e motorit të avionit, drejtësia dhe paragjykimi nuk janë aq të rëndësishme. Inteligjenca artificiale e besueshme është me të vërtetë një strukturë për t'ju bërë të filloni të mendoni për dimensionet e besimit brenda organizatës suaj” (VentureBeat, 22 mars 2022).

Kur diskutoni AI të besueshme, ju mund ta interpretoni këtë temë në shumë mënyra.

Për shembull, AI i besueshëm është diçka që ne të gjithë e shohim si një qëllim të dëshirueshëm dhe aspirativ, domethënë që ne duhet të dëshirojmë të krijojmë dhe të shpallim AI të besueshme. Ekziston një përdorim tjetër i frazës tërheqëse. Një përdorim disi alternativ është ai AI i besueshëm është një gjendje gjendjeje ose matjeje, e tillë që dikush mund të pohojë se ata kanë krijuar një sistem AI që është një shembull i AI të besueshme. Ju gjithashtu mund të përdorni shprehjen AI i besueshëm për të sugjeruar një metodë ose qasje që mund të përdoret për të arritur besueshmërinë e AI. etj.

Në një shënim të lidhur, unë besoj se e kuptoni se jo e gjithë AI është e njëjtë dhe se duhet të jemi të ndërgjegjshëm që të mos bëjmë deklarata të përgjithshme për të gjithë AI. Një sistem i veçantë i AI ka të ngjarë të jetë dukshëm i ndryshëm nga një sistem tjetër i AI. Një nga këto sisteme të AI mund të jetë shumë i besueshëm, ndërsa tjetri mund të jetë pak i besueshëm. Jini të kujdesshëm duke supozuar disi se AI është një monolit që është ose plotësisht i besueshëm ose krejtësisht jo i besueshëm.

Ky thjesht nuk është rasti.

Më pas do të doja të mbuloja shkurtimisht disa nga kërkimet e mia të vazhdueshme në lidhje me AI të besueshme që mund të gjeni me interes, duke mbuluar rolin në rritje të Bots engjëlli mbrojtës i AI.

Ja si shkon.

Ju do të armatoseni me një sistem AI (një engjëll mbrojtës i AI) që është krijuar për të vlerësuar besueshmërinë e një sistemi tjetër të AI. Engjëlli mbrojtës i AI ka si fokus kryesor sigurinë tuaj. Mendoni për këtë sikur të keni mjetet për të monitoruar inteligjencën artificiale në të cilën po mbështeteni duke pasur një sistem të ndryshëm të AI në xhepin tuaj të vërtetë, ndoshta duke funksionuar në smartfonin tuaj ose pajisje të tjera të tilla. Kujdestari juaj proverbial i AI mund të llogarisë mbi një bazë që bën edhe AI ​​ku po mbështeteni, duke punuar me shpejtësi të shpejta dhe duke llogaritur situatën në fjalë në kohë reale, shumë më shpejt se sa mund ta bëjë një njeri në lak.

Ju mund të mendoni në një shikim fillestar se AI në të cilën po mbështeteni tashmë duhet të ketë disa i brendshëm Parmakë mbrojtëse të AI që bëjnë të njëjtën gjë si ky bot engjëlli mbrojtës i AI-së që llogarit veçmas. Po, sigurisht që do të ishte e dëshiruar. Një shqetësim është se parmakët mbrojtëse të AI të ndërtuara në një sistem AI mund të jenë të lidhura në mënyrë integrale dhe paragjykuese me AI në vetvete, kështu që parmaku i supozuar i AI nuk është më në gjendje të verifikojë ose vërtetojë në mënyrë të pavarur AI.

Ideja e kundërta është që roboti juaj i engjëllit mbrojtës të AI është një mekanizëm i pavarur ose i palës së tretë të AI që është i dallueshëm nga AI në të cilin po mbështeteni. Ai qëndron jashtë AI-së tjetër, duke mbetur i përkushtuar ndaj jush dhe jo i përkushtuar ndaj AI-së që monitorohet ose vlerësohet.

Një mjet i drejtpërdrejtë për të menduar për këtë mund të shprehet nëpërmjet pohimeve të thjeshtuara të mëposhtme të ngjashme me ekuacionet. Mund të themi se "P" dëshiron të besojë potencialisht "R" për të kryer një detyrë të veçantë "X":

Kjo do të ishte si vijon kur përfshihen vetëm njerëzit:

  • Personi P i beson personit R për të kryer detyrën X.

Kur zgjedhim të mbështetemi në AI, deklarata riformësohet në këtë:

  • Personi P i beson instancës AI-R për të kryer detyrën X.

Mund të shtojmë robotin e engjëllit mbrojtës të AI duke thënë këtë:

  • Personi P i beson instancës AI-R për të kryer detyrën X pasi monitorohet nga engjëlli kujdestar i AI bot instance-Z

Engjëlli mbrojtës i AI-së po vlerëson pa u lodhur dhe pandërprerë AI ku po mbështeteni. Si i tillë, kujdestari juaj i dobishëm i AI mund t'ju paralajmërojë se besimi i kësaj AI tjetër është i pajustifikuar. Ose, kujdestari i AI mund të ndërveprojë në mënyrë elektronike me AI tjetër për të provuar dhe siguruar që çdo ndryshim që nuk është i besueshëm të korrigjohet shpejt, e kështu me radhë (shih mbulimin tim për detaje të tilla në lidhja këtu).

Metafora e rezervuarit të besimit të besueshëm

Meqenëse po diskutojmë nivele të ndryshme besimi, mund të gjeni një metaforë të dobishme për besueshmërinë duke e konceptuar besimin si një lloj rezervuari.

Ju keni një sasi të caktuar besimi për një person ose send të caktuar në një rrethanë të caktuar në një moment të caktuar kohor. Niveli i besimit do të rritet ose do të bjerë, në varësi të asaj që ndodh tjetër në lidhje me atë person ose send të caktuar. Besimi mund të jetë në një nivel zero kur nuk keni asnjë besim për personin ose sendin. Besimi mund të jetë negativ kur ju ndërhyni të keni mosbesim ndaj atij personi ose gjëje.

Në rastin e sistemeve të AI, rezervuari juaj i besimit për inteligjencën artificiale të veçantë në të cilën po mbështeteni në një rrethanë të caktuar do të rritet ose do të bjerë në varësi të vlerësimit tuaj të besueshmërisë së AI. Ndonjëherë, ju mund të jeni mirë të vetëdijshëm për këtë nivel të ndryshëm besimi në lidhje me AI, ndërsa në raste të tjera mund të jeni më pak të vetëdijshëm dhe më shumë duke bërë gjykime për besueshmërinë.

Mënyrat që ne kemi diskutuar këtu mjetet për të rritur nivelet e besimit për AI përfshijnë:

  • Respektimi i Etikës së AI. Nëse IA në të cilën po mbështeteni është krijuar duke u përpjekur t'u përmbahet rregullave të duhura të Etikës së AI, me sa duket do ta përdorni këtë kuptim për të rritur nivelin e rezervuarit tuaj të besimit për atë sistem të veçantë të AI. Si një shënim anësor, është gjithashtu e mundur që ju mund të përgjithësoni sistemet e tjera të AI për sa i përket besueshmërisë së tyre, gjithashtu, megjithëse kjo mund të jetë ndonjëherë një formë mashtruese e asaj që unë e quaj Aura e besimit të AI po përhapet (Kini kujdes ta bëni këtë!).
  • Përdorni një Human-In-The-Loop. Nëse AI ka një njeri-in-the-loop, ju mund të shtoni pozitivisht besimin tuaj të perceptuar në AI.
  • Krijoni ligje dhe rregullore. Nëse ka ligje dhe rregullore që lidhen me këtë lloj të veçantë të AI, ju gjithashtu mund të rrisni nivelin tuaj të besimit.
  • Punësoni një engjëll mbrojtës të AI-së. Nëse keni gati një bot engjëll mbrojtës të AI, edhe kjo do të rrisë më tej nivelin tuaj të besimit.

Siç u përmend më herët, besimi mund të jetë mjaft i brishtë dhe të shpërbëhet në një çast (dmth. rezervuari i besimit shpejt dhe papritmas hedh jashtë të gjithë besimin e krijuar).

Imagjinoni që jeni brenda një makine vetëdrejtuese të bazuar në AI dhe AI ​​që drejton papritmas bën një kthesë radikale djathtas, duke bërë që rrotat të kërcitin dhe gati duke e detyruar automjetin autonom në një përmbysje të rrezikshme. Çfarë do të ndodhte me nivelin tuaj të besimit? Duket se edhe nëse e keni mbajtur më parë AI në një nivel më të lartë besimi, do ta ulni në mënyrë dramatike dhe befas nivelin tuaj të besimit, në mënyrë të arsyeshme.

Në këtë pikë të këtij diskutimi me peshë, do të vë bast se ju dëshironi shembuj shtesë ilustrues që mund të shfaqin natyrën dhe shtrirjen e AI të besueshme. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të AI është ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të bollshëm mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI, ndonjë gjë në lidhje me ndjekjen e AI të besueshme dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë bashkë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që referohen si ADAS (Advanced Driver-Assistance Systems).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makina vetëdrejtuese dhe AI ​​i besueshëm

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Unë besoj se siguron një sasi të mjaftueshme paralajmërimesh për të nënvizuar atë që unë jam gati të lidhem.

Ne jemi të përgatitur tani për të bërë një zhytje të thellë në makinat vetë-drejtuese dhe AI ​​të besueshme.

Besimi është gjithçka, veçanërisht në rastin e makinave vetë-drejtuese të bazuara në AI.

Shoqëria duket se po e vështron me kujdes shfaqjen e makinave vetë-drejtuese. Nga njëra anë, ekziston një shpresë e madhe që ardhja e makinave të vërteta vetë-drejtuese do të zvogëlojë dukshëm numrin e vdekjeve vjetore të lidhura me makinat. Vetëm në Shtetet e Bashkuara ka rreth 40,000 vdekje në vit dhe rreth 2.5 milionë lëndime për shkak të aksidenteve me makinë, shikoni koleksionin tim të statistikave në lidhja këtu. Njerëzit pinë dhe vozisin. Njerëzit ngasin makinën ndërsa janë të hutuar. Detyra e drejtimit të një makine duket se konsiston në aftësinë për t'u fokusuar në mënyrë të përsëritur dhe të pagabueshme në drejtimin e makinës dhe për të shmangur përplasjet me makinë. Si i tillë, ne mund të shpresojmë në ëndërr që sistemet e drejtimit të AI do t'i udhëheqin makinat vetë-drejtuese në mënyrë të përsëritur dhe të pagabueshme. Ju mund t'i interpretoni makinat që drejtojnë vetë si një mënyrë e dyfishtë, që konsiston në zvogëlimin e vëllimit të vdekjeve dhe lëndimeve në aksidente automobilistike, së bashku me mundësinë e vënies në dispozicion të lëvizshmërisë në një bazë shumë më të gjerë dhe të aksesueshme.

Por shqetësimi ndërkohë qëndron mbi perceptimet shoqërore nëse makinat vetë-drejtuese do të jenë mjaft të sigurta për të qenë në rrugët tona publike në përgjithësi.

Nëse edhe një makinë që drejton vetë merr një përplasje ose përplasje që çon në një vdekje të vetme ose lëndim të rëndë, ka të ngjarë të parashikoni që besimi i krijuar disi i sotëm ndaj atyre makinave pa shofer të bazuara në AI do të bjerë me shpejtësi. Ne e pamë këtë të ndodhte kur incidenti tashmë famëkeq ndodhi në Arizona që përfshinte një makinë disi (jo në të vërtetë) vetë-drejtuese që u përplas dhe vrau një këmbësor (shih mbulimin tim në kjo lidhje këtu).

Disa ekspertë theksojnë se është e padrejtë dhe e papërshtatshme të bazohet besimi i makinave vetë-drejtuese të AI në aspektin se vetëm një përplasje ose përplasje e ardhshme që prodhon vdekje mund të minojë provat publike tashmë relativisht pa përplasje në rrugë. Për më tepër, në një bazë të mëtejshme të padrejtë, gjasat janë që pa marrë parasysh se cila markë apo modeli i veçantë i makinave vetëdrejtuese me AI do të përfshihet në një incident të trishtuar, shoqëria padyshim do të fajësonte të gjitha markat e makinave vetë-drejtuese.

Tërësia e makinave vetë-drejtuese mund të njolloset në mënyrë të përmbledhur dhe industria në tërësi mund të pësojë një reagim të madh që çon në një mbyllje të mundshme të të gjitha provave publike në rrugë.

Një kontribues në një goditje të tillë gjendet në shpalljet e pakuptimta nga përkrahësit e hapur të makinave vetë-drejtuese se të gjitha makinat pa shofer do të jenë të pathyeshme. Kjo ide e të qenit i pathyeshëm nuk është vetëm krejtësisht e gabuar (shih lidhja këtu), ajo në mënyrë tinëzare po krijon industrinë e makinave vetë-drejtuese për një grup pritshmërish krejtësisht të papërshtatshme. Këto deklarata të çuditshme dhe të paarritshme se do të ketë zero vdekje për shkak të makinave që drejtojnë vetë, po ushqejnë keqkuptimin se çdo përplasje me makinë pa shofer është një shenjë e sigurt se i gjithë kompleti dhe kaboodle janë të kota.

Ka një trishtim të veçantë për të kuptuar se përparimi drejt makinave vetë-drejtuese dhe akumulimi inç në një kohë i besimit shoqëror mund të zhduket në një çast. Kjo do të jetë një dreq vitrinë për brishtësinë e besimit.

Përfundim

Shumë prodhues të automjeteve dhe firma të teknologjisë që drejtojnë vetë, përgjithësisht u përmbahen parimeve të Etikës së AI, duke e bërë këtë për të provuar dhe krijuar AI të besueshme në drejtim të makinave të sigurta dhe të besueshme të bazuara në AI. Ju lutemi, kini parasysh se disa nga ato firma janë më të forta dhe më të përkushtuara ndaj parimeve Etike të AI se të tjerat. Ka gjithashtu kompani fillestare të rastësishme ose fillestare të lidhura me makinat që drejtojnë vetë, të cilat duket se lënë mënjanë shumë nga gurët themelorë të Etikës së AI (shih rishikimin tim në lidhja këtu).

Në fronte të tjera, ligjet dhe rregulloret e reja që mbulojnë makinat vetë-drejtuese janë vendosur gradualisht në librat ligjorë. Nëse ata kanë dhëmbët e nevojshëm për t'i mbështetur ato është një çështje tjetër, po ashtu nëse zbatimi i atyre ligjeve po merret seriozisht apo anashkalohet (shih kolonat e mia për analiza mbi këtë).

Ekziston edhe një kënd i teknologjisë së lartë për këtë gjithashtu. Unë kam parashikuar që gradualisht do të shohim variante të robotëve të engjëjve mbrojtës të AI që do të dalin në pah në arenën e automjeteve autonome dhe makinave vetë-drejtuese. Nuk jemi ende atje. Kjo do të bëhet më e përhapur sapo popullariteti i makinave vetë-drejtuese të bëhet më i përhapur.

Kjo pikë e fundit sjell një linjë të famshme për besimin që padyshim që ju e dini përmendësh.

Beso por verifiko.

Ne mund t'i lejojmë vetes të zgjerojmë besimin tonë, ndoshta me bujari. Ndërkohë, edhe ne duhet të shikojmë si skifter për t'u siguruar që besimi që krijojmë të verifikohet me fjalë dhe me vepra. Le t'i besojmë inteligjencës artificiale, por të verifikojmë pafundësisht se po e vendosim besimin tonë siç duhet dhe me sytë hapur.

Ju mund të më besoni për këtë.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/