Etika e AI vlerësohet me kujdes nëse ofrimi i paragjykimeve të AI Gjuetia e dhuratave për të kapur dhe kapur sisteme plotësisht autonome të liga etikisht është e kujdesshme apo e kotë

Kërkohet: Gjuetarët e paragjykimeve të AI.

Kjo mund të jetë një reklamë moderne që do të filloni ta shihni duke u shfaqur në kanalet e mediave sociale dhe duke u shfaqur në postime të ndryshme pune në internet. Ky është një koncept apo rol relativisht i ri. Ajo mbart me vete polemika. Disa besimtarë të zjarrtë argumentojnë me zjarr se kjo ka kuptim të bollshëm dhe duhet të kishte ndodhur gjatë gjithë kohës, ndërsa të tjerë po bëjnë me nervozizëm disa kruarje serioze të kokës dhe jo aq të sigurt se kjo është një ide e mirë.

Thelbi i rolit konsiston në nxjerrjen nga IA çdo paragjykime të fshehura ose praktika të ngulitura diskriminuese. Në shpëtim vijnë gjuetarët e etur dhe krejtësisht të dikurshëm AI paragjykojnë. Ata me sa duket do të ishin gjuetarë të mirësjelljes kompjuterike. Për më tepër, me shpresë, të zhytur në thellësitë e aftësive të AI.

Keni armë, do të udhëtoni dhe mund të arrini të ekspozoni paragjykimet e pakëndshme dhe të pakëndshme të AI, nëpërmjet gjuajtjes së mprehtë të aftë për AI.

Kjo ngre një mori pyetjesh të mprehta në lidhje me ndjeshmërinë e ndjekjes së një taktike të tillë kur bëhet fjalë për zbulimin e paragjykimeve të AI. Siç do të diskutoj për momentin, ju lutem dijeni se ardhja e AI ka sjellë me vete edhe shfaqjen e paragjykimeve të AI. Një përrua paragjykimesh të AI. Për mbulimin tim të vazhdueshëm dhe të gjerë të Etikës së AI dhe AI ​​Etike, shih lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Si mund të zbulojmë se një sistem i veçantë i AI ka paragjykime?

Ju mund t'i besoni zhvilluesve të AI që kanë krijuar AI për ta bërë këtë. Puna është se ata mund të jenë aq të zhytur në paragjykime saqë ata vetë nuk mund t'i dallojnë paragjykimet brenda AI-së së tyre të sajuar. E gjithë kjo u duket mirë atyre. Ose ata mund të jenë aq të ngazëllyer për inteligjencën artificiale dhe të kenë një ndjenjë krenarie për të, saqë do të ishte e vështirë dhe e vërtetë t'i nënshtrohej një sy kritik për ta shqyrtuar atë për paragjykime. Shumë arsye të tjera të tilla mund të duken se zvogëlojnë marrjen e kësaj detyre nga zhvilluesit e AI, duke përfshirë mungesën e aftësive për të kuptuar paragjykimet e ngulitura, mungesën e kohës në një projekt për ta bërë këtë, etj.

Në rregull, kështu që shkoni përpara dhe punësoni konsulentë të jashtëm për të bërë punën e pistë për ju, si të thuash. Rezulton se konsulentët do të shqyrtojnë me kënaqësi AI tuaj për paragjykime, duke ju ngarkuar një qindarkë të bukur për ta bërë këtë (shumë e shumë qindarkë). Kuptoni se ju duhet të paguani që ata të përshpejtojnë sistemin tuaj AI. Më pas ju duhet t'i bëni ata të gërmojnë përreth, gjë që mund të marrë një numër të pallogaritshëm orësh të mundimshëm të kushtueshëm. Përdorimi i konsulentëve është një opsion nëse keni buxhet për të.

Në "boshllëkun" e mundshëm se si të gjenden ato paragjykime tinëzare të inteligjencës artificiale, vijnë gjuetarët heroikë dhe të guximshëm të paragjykimeve të AI.

Zakonisht nuk i paguan ato paraprakisht. Ata përpiqen të gjejnë paragjykimet e AI në kohën e tyre dhe duhet të paguajnë vetë faturat e tyre ndërsa e bëjnë këtë. Vetëm nëse gjejnë me sukses paragjykimet, paguhen. Unë supozoj se mund të pohoni lehtësisht se në një mënyrë të përshtatshme të menduari, ky është përkufizimi konvencional i një gjahtari të dhuratave. Paguhuni nëse keni sukses. Mos u paguani nëse nuk jeni të suksesshëm. Periudha, fundi i tregimit.

Programet e bujarisë kanë ekzistuar të paktën që nga koha e romakëve dhe kështu mund të supozojmë se ato funksionojnë, pasi kanë qëndruar me sukses si një praktikë gjatë gjithë këtyre viteve.

Këtu keni një pjesë interesante të gjërave historike për ju. Thuhet se një mesazh i postuar gjatë Perandorisë Romake në qytetin e Pompeit shpallte se duheshin gjuetarë të dhuratave për të gjetur një tenxhere bakri që u zhduk nga një dyqan i vogël. Shpërblimi për rikuperimin e enës prej bakri ishte një çmim mbresëlënës prej gjashtëdhjetë e pesë monedha bronzi. Na vjen keq të them se nuk e dimë nëse ndonjë gjahtar bujari ka gjetur tenxheren e bakrit dhe ka marrë monedhat prej bronzi, por ne e dimë se gjuetia e dhuratave sigurisht ka vazhduar që nga ato kohë të lashta.

Në kohët më moderne, ju mund të jeni të vetëdijshëm se në vitet 1980 kishte disa dhurata të dukshme që ofroheshin për të gjetur gabime kompjuterike ose gabime në paketat softuerike të disponueshme dhe më pas në vitet 1990 Netscape ofroi dukshëm një shpërblim për gjetjen e gabimeve në shfletuesin e tyre të internetit. (duke u bërë një nga firmat më të spikatura të asaj dite për ta bërë këtë). Google dhe Facebook kishin zgjedhur secili drejt gjuetisë së dhuratave për defekte duke filluar nga viti 2010 dhe 2013, respektivisht. Disa vite më vonë, në vitin 2016 edhe Departamenti i Mbrojtjes i SHBA-së (DoD) hyri në veprim duke kryer një përpjekje për shpërblim "Hack the Pentagon" (vini re se shpërblimi i fokusuar publikisht ishte për gabimet e gjetura në uebsajte të ndryshme të lidhura me DoD dhe jo në sistemet kritike të misionit të mbrojtjes).

Le të gërmojmë më thellë në temën e shpërblimit të gabimeve. E kuptoj që kryesisht synoj të flas për paragjykimet e AI në gjuetinë e dhuratave në këtë diskutim, por ka disa paralele mjaft të rëndësishme me arenën e bujarisë.

Disa janë dukshëm të habitur që çdo firmë do të dëshironte të ofronte një shpërblim për të gjetur gabime (ose, në këtë rast, paragjykime të AI) në sistemet e tyre.

Në sipërfaqe, kjo duket si një lloj strategjie "ju po e kërkoni". Nëse i tregon botës se i mirëpret ata që mund të përpiqen të gjejnë vrima në softuerin tuaj, duket e barabartë me t'u thënë hajdutëve të shkojnë përpara dhe të përpiqen të hyjnë në shtëpinë tuaj. Edhe nëse tashmë besoni se keni një sistem mjaft të mirë alarmi për hajdutët dhe se askush nuk duhet të jetë në gjendje të hyjë në shtëpinë tuaj të sigurt, imagjinoni duke kërkuar dhe me të vërtetë duke iu lutur hajdutëve që të zbresin të gjithë në vendbanimin tuaj dhe të shihni nëse munden. plas në të. Oh hallet që i thurim vetes.

E njëjta gjë mund të thuhet për kërkimin e gjahtarëve të dhuratave për të gjetur paragjykime në AI tuaj.

Së pari, ndoshta nënkupton që ju tashmë besoni ose madje e dini plotësisht se AI juaj ka paragjykime. Ky është një pranim i nënkuptuar tronditës i drejtpërdrejtë që pak do të dukeshin të gatshëm ta bënin dhe që mund të dështonte.

Së dyti, ju nuk e dini me siguri se çfarë mund të bëjnë ata gjuetarët e dhuratave. Ata mund të zgjedhin t'i tregojnë të gjithë botës se kanë gjetur paragjykime në AI tuaj. Dikush supozon se kjo mund të humbasë marrjen e shpërblimit, megjithëse disa mund të shijojnë vëmendjen ose të synojnë të forcojnë statusin e tyre për marrjen e koncerteve këshilluese dhe mundësi të tjera për të gjeneruar të ardhura. Ndoshta mund të jetë krejtësisht altruiste. Mund të jetë një formë e aktivizmit të AI. Unë mund të vazhdoj.

Së treti, mund të ketë një kthesë të poshtër në të gjithë çështjen. Një gjuetar dhuratash që pretendon se po kërkon paragjykime të AI mund të jetë djallëzor duke u vërdallë për të gjetur mënyra për të sulmuar sistemin tuaj të AI. E gjithë kjo është një sharadë për të ndërmarrë në fund një sulm të rëndë kibernetik. Ju mund të keni supozuar se ata po përpiqeshin të ndihmonin, ndërsa ata kanë keqbërje në zemrat e tyre. E trishtueshme, por e mundur.

Së katërti, ne mund të shtrembërohemi edhe më dinak për këtë çështje. Një gjuetar dhuratash gjen disa paragjykime të AI të turpshme dhe potencialisht që nxisin padi. Shpërblimi është një sasi dollarësh që ne do ta quajmë X. Në vend që të kërkojë shpërblimin, gjuetari i dhuratave bën një lloj provokimi të çuditshëm ransomware. Nëse i paguani gjahtarit të dhuratave një shumë prej dhjetë herë X ose ndoshta kufirin e qiellit, ata do t'ju tregojnë për paragjykimet e AI. Keni kohë deri në mbrëmjen e së dielës në mesnatë për t'u përgjigjur. Pas kësaj pike në kohë, paragjykimet e AI do të zbulohen për t'i parë të gjithë. Po, një telash i tmerrshëm për të qenë.

Së pesti, më të fundit janë ata të ashtuquajtur "hack to return" mashtrues kibernetikë, të cilët pasi kanë vjedhur një tufë brumë në internet, vendosin të pendohen dhe të kthejnë një pjesë të plaçkës së paligjshme që kanë rrëmbyer. Kompania që merr pjesërisht paratë e saj është e gatshme të konsiderojë shumën e mbetur të vjedhur si një shpërblim pas faktit të shpërblyer për hajdutët. Duket sikur të gjithë "fitojnë" në atë që pjesa më e madhe e fondeve kthehen dhe ndërkohë hajdutët kibernetikë nuk ndiqen ligjërisht, plus ata marrin shpërblimin e piratëve. A është kjo e kujdesshme apo që përjetëson në mënyrë tinëzare veprime të gabuara?

E kuptoj që disa prej jush mund të thonë se askush nuk duhet të lëshojë AI që ka ndonjë paragjykim në të. Kjo do të duket se do të zgjidhë të gjithë këtë dilemë nëse do të përdoren gjuetarët e dhuratave të paragjykimeve të AI apo jo. Thjesht mos e fut veten në një situatë shpërblimi. Sigurohuni që zhvilluesit tuaj të AI të bëjnë gjënë e duhur dhe të mos lejojnë paragjykime të AI në sistemet e tyre të AI. Ndoshta përdorni konsulentë për të bërë një kontroll të dyfishtë. Në thelb, bëni gjithçka që duhet të bëni për të mos menduar ndonjëherë ose kërkuar nga ata gjuetarët e dhuratave të paragjykimit të AI që të vijnë në tryezë.

Po, kjo do të dukej krejtësisht e arsyeshme. Problemi është se është edhe pak ëndërrimtar. Kompleksiteti i shumë sistemeve të inteligjencës artificiale është aq i madh sa që përpjekja për të siguruar që asnjë ons e paragjykimeve të AI nuk do të jetë e vështirë për t'u bërë. Për më tepër, disa sisteme të AI janë krijuar qëllimisht për t'u përshtatur dhe "mësuar" ndërsa shkojnë përpara. Kjo do të thotë që në një moment të ardhshëm kohor, AI që shpikuat, e cila le të pretendojmë në fillim ishte thjesht e pastër dhe pa paragjykime, mund të gravitojë drejt mishërimit të paragjykimeve (nuk e kam fjalën këtë në një mënyrë antropomorfike, siç do ta shpjegoj më tej ndërsa ne vazhdo në këtë temë).

Ata që favorizojnë kërkimin e dhuratave për defekte në softuer janë të prirur të argumentojnë se ka kuptim të ofrohen dhurata të tilla. Ne mund të shqyrtojmë arsyetimin e tyre dhe të shohim nëse ai zbatohet edhe në fushën e paragjykimeve të AI.

Përkrahësit e bug bounties theksojnë se në vend që të përpiqeni të pretendoni se nuk ka ndonjë vrimë në sistemin tuaj, pse të mos inkurajoni gjetjen e vrimave, duke e bërë këtë në një mënyrë "të kontrolluar"? Në të kundërt, pa një përpjekje të tillë bujari, ju thjesht mund të shpresoni dhe të luteni që rastësisht askush të mos gjejë një vrimë, por nëse në vend të kësaj ju ofroni një dhuratë dhe u tregoni atyre që gjejnë një vrimë se do të shpërblehen, ajo ofron një mundësia për të krijuar më pas vrimën vetë dhe më pas i pengon të tjerët ta gjejnë atë fshehurazi në një moment të mëvonshëm kohor.

E njëjta gjë mund të thuhet në rastin e përdorimit të paragjykimeve të AI. Nëse ofroni një shpërblim të mjaftueshëm, shpresojmë se gjuetarët e dhuratave do të sjellin në vëmendjen tuaj zbulimin e paragjykimeve të AI. Më pas mund të përballeni me paragjykimet e AI në një mënyrë relativisht të qetë dhe të matur. Kjo mund të parandalojë një problem shumë më të madh dhe më të frikshëm më vonë, domethënë që dikush tjetër të gjejë paragjykime të AI në AI tuaj dhe të bërtasë për të në qiejt e lartë.

Në përgjithësi, një firmë që dëshiron të mundësojë përpjekjet e gjuetisë së bujarisë do të vendosë një Politikë të zbulimit të cenueshmërisë (VDP). VDP tregon se si duhet të gjenden defektet dhe t'i raportohen firmës, së bashku me mënyrën se si shpërblimi ose shpërblimi do t'i jepet gjahtarit. Zakonisht, VDP-ja do të kërkojë që gjuetari të përfundojë nënshkrimin e një Marrëveshjeje Mos-Zbulimi (NDA) në mënyrë që ata të mos u zbulojnë të tjerëve atë që gjetën.

Nocioni i përdorimit të një NDA me gjuetarët e dhuratave ka disa polemika. Edhe pse ndoshta ka kuptim për kompaninë që ofron shpërblimin që të dëshirojë t'i mbajë nënës ekspozimet e gjetura, thuhet gjithashtu se mbyt ndërgjegjësimin e përgjithshëm për defekte të tilla. Me sa duket, nëse lejohet të flitet për defektet e softuerit, kjo do të ndihmonte potencialisht sigurinë e sistemeve të tjera në firmat e tjera që më pas do të ruanin ekspozimet e tyre. Disa gjuetarë të dhuratave nuk do të nënshkruajnë një NDA, pjesërisht për shkak të dëshirës së publikut dhe pjesërisht për shkak të përpjekjes për të mbajtur të fshehur identitetin e tyre. Mbani në mend gjithashtu se aspekti i NDA nuk lind zakonisht derisa gjahtari të pretendojë se ata kanë gjetur një defekt, në vend që ta kërkojnë atë paraprakisht.

Disa VDP përcaktojnë se NDA është vetëm për një periudhë të kufizuar kohore, duke i lejuar firmës që së pari të gjejë një zgjidhje për vrimën e dukshme dhe më pas të lejojë një zbulim më të gjerë në lidhje me të. Pasi vrima të jetë mbyllur, firma më pas lejon një lirim të NDA në mënyrë që pjesa tjetër e botës të dijë për defektin. Koha tipike e zgjidhjes për defektet e gjuajtura me dhurata raportohet se është rreth 15-20 ditë kur një firmë dëshiron ta mbyllë atë menjëherë, ndërsa në raste të tjera mund të zgjasë deri në 60-80 ditë. Për sa i përket pagesës së gjahtarit të dhuratave, e ashtuquajtura kohë për të paguar, pasi vrima është verifikuar si ekzistuese në të vërtetë, pagesat e shpërblimeve thuhet se priren të jenë brenda rreth 15-20 ditësh për rastet më të vogla dhe rreth 50-60 ditë për rastet më të mëdha (këto janë vazhdimisht në ndryshim indikacionet e industrisë dhe përmenden vetëm si ilustruese).

A duhet t'u kërkohet gjithashtu gjuetarëve të dhuratave të paragjykojë AI të marrin pjesë në një VDP dhe të merren me një NDA?

Ju mund të merrni një po dhe një jo për këtë pyetje. Po, disa firma duhet të shkojnë në këtë rrugë. Jo, ju mund të mos zgjidhni domosdoshmërisht të shkoni në atë rrugë. Faktorët përfshijnë madhësinë dhe natyrën e AI, potencialin e çdo ekspozimi të paragjykimeve të AI, dhe një sërë konsideratash të tjera etike, ligjore dhe të biznesit që vijnë në zbatim.

Mund të shtoj se krijimi i një përpjekjeje të gjuetisë së dhuratave për paragjykimet e AI të AI-së tuaj është një urdhër shumë më i lartë se sa mund të supozoni në një shikim fillestar.

Ne do të fillojmë me mundësinë e jashtëzakonshme që ju të pushtoni nga gjuetarët e dhuratave të paragjykimeve të AI.

Tani për tani, do të ishte e vështirë të gjesh shumë që do të kishin një kartë të tillë telefonike. Nuk ka shumë përreth. Janë ditët e Perëndimit të Egër në këtë drejtim. Por nëse nocioni i paragjykimeve të AI në gjuetinë e dhuratave vazhdon, veçanërisht kur dhuratat janë të bollshme dhe shumë shpërblyese, mund të vini bast se të gjithë do të zhyten në pishinën e gjuetisë së paragjykuar.

Dëshironi të gjitha llojet e sharjeve që ndjekin paragjykimet e AI në sistemin tuaj të AI? Ju do të merrni disa marrës që janë në të vërtetë ekspertë në këtë lloj gjëje. Ju do të merrni marrës të tjerë që janë amatorë dhe mund të bëjnë rrëmujë ose të qajnë ujk. Gjëja tjetër që dini, kushdo që mund të shqiptojë "Inteligjencë Artificiale" do të vijë të gërmojë në minierën tuaj të arit të një sistemi AI për ato copa ari të çmuara të paragjykimeve të AI. Ecja e arit po vazhdon. Kjo mund të mos jetë mirë për ju.

Ju do të duhet të shqyrtoni parashtresat e gjahtarëve të dhuratave. Do të ketë shumë "zhurmë" në pretendimet e raportuara, në kuptimin që shumë nga paragjykimet e pretenduara të AI nuk ekzistojnë, megjithëse gjuetari i dhuratave këmbëngul që ata gjetën disa. Imagjinoni sa punë do t'ju kërkohet ekipeve tuaja të AI për të shqyrtuar pretendimet e shpërblimeve, për të eksploruar vlefshmërinë e secilit dhe më pas potencialisht për të shkuar përpara dhe me radhë me gjahtarin e dhuratave nëse ari u zbulua apo jo.

Disa do të argumentonin se kjo është një arsye tjetër për ta bërë të gjithë këtë vetë. Ju mund të zbuloni në mënyrë të pashmangshme se gjëja e bujarisë është më shumë telashe sesa ia vlente.

Këtu është një pyetje tjetër për të menduar. Si do ta dinë gjuetarët e dhuratave se si duket një paragjykim i AI? Në thelb, pa ndonjë pamje të asaj që duhet kërkuar, çdo shkëmb me shkëlqim mund të pretendohet se shfaq një paragjykim të AI në minierën e perceptuar të AI që po gërmohet.

Në ditët e Perëndimit të Vjetër, supozoni se keni ofruar një shpërblim për kapjen e Billy the Kid (një i jashtëligjshëm i famshëm). Nëse e keni bërë këtë dhe nuk keni përfshirë një foto se si dukej Billy, imagjinoni numrin e gjuetarëve të dhuratave që mund të tërhiqnin në zyrën e sherifit dikë që ata shpresonin ose mendonin se ishte Billy Kid. Ju mund të përmbyteni me Billy të rremë. Kjo është e keqe pasi me sa duket duhet të shikoni secilën prej tyre, të bëni pyetje hetuese dhe të përpiqeni të përcaktoni nëse personi ishte vërtet Billy apo jo.

Çështja është se për të vendosur përpjekjet për shpërblimin e paragjykimeve të AI, do të ishte e mençur të përpiqeshit dhe të sqaronit se nga çfarë konsideroni se përbëhen paragjykimet e AI. Kjo kërkon një lloj kalibrimi Goldilocks. Ju nuk dëshironi të jeni aq të kufizuar sa që gjuetarët e dhuratave të anashkalojnë paragjykimet e AI thjesht sepse ato nuk përshtaten me përkufizimin tuaj të përcaktuar dhe as nuk dëshironi që ata të bërtasin "Eureka!" në çdo pjesë të një paragjykimi të AI që ata mbase gjejnë.

Do t'ju duhet vetëm balanca e duhur Goldilocks nga ajo që përbëhen paragjykimet e AI dhe kështu të ofroni udhëzime mundësisht të qarta për to.

Një pjesë e madhe e kësaj gjuetie të dhuratave të paragjykimeve të AI do të përqendrohet në sistemet e Mësimit të Makinerisë (ML) dhe të Mësimit të Thellë (DL) të bazuar në AI. Kjo ka kuptim pasi ardhja e përhapjes së ML/DL po rritet, plus duket se ka disa nga sfidat më të mundshme të përfshirjes së paragjykimeve të panevojshme të AI.

Këta studiues identifikojnë se sa e spikatur mund të jetë një përpjekje për gjuetinë e paragjykimeve të AI, veçanërisht në kontekstin e ML/DL: “Me kalimin e kohës, softueri dhe komunitetet e sigurisë kanë zhvilluar 'bugatitë e gabimeve' në një përpjekje për të kthyer dinamika të ngjashme midis zhvilluesve të sistemit dhe kritikëve të tyre. (ose hakerat) drejt qëllimeve më interaktive dhe produktive. Shpresa është që duke i ftuar qëllimisht palët e jashtme për të gjetur gabime softuerike ose harduerike në sistemet e tyre, dhe shpesh duke ofruar stimuj monetarë për ta bërë këtë, do të zhvillohet një ekosistem më i shëndetshëm dhe më i shpejtë. Është e natyrshme për komunitetin e ML-së të marrë në konsideratë një qasje të ngjashme 'bias bounty' për zbulimin dhe riparimin në kohë të modeleve dhe sistemeve me paragjykime ose sjellje të tjera të padëshirueshme. Në vend që të gjejnë gabime në softuer, palët e jashtme ftohen të gjejnë paragjykime - për shembull, nëngrupe (demografike ose të tjera) të dhënash në të cilat një model i trajnuar nuk performon më mirë - dhe shpërblehen për ta bërë këtë" (në punimin "Një kornizë algoritmike për paragjykimet Bounties” nga Ira Globus-Harris, Michael Kearns dhe Aaron Roth).

Në punimin kërkimor, autorët përshkruajnë një qasje të sugjeruar se cilat lloje të paragjykimeve të AI mund të kërkohen nga gjuetarët e dhuratave. Ekziston gjithashtu një tregues se si të vlerësohen pretendimet e gjahtarëve të dhuratave të lidhura me paragjykimet e supozuara të AI të zbuluara. Sipas vërejtjeve të mia të mëparshme këtu, shanset janë që ju të merrni pretendime të çuditshme dhe të duhet të ndani grurin e paragjykimeve të AI nga byku.

Përpara se të hyjmë në disa më shumë mish dhe patate në lidhje me konsideratat e egra dhe të leshta që qëndrojnë në themel të gjuetisë së paragjykimit të AI, le të vendosim disa baza shtesë mbi tema thellësisht integrale. Ne duhet të bëjmë shkurtimisht një zhytje të shpejtë në Etikën e AI dhe veçanërisht ardhjen e Mësimit të Makinerisë (ML) dhe Mësimit të Thellë (DL).

Ju mund të jeni paksa të vetëdijshëm se një nga zërat më të lartë këto ditë në fushën e AI dhe madje edhe jashtë fushës së AI konsiston në thirrjet për një pamje më të madhe të AI Etike. Le të hedhim një vështrim se çfarë do të thotë t'i referohemi Etikës së AI dhe AI ​​Etike. Për më tepër, ne do të shqyrtojmë se çfarë dua të them kur flas për Mësimin e Makinerisë dhe Mësimin e Thellë.

Një segment ose pjesë e veçantë e Etikës së AI që ka marrë shumë vëmendjen e medias përbëhet nga IA që shfaq paragjykime dhe pabarazi të padrejta. Ju mund të jeni të vetëdijshëm se kur filloi epoka e fundit e AI, pati një shpërthim të madh entuziazmi për atë që disa e quajnë tani AI për të mirë. Fatkeqësisht, në fund të atij eksitimi të vrullshëm, ne filluam të dëshmojmë AI për të keqen. Për shembull, sisteme të ndryshme të njohjes së fytyrës të bazuara në AI janë zbuluar se përmbajnë paragjykime racore dhe paragjykime gjinore, të cilat unë i kam diskutuar në lidhja këtu.

Përpjekjet për të luftuar kundër AI për të keqen janë duke u zhvilluar në mënyrë aktive. Përveç zhurmshëm juridik përpjekjet për të frenuar keqbërjen, ka gjithashtu një shtytje thelbësore drejt përqafimit të Etikës së AI për të ndrequr poshtërsinë e AI. Nocioni është se ne duhet të miratojmë dhe miratojmë parimet kryesore etike të AI për zhvillimin dhe vënien në terren të AI duke e bërë këtë për të nënvlerësuar AI për të keqen dhe njëkohësisht duke paralajmëruar dhe promovuar të preferuarën AI për të mirë.

Në një nocion të lidhur, unë jam një avokat i përpjekjes për të përdorur AI si pjesë e zgjidhjes së problemeve të AI, duke luftuar zjarrin me zjarr në atë mënyrë të menduari. Për shembull, ne mund të fusim komponentë etikë të inteligjencës artificiale në një sistem të AI që do të monitorojë se si pjesa tjetër e AI po i bën gjërat dhe kështu mund të kapë në kohë reale çdo përpjekje diskriminuese, shihni diskutimin tim në lidhja këtu. Ne gjithashtu mund të kemi një sistem të veçantë të AI që vepron si një lloj monitoruesi i Etikës së AI. Sistemi i AI shërben si një mbikëqyrës për të gjurmuar dhe zbuluar kur një tjetër AI po shkon në humnerën joetike (shih analizën time të aftësive të tilla në lidhja këtu).

Në një moment, unë do të ndaj me ju disa parime gjithëpërfshirëse që qëndrojnë në themel të Etikës së AI. Ka shumë nga këto lloje të listave që qarkullojnë aty-këtu. Mund të thuash se nuk ka ende një listë të vetme të apelit dhe pajtimit universal. Ky është lajmi fatkeq. Lajmi i mirë është se të paktën ka lista të disponueshme të Etikës së AI dhe ato priren të jenë mjaft të ngjashme. Gjithçka, kjo sugjeron që nga një formë konvergjence e arsyetuar e llojeve që ne po gjejmë rrugën tonë drejt një të përbashkëte të përgjithshme të asaj në të cilën përbëhet Etika e AI.

Së pari, le të mbulojmë shkurtimisht disa nga parimet e përgjithshme Etike të AI për të ilustruar atë që duhet të jetë një konsideratë jetike për këdo që krijon, punon ose përdor AI.

Për shembull, siç thuhet nga Vatikani në Roma Thirrje për Etikën e AI dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së IA të identifikuara:

  • Transparenca: Në parim, sistemet e AI duhet të jenë të shpjegueshme
  • Përfshirja: Nevojat e të gjitha qenieve njerëzore duhet të merren parasysh në mënyrë që të gjithë të përfitojnë dhe të gjithë individëve t'u ofrohen kushtet më të mira të mundshme për t'u shprehur dhe zhvilluar.
  • përgjegjësia: Ata që projektojnë dhe përdorin përdorimin e AI duhet të vazhdojnë me përgjegjësi dhe transparencë
  • Paanësia: Mos krijoni ose veproni sipas paragjykimeve, duke ruajtur kështu drejtësinë dhe dinjitetin njerëzor
  • besueshmëria: Sistemet e AI duhet të jenë në gjendje të funksionojnë me besueshmëri
  • Siguria dhe privatësia: Sistemet e AI duhet të funksionojnë në mënyrë të sigurt dhe të respektojnë privatësinë e përdoruesve.

Siç thuhet nga Departamenti Amerikan i Mbrojtjes (DoD) në tyre Parimet etike për përdorimin e inteligjencës artificiale dhe siç e kam trajtuar në thellësi në lidhja këtu, këto janë gjashtë parimet e tyre kryesore të etikës së AI:

  • Përgjegjës: Personeli i DoD do të ushtrojë nivelet e duhura të gjykimit dhe kujdesit duke mbetur përgjegjës për zhvillimin, vendosjen dhe përdorimin e aftësive të AI.
  • E barabartë: Departamenti do të ndërmarrë hapa të qëllimshëm për të minimizuar paragjykimet e paqëllimshme në aftësitë e AI.
  • E gjurmueshme: Aftësitë e UA të Departamentit do të zhvillohen dhe shpërndahen në mënyrë që personeli përkatës të ketë një kuptim të duhur të teknologjisë, proceseve të zhvillimit dhe metodave operacionale të zbatueshme për aftësitë e AI, duke përfshirë metodologjitë transparente dhe të auditueshme, burimet e të dhënave dhe procedurën dhe dokumentacionin e projektimit.
  • Reliable: Aftësitë e AI të Departamentit do të kenë përdorime të qarta, të mirëpërcaktuara dhe siguria, siguria dhe efektiviteti i aftësive të tilla do t'i nënshtrohen testimit dhe sigurimit brenda atyre përdorimeve të përcaktuara gjatë gjithë ciklit të tyre jetësor.
  • E qeverisjes: Departamenti do të projektojë dhe inxhinierojë aftësitë e AI për të përmbushur funksionet e tyre të synuara, ndërkohë që zotëron aftësinë për të zbuluar dhe shmangur pasojat e paqëllimshme, dhe aftësinë për të shkëputur ose çaktivizuar sistemet e vendosura që demonstrojnë sjellje të paqëllimshme.

Unë kam diskutuar gjithashtu analiza të ndryshme kolektive të parimeve të etikës së AI, duke përfshirë përfshirjen e një grupi të hartuar nga studiues që shqyrtonin dhe kondensonin thelbin e parimeve të shumta kombëtare dhe ndërkombëtare të etikës së AI në një punim të titulluar "Peizazhi Global i Udhëzimeve të Etikës së AI" (botuar në Natyrë), dhe që mbulimi im eksploron në lidhja këtu, e cila çoi në këtë listë kryesore:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Siç mund ta merrni me mend drejtpërdrejt, përpjekja për të përcaktuar specifikat që qëndrojnë në themel të këtyre parimeve mund të jetë jashtëzakonisht e vështirë për t'u bërë. Për më tepër, përpjekja për t'i kthyer ato parime të gjera në diçka krejtësisht të prekshme dhe mjaft të detajuar për t'u përdorur gjatë krijimit të sistemeve të AI është gjithashtu një arrë e vështirë për t'u goditur. Në përgjithësi, është e lehtë të bësh disa lëvizje me dorë rreth asaj se cilat janë parimet e Etikës së AI dhe se si ato duhet të respektohen përgjithësisht, ndërkohë që është një situatë shumë më e ndërlikuar në kodimin e AI që duhet të jetë goma e vërtetë që plotëson rrugën.

Parimet e Etikës së AI duhet të përdoren nga zhvilluesit e AI, së bashku me ata që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të AI konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u tha më herët, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të etikës së AI.

Le të sigurohemi gjithashtu se jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI ku po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim egërsisht për i ndjeshëm AI, ky diskutim mund të shkojë në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Le t'i mbajmë gjërat më në tokë dhe të shqyrtojmë inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Le të kthehemi tani në temën e gjuetisë së paragjykimeve të AI.

Për ata prej jush që konsiderojnë një përpjekje për gjuetinë e dhuratave të paragjykimit të AI, këtu janë shtatë hapat e mi të rekomanduar kyç se si të vazhdohet më mirë:

1) vlerësoj. Vlerësoni përshtatshmërinë e një përpjekjeje të gjuetisë së dhuratave të paragjykimit të AI për rrethanat tuaja dhe sipas sistemeve tuaja të AI

2) Projektimi. Hartoni një qasje të përshtatshme të gjuetisë së paragjykimeve të AI

3) zbatuar. Zbatoni dhe publikoni përpjekjet tuaja për gjuetinë e dhuratave të paragjykimit të AI

4) Fushë. Fusni kërkesat për shpërblimet e paragjykimeve të AI dhe përpunoni në përputhje me rrethanat

5) Fix. Rregulloni ose rregulloni inteligjencën artificiale tuaj si të përshtatshme për këto ekspozime të zbuluara të paragjykimit të AI

6) përshtat. Rregulloni gjuetinë e dhuratave të paragjykimeve të AI sipas nevojës

7) humbasësh. Ndaloni gjuetinë e dhuratave të paragjykimit të AI kur nuk është më e nevojshme

Në serinë time të hapave të mësipërm, vini re se unë përmend se me sa duket do të dëshironi të rregulloni ose rregulloni AI tuaj, bazuar në konstatimin se një paragjykim i pretenduar i AI ekziston në të vërtetë brenda sistemit tuaj të AI. Kjo ka shumë kuptim. Me siguri do të dëshironit të mbështesni çdo paragjykim të gjetur të AI. Mendoni për pasojat ligjore (dhe etike) nëse nuk e bëni këtë. Është një gjë të pohosh se nuk e dinit se ekzistonte një paragjykim i AI dhe për këtë arsye e lejuat të ekzistonte, ndërkohë që është shumë më e lëkundshme të keni në histori që jeni vënë në dijeni për një paragjykim të AI dhe nuk keni bërë asgjë për të.

Natyra dhe shkalla e rregullimit ose rregullimit të AI sigurisht që do të varet nga sa domethënëse ishin paragjykimet e AI dhe sa të ngulitura thellë janë çështjet. Nëse jeni me fat, ndoshta një sasi modeste ndryshimesh në AI do t'i korrigjojë gjërat. Potenciali tjetër është se mund t'ju duhet të bëni një rishkrim të tërë të AI. Për llojin ML/DL të AI, kjo mund të kërkojë kthimin në tabelën e vizatimit dhe fillimin e ri me një grup krejtësisht të ri të dhënash dhe një model ML/DL të pastruar. Unë kam diskutuar ardhjen e shpërbërjes së AI ose shkatërrimit të AI si një mjet juridik i mundshëm kundër AI të pakëndshme, shih lidhja këtu.

Një pyetje për t'u menduar është nëse do të dëshironit që gjuetarët e dhuratave të bëjnë më shumë sesa thjesht të identifikojnë ekzistencën e paragjykimeve të AI. Për shembull, ju mund të ëmbëlsoni shpërblimin duke treguar se rregullimet e propozuara janë gjithashtu të mirëseardhura. Një paragjykim i AI gjetur nga një gjahtar dhuratash mund të paguhet një shpërblim ose çmim i treguar. Nëse gjahtari i dhuratave mund të ofrojë gjithashtu një të zbatueshme fix ndaj paragjykimit të AI atyre mund t'u jepet një shpërblim shtesë.

Disa argumentojnë se kjo është një urë shumë larg. Ata thonë se ju duhet t'i mbani gjuetarët e shpërblimeve të paragjykimit të AI të fokusuar ekskluzivisht në gjetjen e paragjykimeve të AI. Ju do të krijoni një mori pasojash të padëshirueshme negative duke i ftuar ata të sugjerojnë gjithashtu rregullime. Mbajini gjërat të thjeshta. Qëllimi është të merrni sa më shumë sy të tjerë në zbulimin e paragjykimeve të AI, në mënyrë që të vendosni se çfarë të bëni më pas. Mos i turbulloni ujërat.

Një aspekt i mprehtë që duhet kuptuar përfshin madhësinë e shpërblimit ose çmimit për gjuetarët e dhuratave që vërtet zbulojnë paragjykimet e AI. Ju dëshironi që fitimi të jetë demonstrues. Pa një shpërblim mjaft të lartë, nuk do të merrni shumë gjuetarë të dhuratave ose ata nuk do të jenë veçanërisht të etur për të kërkuar paragjykimet e AI në sistemet tuaja të AI. Në vend të kësaj, ata mund të përqendrohen në përpjekjet e tjera të paragjykimit të AI.

Për më tepër, siç u përmend, ju dëshironi të përpiqeni të shtypni një nxitje nga gjuetarët e dhuratave për t'i kthyer zbulimet e tyre të paragjykimit të AI në forma të tjera ari. Nëse shpërblimi duket i poshtër, ai mund t'i irritojë gjuetarët e dhuratave që të kërkojnë përfitime të tjera më të larta. Ata mund të marrin një qasje ransomware ndaj jush. Ata mund të deklarojnë se kanë një paragjykim të lëngshëm të AI për të cilin një konkurrent do të donte të dinte dhe mund ta përdorte kundër firmës tuaj duke pretenduar se paragjykimi i AI ekziston në AI tuaj. Kështu, ata shesin paragjykimet e zbuluara të AI tek ofertuesi më i lartë. Dhe kështu me radhë.

Një supozon se nëse e vendosni shpërblimin në një gamë jashtëzakonisht të lartë, po kërkoni gjithashtu telashe të mundshme. Kjo mund të tërhiqte të gjitha llojet e gjahtarëve të bujarisë me arrë. Ata nga ana e tyre mund të përmbytin mediat sociale me pretendime të turbullta se ata gjetën një mori paragjykimesh të AI, duke e bërë këtë për vetë-promovimin e tyre dhe pa pasur në fakt paragjykime të AI. Në një farë kuptimi, shpërblimi juaj i rritur pa dashje ndriçon një dritë në AI tuaj dhe nxit një mori tenjash të papjekura që përkatësisht të tërhiqen në mënyrë të dëmshme nga rrezja e dritës shkëlqyese.

Një konsideratë tjetër përfshin aksesin në AI tuaj.

Për të mundësuar një mundësi gjuetie të dhuratave të AI, gjuetarët e dhuratave duhet të kenë akses të mjaftueshëm në AI tuaj. Ata nuk do të kenë shumë fat në gjetjen e paragjykimeve të AI nëse janë plotësisht të mbyllur. Por ju nuk dëshironi të hiqni dorë nga mbrojtjet tuaja të sigurisë kibernetike pasi një gjë e tillë mund të komprometojë plotësisht sistemin tuaj të AI.

Ju mund të përpiqeni t'i bëni gjuetarët e dhuratave të nënshkruajnë deklarata të ndryshme ligjërisht të detyrueshme dhe më pas t'u siguroni atyre aksesin e nevojshëm. Disa gjuetarë të dhuratave nuk do ta pëlqejnë atë lloj qasjeje. Pikëpamja e tyre është se ata do të bëjnë vetëm çfarëdo që lejon çdo rrugë e disponueshme publikisht dhe e hapur. Ata janë mavericks të lirë, si të thuash, dhe nuk u pëlqen të shalohen, si të thuash. Bërja e tyre për të vënë nënshkrimin e tyre në dokumentet ligjore frikësuese do të bëjë që shumë prej tyre të shmangin kërkimin e paragjykimeve të AI në AI tuaj. Ose ata mund të tërhiqen nga dora juaj ligjore dhe të vendosin se do të shohin se çfarë mund të gjejnë përmes mjeteve publike, duke e bërë këtë me një nxitje ndoshta të fortë për t'ju treguar se sa i pambrojtur jeni në të vërtetë.

Unë kam një kënd tjetër që mund të të bëjë kokën të rrotullohet.

Një gjuetar i njohurive të AI mund të vendosë të krijojë një sistem të AI që mund të shqyrtojë AI tuaj dhe ndoshta të zbulojë paragjykimet e AI në AI tuaj. Ky është prodhuesi i veglave që zgjedh të bëjë një mjet për të kryer punën në vend që të kryejë vetë punën manuale. Në vend që të ekzaminojë me mundim AI-n tuaj, gjuetari i dhuratave të aftë për AI shpenzon kohën e tij duke sajuar një mjet të AI që bën të njëjtën gjë. Ata më pas përdorin mjetin AI në AI tuaj. E bukura gjithashtu është se ata me sa duket mund të ripërdorin mjetin AI për këdo tjetër që po ofron gjithashtu një mundësi gjuetie të dhuratave në AI-në e tyre përkatëse.

Unë e di se çfarë ndoshta po mendoni. Nëse mund të krijohet një mjet i AI për të ekzaminuar AI për paragjykime, krijuesi i AI që po shqyrtohet për paragjykimet e AI duhet ose të krijojë një mjet të tillë të AI ose të blejë një për përdorim të tyre. Në teori, ata atëherë nuk kanë nevojë të luftojnë me të gjithë karnavalin e gjuetarëve të dhuratave, për të filluar. Thjesht përdorni AI për të gjetur paragjykimet e tyre të AI.

Po, kjo është diçka që mund të prisni që do të lindë gradualisht. Ndërkohë, shtylla kryesore e këtyre përpjekjeve ka të ngjarë të përbëhet nga zhvilluesit e inteligjencës artificiale që bëjnë gjueti të dhuratave. Ata mund të përdorin mjete të ndryshme për të ndihmuar përpjekjet e tyre, por në një afat të afërt, ata nuk kanë gjasa që thjesht ta vendosin pa mend mjetin e AI në automatik dhe të bëjnë një sy gjumë të tillë që mjeti të bëjë të gjithë paragjykimin e AI për ta.

Nuk jemi ende atje.

Në këtë moment të këtij diskutimi me peshë, do të vë bast se ju dëshironi disa shembuj ilustrues që mund të shfaqin këtë temë. Ekziston një grup shembujsh të veçantë dhe me siguri të popullarizuar që më janë afër zemrës. E shihni, në cilësinë time si ekspert i AI duke përfshirë degëzimet etike dhe ligjore, më kërkohet shpesh të identifikoj shembuj realistë që shfaqin dilemat e Etikës së AI, në mënyrë që natyra disi teorike e temës të mund të kuptohet më lehtë. Një nga fushat më ndjellëse që paraqet gjallërisht këtë problem etik të inteligjencës artificiale është shfaqja e makinave të vërteta vetë-drejtuese të bazuara në AI. Kjo do të shërbejë si një rast përdorimi ose shembull i dobishëm për diskutim të gjerë mbi temën.

Këtu është një pyetje e rëndësishme që ia vlen të merret parasysh: A ndriçon ardhja e makinave të vërteta vetë-drejtuese të bazuara në AI në lidhje me përdorimin e gjuetisë së dhuratave të paragjykimit të AI dhe nëse po, çfarë tregon kjo?

Më lejoni një moment për të zbërthyer pyetjen.

Së pari, vini re se nuk ka një shofer njerëzor të përfshirë në një makinë të vërtetë vetë-drejtuese. Mbani në mend se makinat e vërteta vetë-drejtuese drejtohen nëpërmjet një sistemi drejtimi me AI. Nuk ka nevojë për një shofer njerëzor në timon, as nuk ka një dispozitë që një njeri të drejtojë automjetin. Për mbulimin tim të gjerë dhe të vazhdueshëm të Automjeteve Autonome (AV) dhe veçanërisht makinave vetë-drejtuese, shih lidhja këtu.

Do të doja të sqaroja më tej se çfarë nënkuptohet kur i referohem makinave të vërteta vetë-drejtuese.

Kuptimi i niveleve të veturave që drejtojnë vetveten

Si sqarim, makinat e vërteta vetë-drejtuese janë ato ku AI e drejton makinën tërësisht vetë dhe nuk ka asnjë ndihmë njerëzore gjatë detyrës së drejtimit.

Këto automjete pa shofer konsiderohen Niveli 4 dhe Niveli 5 (shih shpjegimin tim në kjo lidhje këtu), ndërsa një makinë që kërkon një shofer njerëzor për të bashkëndarë përpjekjet e drejtimit zakonisht konsiderohet në nivelin 2 ose nivelin 3. Makinat që ndajnë detyrën e drejtimit përshkruhen si gjysmë autonome dhe zakonisht përmbajnë një shumëllojshmëri të shtesa të automatizuara që quhen ADAADA
S (Sisteme të avancuara të ndihmës së shoferit).

Nuk ka ende një makinë të vërtetë vetë-drejtuese në Nivelin 5, dhe ne nuk e dimë ende nëse kjo do të jetë e mundur të arrihet, as sa kohë do të duhet për të arritur atje.

Ndërkohë, përpjekjet e Nivelit 4 po përpiqen gradualisht të marrin një tërheqje duke kaluar nëpër gjykime shumë të ngushta dhe selektive të rrugëve publike, megjithëse ka polemikë nëse ky test duhet të lejohet në vetvete (ne të gjithë jemi derra guinea për jetë a vdekje në një eksperiment duke u zhvilluar në autostradat dhe autostradat tona, disa pretendojnë, shikojnë mbulimin tim në kjo lidhje këtu).

Meqenëse veturat gjysmë autonome kërkojnë një shofer njerëzor, adoptimi i atyre llojeve të veturave nuk do të jetë dukshëm i ndryshëm sesa vozitja e automjeteve konvencionale, kështu që nuk ka shumë gjëra të reja për tu mbuluar rreth tyre në këtë temë (megjithëse, siç do ta shihni në një moment, pikat e bëra më tej janë përgjithësisht të zbatueshme).

Për veturat gjysmë autonome, është e rëndësishme që publiku të paralajmërohet për një aspekt shqetësues që po shfaqet kohët e fundit, domethënë që përkundër atyre drejtuesve njerëzorë që mbajnë postimin e videove të vetes duke rënë në gjumë në timonin e një makine Niveli 2 ose Niveli 3 , ne të gjithë duhet të shmangim mashtrimin në besimin se shoferi mund të heq vëmendjen e tyre nga detyra e drejtimit ndërsa drejton një makinë gjysmë autonome.

Ju jeni palë përgjegjëse për veprimet e drejtimit të automjetit, pavarësisht se sa automatizim mund të futet në një Niveli 2 ose Niveli 3.

Makina vetë-drejtuese dhe gjuetia e dhuratave të paragjykimit të AI

Për automjetet e drejtimit të vërtetë të Nivelit 4 dhe Nivelit 5, nuk do të ketë një shofer njerëzor të përfshirë në detyrën drejtuese.

Të gjithë banorët do të jenë pasagjerë.

UA po bën drejtimin.

Një aspekt për të diskutuar menjëherë përfshin faktin se UA e përfshirë në sistemet e sotme të drejtimit të AI nuk është e ndjeshme. Me fjalë të tjera, AI është krejtësisht një kolektiv i programimit dhe algoritmeve të bazuar në kompjuter, dhe sigurisht që nuk është në gjendje të arsyetojë në të njëjtën mënyrë që njerëzit munden.

Pse ky theksim i shtuar në lidhje me UA nuk është i ndjeshëm?

Meqenëse dua të nënvizoj se kur diskutoj rolin e sistemit të drejtimit të AI, unë nuk po i përshkruaj AI aftësive njerëzore. Ju lutemi kini parasysh se ekziston një tendencë e vazhdueshme dhe e rrezikshme këto ditë për të antropomorfizuar AI. Në thelb, njerëzit janë duke i dhënë ndjesi të ngjashme me njeriun AI-së së sotme, përkundër faktit të pamohueshëm dhe të pakontestueshëm që asnjë AI i tillë nuk ekziston ende.

Me atë sqarim, ju mund të parashikoni që sistemi i drejtimit të AI nuk do të "dijë" në lidhje me aspektet e ngasjes. Ngasja dhe gjithçka që përfshin do të duhet të programohen si pjesë e harduerit dhe softuerit të veturës që drejton vetveten.

Le të zhytemi në morinë e aspekteve që vijnë për të luajtur në këtë temë.

Së pari, është e rëndësishme të kuptojmë se jo të gjitha makinat vetë-drejtuese me AI janë të njëjta. Çdo prodhues automjetesh dhe firmë teknologjike vetëdrejtuese po ndjek qasjen e saj për të krijuar makina që drejtojnë vetë. Si e tillë, është e vështirë të bëhen deklarata gjithëpërfshirëse për atë që do të bëjnë ose nuk do të bëjnë sistemet e drejtimit të AI.

Për më tepër, sa herë që thuhet se një sistem ngarje AI nuk bën ndonjë gjë të veçantë, kjo më vonë mund të kapërcehet nga zhvilluesit që në fakt programojnë kompjuterin për ta bërë atë gjë. Hap pas hapi, sistemet e drejtimit të AI po përmirësohen dhe zgjerohen gradualisht. Një kufizim ekzistues sot mund të mos ekzistojë më në një përsëritje ose version të ardhshëm të sistemit.

Shpresoj që kjo të sigurojë një seri të mjaftueshme paralajmërimesh për të mbështetur atë që do të tregoj.

Në rubrikat e mia, unë kam diskutuar tashmë gjerësisht përdorimin e gjuetarëve të dhuratave të orientuara nga insektet në fushën e automjeteve autonome dhe makinave vetë-drejtuese. Kjo qasje ka ndodhur me të vërtetë në këtë vend. Ka debate të zakonshme nëse është një ide e shëndoshë apo jo. Përpjekjet kanë qenë zakonisht të një natyre të kufizuar, shpesh të mbajtura relativisht të heshtura.

Një diskutim i ngjashëm mund të rrjedhë kur fokusi zhvendoset drejt kërkimit të paragjykimeve të AI në vend që të kërkojë gabime të sistemit në vetvete. Disa sugjerojnë se është e mallkuar nëse e bëni, e mallkuar nëse nuk jeni në enigmë.

Ja pse.

Së pari, për të qenë të qartë, ka shumë mënyra në të cilat automjetet autonome dhe makinat vetë-drejtuese do t'i nënshtrohen paragjykimeve që përmbajnë AI, shihni mbulimin tim në lidhja këtu lidhja këtu, vetëm për të përmendur disa. Prodhuesit e automjeteve dhe firmat e makinave që drejtojnë vetë do të dukeshin të mençura të përpiqeshin të parandalonin shfaqjen e paragjykimeve të AI në sistemet e tyre të AI. Stuhia ligjore dhe etike kundër firmave të tilla do të jetë padyshim intensive.

A është përdorimi i një përpjekjeje të gjuetisë së dhuratave për paragjykimet e AI një qasje e përshtatshme në këtë kontekst specifik?

Një përgjigje është se po, kjo do të jetë e dobishme dhe do të ofrojë një bollëk grupesh "falas" sysh të rinj për të provuar dhe kapur çdo paragjykim të inteligjencës artificiale të integruar të një makine vetë-drejtuese me AI ose të ngjashme. Shumica e zhvilluesve të AI që ndërtojnë makina vetë-drejtuese janë të zënë me krijimin e AI që mund të drejtojë në mënyrë të sigurt një makinë nga pika A në pikën B. Ata janë të preokupuar me atë aftësi thelbësore dhe nuk kanë as kohë as vëmendje ndaj ndonjë paragjykimi të AI që mund të jetë diku në AI e tyre.

Përgjigja tjetër është se jo, lejimi i gjuetisë së dhuratave për automjete autonome dhe makina vetë-drejtuese mbi çdo bazë, qoftë për defekte apo paragjykime të AI, thjesht duhet të shmanget ashpër. Argumenti është se këto automjete dhe AI ​​i tyre janë të një kalibri jetë a vdekje. Ngatërrimi me AI në çdo mënyrë mund të jetë disi shkatërrues për AI dhe të ndikojë në atë që bën sistemi i drejtimit të AI.

Një kundërargument për këtë pikë të fundit është se gjuetarët e dhuratave supozohet se nuk janë në gjendje të ndryshojnë AI që po ekzaminojnë. Kështu, nuk ka asnjë rrezik që ata të ngatërrohen me AI dhe të bëjnë që AI në këtë kontekst të bëhet papritmas një sistem i çmendur drejtimi i AI. Gjuetarët e dhuratave kanë akses vetëm për lexim. Lejimi i tyre për të shkuar më tej do të ishte marrëzi dhe një gabim i madh.

Kundërargumenti ndaj këtij kundërargumenti është se duke lejuar dhe inkurajuar gjuetarët e dhuratave të ekzaminojnë AI-n tuaj, e gjithë çështja bëhet e zymtë. Ata gjuetarë të dhuratave mund të gjejnë mënyra për të shfrytëzuar çdo defekt ose paragjykim të gjetur. Këto shfrytëzime nga ana tjetër mund të jenë për qëllime dinak. Do të ishte më mirë të mos ftonit "hajdutët" në shtëpinë tuaj, si të thuash. Pasi të kenë nxjerrë nyjen, në fund do të jeni në një grumbull telashe.

Për ata që kanë sisteme të inteligjencës artificiale të një madhësie më pak se jetë ose vdekje, besimi është se pasojat e një sulmi të gjuetisë së dhuratave që shkon keq janë shumë më pak të rrezikshme. Ndoshta kështu. Nga ana tjetër, nëse një firmë ka derdhur paratë e saj në një sistem AI që gjuetarët e dhuratave arrijnë ta uzurpojnë, mund të supozoni se dëmtimet e reputacionit dhe dëmet e tjera të mundshme do të dëmtojnë akoma.

Nuk ka drekë falas kur bëhet fjalë për gjuetinë e dhuratave të paragjykimit të AI.

Një vërejtje e shpejtë mbyllëse për momentin.

Kur i paligjshmi famëkeq Jesse James u kërkua gjatë Perëndimit të Vjetër, u shtyp një poster "Wanted" që ofronte një shpërblim prej 5,000 dollarësh për kapjen e tij (duke thënë "i vdekur apo i gjallë"). Ishte një shumë mjaft masive parash në atë kohë. Një nga anëtarët e bandës së tij vendosi të qëllonte për vdekje Jesse dhe të merrte shpërblimin. Unë mendoj se kjo tregon se sa efektive mund të jetë një dhuratë.

A do të jetë një gjë e mirë përdorimi i gjuetarëve të dhuratave të paragjykimit të AI, apo do të jetë një gjë e keqe?

Nëse vendosni të filloni një përpjekje për gjahtarët e dhuratave të paragjykimit të AI, unë do t'ju sugjeroja që t'i mbani sytë hapur dhe të shikoni mbi supe gjatë gjithë kohës. Kjo është e kujdesshme për ju dhe AI ​​tuaj. Asnjëherë nuk e dini se çfarë mund të ndodhë, duke përfshirë që një gjahtar i mirësjelljes në një farë mënyre fut në mënyrë të fshehtë një paragjykim të AI në AI tuaj dhe i bërtet botës se ata gjetën një paragjykim të paskrupullt të AI në AI tuaj. Ndoshta duke e bërë këtë në një përpjekje të pacipë dhe të pamasë për të kërkuar shpërblimin e bujarisë, plus duke e shpallur veten një hero që në thelb mori Jesse James-in e nderuar.

Me sa duket, një AI e ndjeshme ndoshta nuk do t'i pëlqejë ideja e një dispozite shqetësuese të vdekur ose të gjallë, dikush mund të spekulojë kaq keq.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- sistemet-plotësisht-autonome-etike-të liga-është-i matur-ose-i kotë/