Politikëbërësit duhet të merren me sfidat reale të AI

Përqendrimi në rrezikun e mjegullt të zhdukjes nga AI është një shpërqendrim i rrezikshëm.

Javën e kaluar, një grup i financuar nga Silicon Valley i quajtur Qendra për Sigurinë e AI lëshoi ​​një deklaratë me një fjali: “Zbutja e rrezikut të zhdukjes nga AI duhet të jetë një prioritet global krahas rreziqeve të tjera në shkallë shoqërore, si pandemitë dhe lufta bërthamore”. Ai u nënshkrua nga shumë drejtues të industrisë dhe studiues të respektuar të AI dhe mori një mbulim të gjerë në shtyp.

Reagimi më i gjerë ndaj deklaratës ishte i ashpër. Profesorja e Universitetit të Oksfordit Sandra Wachter tha se ishte thjesht një marifet publicitar. Disa nga nënshkruesit më të ndjeshëm si eksperti i sigurisë Bruce Schneier shprehën shpejt pendimin e nënshkruesve. "Unë në fakt nuk mendoj se AI paraqet rrezik për zhdukjen e njerëzve," tha Schneier.

Të tjerë menduan se deklarata ishte me të vërtetë një mashtrim për mbledhjen e fondeve. Profesori i Sociologjisë i Universitetit Duke, Kieren Healy, postoi një parafrazë tallëse: "Unë dhe miqtë e mi do të kërkojmë një ngarkesë absolute me para granti për të zbutur kërcënimet ekzistenciale të nivelit të specieve që lidhen me këtë gjë që ne pretendojmë se po bëjmë".

Marietje Schaake, një ish-deputete e BE-së tani me Qendrën e Politikave Kibernetike të Universitetit Stanford, sugjeroi se nënteksti i deklaratës ishte se politikëbërësit duhet të merren me rrezikun ekzistencial, ndërsa drejtuesit e biznesit vendosin rregullat aktuale për përdorimin e AI. Ndërsa AI mund të jetë i ri, tha ajo, ky argument i nënkuptuar se liderët e industrisë së AI "janë të vendosur më së miri për të rregulluar vetë teknologjitë që prodhojnë" nuk ishte gjë tjetër veçse pika diskutimi e ricikluar nga përdorimi i tyre i mëparshëm në mediat sociale dhe polemikat e kriptomonedhave.

Mendimi im është se paralajmërimet apokaliptike për arritjen e një agjencie të vetëdijshme dhe të pavarur të AI janë një shpërqendrim nga sfidat reale të AI që kërkojnë që rregullatorët të rrisin zbatimin e ligjit aktual dhe politikëbërësit të marrin në konsideratë rishikimet për t'u marrë me boshllëqet ligjore.

Mashtrimi i kryer duke përdorur AI është i paligjshëm, siç ka thënë kryetarja e Komisionit Federal të Tregtisë Lina Khan. Agjencia ka paralajmëruar tashmë për përdorimin e AI për të imituar njerëzit për të kryer mashtrime video dhe telefonike. Kina ka vënë re të njëjtën gjë dhe po godet mashtrimet e drejtuara nga AI. Nuk është e qartë se ka çështje të reja ligjore këtu, por do të kërkoheshin përpjekje të mëdha për zbatimin e tij për të kontrolluar këtë përmbytje të ardhshme të mashtrimit të AI. Financimi i plotë i kërkesës buxhetore të agjencisë prej 590 milionë dollarësh do të ishte një përdorim shumë më produktiv i parasë publike sesa një studim i rreziqeve ekzistenciale të AI.

Të gjithë janë të shqetësuar siç duhet për dezinformatat e krijuara nga AI, siç është njoftimi i fundit i 'Putinit të rremë' se Rusia ishte nën sulm. Etiketimi mund të ndihmojë shumë drejt reduktimit të këtyre rreziqeve. Reklama nga Komiteti Kombëtar Republikan që pasoi shpalljen e Biden për kandidaturën e tij presidenciale përdori inteligjencën artificiale për të gjeneruar imazhe të asaj që mund të ndodhte nën një Presidencë të re Biden, por ajo u etiketua si e tillë dhe kjo reduktoi rrezikun e dezinformimit.

Transparenca për inteligjencën artificiale është fryt i politikave që politikëbërësit duhet ta rrëmbejnë, siç duket se po bëjnë disa. Këtë javë, nënpresidentja e Komisionit Evropian, Vera Jourova, u kërkoi kompanive të teknologjisë të etiketojnë përmbajtjen e krijuar nga inteligjenca artificiale. Në SHBA, Rep. Ritchie Torres (DN.Y.) së shpejti do të prezantojë legjislacionin që do të kërkonte shërbime si ChatGPT të zbulojnë se prodhimi i tij ishte "i krijuar nga inteligjenca artificiale".

E drejta e autorit dhe AI ​​është një sfidë tjetër. Nevojitet pak qartësi në lidhje me kompensimin e pronarëve të të drejtave të autorit për përdorimin e materialit të tyre për trajnimin e AI. Në shkurt, Getty paditi Stability AI në SHBA duke thënë se kompania e AI kishte kopjuar 12 milionë imazhe Getty pa leje për të trajnuar softuerin e saj të gjenerimit të imazheve të Stable Diffusion AI. Javën e kaluar ajo i kërkoi një gjykate në Londër të bllokonte Stability AI në MB sepse kompania e AI kishte shkelur të drejtat e autorit të Getty në trajnimin e sistemit të saj.

Këto çështje do të shqyrtohen në gjykatë. Por ka një argument të mirë që mbajtësit e të drejtave të autorit nuk kanë nevojë të kompensohen fare për shkak të përdorimit të drejtë ose për shkak se vetëm fakte dhe ide të pambrojtura nxirren për trajnimin e AI. Për më tepër, direktiva e vitit 2019 e Bashkimit Evropian për të drejtat e autorit në Tregun Unik Dixhital përmban një përjashtim që lejon nxjerrjen e tekstit dhe të dhënave të materialit në internet me të drejtë autori, përveç rasteve kur pronari i së drejtës së autorit tërhiqet duke përdorur mbrojtje teknologjike, si p.sh. një bllokues titujsh për të parandaluar skanimin. Kjo mund të mbulojë të dhënat e trajnimit të AI.

Drafti aktual i Aktit të Inteligjencës Artificiale të Bashkimit Evropian kërkon zbulimin e veprave të mbrojtura nga të drejtat e autorit të përdorura në trajnimin e sistemeve të AI. Kjo duket se synon t'u mundësojë pronarëve të të drejtave të autorit të ushtrojnë të drejtën e tyre për të hequr dorë nga nxjerrja e tekstit dhe e të dhënave për trajnimin e AI. Por mund të jetë gjithashtu një hap drejt diçkaje më tej. Kjo mund të çojë në një regjim licence të detyrueshme që do të parandalonte mbajtësit e të drejtave të autorit të bllokojnë trajnimin e AI, por do t'u siguronte atyre një kompensim për përdorimin e pronës së tyre intelektuale. Zgjidhja e këtyre çështjeve të së drejtës së autorit do të kërkojë vëmendje të përqendruar nga politikëbërësit.

Akti i BE-së për IA kërkon gjithashtu që sistemet e rrezikshme të AI t'i nënshtrohen një procesi certifikimi që synon të sigurojë që rreziqet janë vlerësuar në mënyrë adekuate dhe janë miratuar masa të arsyeshme zbutëse. Drafti aktual i trajton modelet themelore si ChatGPT si sisteme të rrezikshme që i nënshtrohen certifikimit, një barrë e mundshme që me sa duket e shtyu kreun e Open AI, Sam Altman të thoshte se do të tërhiqte ChatGPT nga Evropa nëse nuk mund ta përmbushte atë. Që atëherë ai e ka kthyer këtë kërcënim, duke thënë se nuk ka plane të largohet.

Megjithatë ai ka një pikë. Politikëbërësit që kërkojnë një çështje konkrete për t'u përtypur duhet të pyesin veten se si një sistem i AI me qëllime të përgjithshme si ChatGPT mund të certifikohet si "i sigurt" kur shumë nga rreziqet do të shfaqen vetëm kur sistemi zbatohet në praktikë.

Këto janë vetëm disa nga çështjet kryesore të AI që duhet të shqetësojnë politikëbërësit. Të tjera përfshijnë ndikimet e punësimit të sistemeve gjithnjë e më të aftë të AI, sfidat e privatësisë kur të dhënat e trajnimit përfshijnë informacione personale, tendencën drejt përqendrimit të krijuar nga kostot e mëdha dhe efektet e rrjetit të trajnimit të softuerit të AI, aplikimi i rregullave të përgjegjësisë së Seksionit 230 dhe zbatimi i ligjet kundër paragjykimeve në huadhënie, strehim dhe punësim kur AI drejton vlerësimet e përshtatshmërisë.

Politikëbërësit nuk duhet dhe nuk duhet të enden në fusha të mjegullta ku programet autonome të AI dalin jashtë kontrollit dhe kërcënojnë mbijetesën njerëzore. Ata kanë shumë punë për të bërë për t'u përballur me sfidat e shumta të AI në botën reale.

Burimi: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/