Momenti Cry Wolf i AI Hype është i padobishëm

Megjithëse jam dikush që studioj skenarët e fundit të njerëzimit, besoj se "letra e ekspertit" që sugjeron një moratorium 6-mujor të AI ose deklarata më e fundit se rreziku i AI është në nivelin e rrezikut pandemik dhe bërthamor, janë të dyja të mbipopulluara. Mendimi edhe më i egër se ne duhet të mbyllim AI është i papërgjegjshëm. Çdo shqetësim duhet të jetë proporcional me rreziqet me të cilat përballemi. Për momentin, ne nuk jemi në asnjë rrezik të menjëhershëm nga AI.

UA-të aktuale nuk janë në gjendje të marrin nën kontroll shoqërinë. Ata nuk kanë ndjenja dhe nuk meritojnë mbrojtje siç bëjnë jetët njerëzore. Ata nuk janë superinteligjentë dhe nuk i kalojnë njerëzit në asnjë mënyrë të përgjithshme. Në fakt, ata nuk mendojnë fare. Tani për tani, nëse ushqehen me të dhëna të bollshme, AI-të janë shumë të mira në detyra specifike si llogaritja dhe parashikimi. Kjo nuk është shqetësuese, këto janë veçori që këto sisteme kanë nga dizajni. Premtimi i AI-ve përfshin zgjidhjen e kancerit, transformimin e prodhimit industrial, modelimin e skenarëve të ardhshëm dhe menaxhimin e sfidave mjedisore. Duke thënë këtë, ka arsye legjitime për të kritikuar AI-të aktuale për përdorimin e burimeve, transparencën, paragjykimin, sigurinë kibernetike dhe ndikimin e saj në të ardhmen në punësim.

AI-të janë të shtrenjta nga pikëpamja llogaritëse – që do të thotë se ato janë një humbje e madhe e energjisë së pakët fosile. Kjo duhet të adresohet menjëherë. Por kjo nuk është një çështje ekzistenciale, është një çështje e përdorimit racional të burimeve. Fakti që AI që mbështeten në modele të mëdha dhe joefikase të të dhënave po bëhen shumë të shtrenjta për t'u gjurmuar dhe hetuar nga akademia ose qeveria është një çështje reale. Por është e rregullueshme menjëherë. Konsorciumet e institucioneve elitare akademike ose qeveritë mund të bashkohen dhe të ndajnë burimet kompjuterike ashtu siç kanë bërë për superkompjuterin.

Modelet e mëdha gjuhësore (LLM) janë modele të AI që mund të gjenerojnë tekste të gjuhës natyrore nga sasi të mëdha të dhënash. Një problem me këtë është se këto tekste rrjedhin drejtpërdrejt nga kontributet e ndershme intelektuale të njerëzve të tjerë. Në fakt janë të vjedhura. Inteligjenca artificiale gjeneruese, në veçanti, rikombinon të dhënat e konsumatorit dhe të organizatës, si dhe përmbajtjen krijuese në shkelje të ashpër të të drejtës së autorit. Kjo është serioze, por jo ekzistenciale, dhe për më tepër, BE-ja, lobistët nga Hollivudi dhe botuesit e librave "pesë të mëdhenj" janë tashmë në këtë çështje. Prisni që kjo të ngadalësojë peshën e AI. Me ritmin aktual, AI-ve do t'i mbarojnë të dhënat e mira të trajnimit shumë përpara se t'i afrohen sensit.

Algoritmet e përdorura tashmë për të llogaritur taksat tona, për të zgjedhur burimet tona në internet ose për të futur njerëzit në burg kanë një mungesë të dukshme transparence. Megjithatë, ky ka qenë rasti prej vitesh dhe nuk ka të bëjë fare me zhvillimet më të fundit të AI. Paragjykimi i AI është një veçori dhe jo një gabim. Stereotipizimi është, në fakt, qasja kryesore përmes së cilës funksionojnë modele të tilla. Përveçse paragjykimi fshihet në shtresa të padepërtueshme të arsyetimit makinerie të pakapshme për njerëzit, ekspertët apo jo. Ajo që duhet të vëmë në dyshim është mençuria e zhvilluesve që zhvilluan sisteme të tilla, jo aftësia e sistemit që ata krijuan, e cila është e dhënë. Sistemet rrallë do të jenë më të mira se mençuria ose qëllimet e atyre që e ndërtojnë ose e drejtojnë atë.

Të dhënat e trajnimit të AI pasqyrojnë paragjykimet e pranishme në shoqërinë nga e cila janë mbledhur ato të dhëna. Ripërdorimi i të dhënave të këqija të trajnimit është një praktikë shqetësuese që ndot tashmë modelet e AI. Qasjet aktuale të AI thjesht përforcojnë paragjykimet për të arritur shpejt në një rezultat. Kjo është, pa dyshim, e kundërta e asaj që duam. Ajo që duam të bëjmë është të përdorim teknologjinë për të mbrojtur gabimet njerëzore. Shqetësimi për gabimin e makinës është një përdorim i kotë i inteligjencës njerëzore.

Pavarësisht metaforës së "rrjetit nervor", AI-të aktuale nuk i ngjajnë trurit në asnjë shtrirje të imagjinatës. Sistemet aktuale të AI nuk mund të arsyetojnë me analogji si njerëzit. Kjo eshte mire. Ne mund të mos duam në fakt atë lloj shtrirjeje të AI që të zelltarët po mbrojnë dhe po përpiqen të imitojnë. Makineritë duhet të jenë të ndryshme nga njerëzit. Kështu mund të maksimizojmë pikat e forta të njëri-tjetrit. Dhe si mund t'i mbajmë makinat të dallueshme dhe të ndara. Makineritë nuk duhet të kenë interesa për t'u lidhur.

AI përfaqëson gjithnjë e më shumë një kërcënim të rëndësishëm të sigurisë kibernetike si një aset për kriminelët dhe shtetet armiqësore. Por siguria kibernetike është një industri e pjekur me shumë ekspertë të pajisur mirë për të përballuar sfidën. Nuk ka asnjë arsye për të mbyllur AI për shkak të frikës së sigurisë kibernetike.

Ndërprerja e punësimit për shkak të AI ka qenë një çështje e politikave prej vitesh, fillimisht me robotët, tani me sistemet e AI të bazuara në softuer. Kjo do të thotë se qeveritë do të jenë të gatshme të merren me të. Studimi i MIT Work of the Future zbuloi se shqetësimi për papunësinë për shkak të robotëve ishte i mbivlerësuar. Njerëzit kanë gjetur gjithmonë mënyra për të punuar dhe do ta bëjnë këtë edhe në të ardhmen. A do të transformohet prodhimi nga AI? Ajo tashmë po ndodh, por në një mënyrë mjaft të kontrolluar.

Herë pas here, AI vuan nga premtime të mbipopulluara në lidhje me funksionalitetin aktual ose shtrirjen e ardhshme. Dimrat e parë të inteligjencës artificiale filluan në 1974-1980, pasi qeveria amerikane tërhoqi fondet e saj. E dyta ishte nga 1987-1993, pasi kostot u përshkallëzuan dhe AI ​​nuk arriti t'i përmbushte premtimet e saj të larta.

Në pritje të ardhjes së paradigmave të reja, në periudhën 2025-2030, ne ka të ngjarë të hyjmë në një dimër të tretë të AI. Të paktën në krahasim me verën e nxehtë të inteligjencës artificiale, na është premtuar. Arsyeja është se, pavarësisht nga buja, për të gjitha arsyet e përshkruara më sipër, modelet e mëdha të gjuhës janë gati të arrijnë dobinë e tyre maksimale dhe përfundimisht do të duhet të zëvendësohen nga qasje më elegante llogaritëse që janë më transparente.

Një kandidat i tillë është llogaritja hiperdimensionale, e cila do t'i bënte makinat të arsyetojnë në mënyrë më efikase, sepse ato u japin makinave kuptimin semantik, aftësinë për të përpunuar kuptimin dhe kontekstin pas informacionit të botës reale. Tani për tani, sistemet e AI nuk i kuptojnë marrëdhëniet midis fjalëve dhe frazave, ato janë thjesht të mira në hamendje. Kjo është e pamjaftueshme. Përfundimisht do të kemi nevojë për AI të mishëruar, sepse të menduarit është i lidhur me perceptimin e hapësirës. Ky është padyshim rasti në prodhim, i cili është një lojë shumë fizike. Ne gjithashtu do të kemi nevojë për AI që është e aftë për veçoritë e kujtesës njerëzore, si p.sh. prioritizimi bazuar në parashtrimin e disa informacioneve dhe sfondin e informacioneve të tjera. Harresa është një mjet që njerëzit përdorin për të menduar abstrakt, për të kaluar nga praktikat e vjetruara organizative, për të marrë vendime dhe për të qëndruar në moment dhe nuk është thjesht një e metë. Asnjë makinë nuk mund ta bëjë këtë ende shumë mirë.

Ndërkohë, ne duhet të rregullojmë, por jo këtë sekondë. Dhe, kur rregullojmë, më mirë ta bëjmë mirë. Rregullimi i keq i AI ka të ngjarë ta përkeqësojë situatën. Zgjimi i rregullatorëve ndaj kësaj sfide mund të jetë i dobishëm, por nuk jam i sigurt se gjenerata aktuale e rregullatorëve është gati për atë lloj ndryshimesh gjithëpërfshirëse që do të nevojiteshin për ta bërë atë mirë. Kjo do të kërkonte pakësimin e kompanive të fuqishme (ndoshta të gjitha kompanitë e listuara), kufizimin e përdorimit të AI në qeverisje dhe do të nënkuptonte ndryshime të mëdha në mënyrën se si funksionojnë aktualisht tregjet e konsumit. Në thelb, ne do të duhet të rindërtojmë shoqërinë. Do të na çonte në derritje disa dekada më herët sesa mund të dëshironim. Sfida e transparencës që rrethon AI mund të jetë më e frikshme sesa variablat e kontrollit për të cilët të gjithë duken kaq të shqetësuar, jo se ato nuk kanë lidhje, natyrisht.

Për më tepër, ne nuk mund të shqetësohemi po aq sa herë që arrihet një standard i AI. Ne duhet të ruajmë energjitë tona për momente vërtet të mëdha të rrezikut kaskadë. Ata do të vijnë dhe, me të drejtë, ne nuk jemi të përgatitur. Skenarët e mi të parashikuar në të ardhmen (shih Skenarët e zhdukjes për vitin 2075) përfshijnë shkelje masive të të dhënave që mbajnë vende të tëra të mbyllura nga proceset e tyre për muaj të tërë. Unë gjithashtu shqetësohem për AI-të që ndihmohen nga grupe kriminale ose aktorë shtetërorë. Mbi të gjitha, shqetësohem për kombinimet e AI, nanoteknologjisë, biologjisë sintetike dhe teknologjisë kuantike – afërsisht inteligjencës pothuajse organike të padukshme me aftësi të panjohura, ndoshta vetëm disa dekada larg, që ndodh pikërisht kur bota do të konsumohet nga efektet kaskaduese të klimës ndryshim.

Modelet aktuale të inteligjencës artificiale nuk funksionojnë ende aq mirë sa të jenë një kërcënim për njerëzimin. Përpara se të shqyrtojmë mbylljen e tyre, ne kemi nevojë për AI më të mirë. Më shumë se kaq, ne kemi nevojë për zhvillues më të mençur, qytetarë më të sensibilizuar dhe politikëbërës më të informuar. Ne gjithashtu kemi nevojë për një koncept për SI të rregullojmë AI. Por kjo mund të bëhet pa ngadalësuar asgjë. Do të jetë një udhëtim edukativ për të gjithë. Letra e moratoriumit në lidhje me GPT 4 (2023) është një moment i klithmë ujku me vetëm një ngjashmëri të zbehtë me rreziqet kaskadë me të cilat përballet njerëzimi në dekadat e ardhshme. Vendosja e rrezikut të AI në nivelin e rrezikut pandemik dhe rrezikut bërthamor në vitin 2023 është e parakohshme. A do të arrijmë atje? Ndoshta. Por ujku që qan ka pasoja. Thith oksigjenin nga debatet e ardhshme rreth frikësimeve të vërteta.

Burimi: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/