Etika e inteligjencës artificiale dhe ligji i AI thjesht mund të nxitet dhe detyrohet të urdhërojë paralajmërimet e sigurisë për të gjithë AI ekzistuese dhe të ardhshme

Aktivitetet tuaja të përditshme janë padyshim të bombarduara me një mijë ose më shumë paralajmërime paraprake të një lloji apo tjetër.

Provoni këto për madhësinë:

  • Syzet e sigurisë duhet të mbahen gjatë gjithë kohës
  • Rreziku: Kimikatet e rrezikshme aty pranë
  • Tension i lartë - Mbani jashtë
  • Paralajmërim: Jini të vetëdijshëm për rrethinën tuaj
  • Objektet në pasqyrë janë më afër se sa duken
  • Hiqeni fëmijën përpara se ta palosni (siç thuhet në karrocat e fëmijëve)
  • Kujdes: Sigurohuni që ta shpërfillni këtë mesazh

Shumica e tyre janë shenja ose etiketa të dobishme dhe tërësisht të menduara që shërbejnë për të na mbajtur me shpresë të sigurt dhe të sigurt.

Ju lutemi, kini parasysh se unë fsheha disa "të jashtëzakonshëm" në listë për të bërë disa pika të rëndësishme.

Për shembull, disa njerëz besojnë se është e pakuptimtë që karrocat e foshnjave të kenë një etiketë të ngjitur që ju paralajmëron të mos e palosni karrocën ndërsa fëmija është ende ulur brenda karrocës. Megjithëse shenja është padyshim e përshtatshme dhe e dobishme me përkushtim, duket se sensi bazë i përbashkët tashmë do të ishte i mjaftueshëm.

Cili person nuk do ta kuptonte me vullnetin e tij të ndërgjegjshëm se fillimisht duhet të heqë foshnjën?

Epo, të tjerë theksojnë se etiketa të tilla i shërbejnë një qëllimi të rëndësishëm. Së pari, dikush mund të jetë vërtet i pavëmendshëm që duhet të heqë fëmijën përpara se të palos karrocën. Ndoshta personi supozoi se karroca ishte projektuar me zgjuarsi për të siguruar që operacioni i palosjes nuk do të dëmtonte foshnjën. Ose ndoshta ka veçori të integruara sigurie që parandalojnë palosjen sa herë që ka një fëmijë brenda karrocës. etj.

Gjithashtu, mund të ndodhte që personi të ishte shpërqendruar dhe do ta kishte palosur pa mendje karrocën, duke përfshirë fëmijën dhe të gjitha, por etiketa për fat e shtyu personin që të mos e bënte këtë (disa do të argumentonin se duket e pamundur që një person i tillë të vinte re etiketën gjithsesi). Ekziston edhe fakti që dikush mund të padisë prodhuesin e karrocave nëse një etiketë e tillë nuk do të ishte e pranishme. Ju mund të imagjinoni një nga ato procese gjyqësore të rënda ku një fëmijë u plagos dhe prindi vendosi të mblidhte një milion dollarë sepse karroca nuk kishte një shenjë paralajmëruese të vendosur në të. Kompania e karrocave do të pendohej që nuk kishte shpenzuar disa cent të nevojshëm për të bërë dhe ngjitur shenjat paralajmëruese në karrocat e tyre.

Hidhini një sy gjithashtu nga afër mesazhet e fundit paralajmëruese që kisha renditur më sipër.

Zgjodha të vendos mesazhin smarmy për t'u siguruar që ta shpërfillni mesazhin pasi ka shumë etiketa paralajmëruese të rreme që njerëzit blejnë ose bëjnë vetëm për argëtim këto ditë. Ky është një ndërgjegjës i vërtetë filozofik. Nëse lexoni paralajmërimin që thotë të shpërfillni paralajmërimin, çfarë saktësisht duhet të bëni pasi të keni lexuar paralajmërimin? E keni lexuar tashmë, kështu që duket se është në mendjen tuaj. Sigurisht, ju mund ta injoroni atë, por përsëri, nuk jeni aspak të këshilluar se çfarë është ajo që supozohet të injoroni. Rrumbullakët, kjo shaka shkon.

Natyrisht, etiketat paralajmëruese me mirëbesim zakonisht nuk janë të një natyre shakaje ose humoristike.

Ne duhet t'i marrim shumë seriozisht paralajmërimet.

Zakonisht, nëse nuk i përmbaheni një paralajmërimi të shënuar, ju e bëni këtë me një rrezik të rëndë personal. Dhe, mund të ndodhë gjithashtu që nëse nuk respektoni dhe respektoni paralajmërimin, mund t'i vendosni edhe të tjerët në rrezik të panevojshëm. Merrni parasysh aktin e drejtimit të një makine. Në momentin që jeni pas timonit të një makine, veprimet tuaja si shofer mund të dëmtojnë veten, plus ju mund të dëmtoni pasagjerët tuaj dhe mund të dëmtoni të tjerët, si njerëzit në makina të tjera ose këmbësorët aty pranë. Në këtë kuptim, një paralajmërim nuk është vetëm për përfitimin tuaj, por ka të ngjarë edhe për të mirën e të tjerëve.

Pse po i mbuloj këto aspekte të paralajmërimeve dhe etiketave paralajmëruese?

Sepse disa po pohojnë me forcë se ne kemi nevojë për shenja paralajmëruese dhe paralajmëruese për Inteligjencën Artificiale (AI) e sotme.

Në fakt, nocioni është që të vendosen etiketa të tilla në AI-në e sotme dhe AI-n e ardhshme gjithashtu. Në përgjithësi, e gjithë AI do të përfundonte duke pasur një formë ose variant të një paralajmërimi ose treguesi paralajmërues të lidhur me të.

Ide e mirë apo ide e keqe?

Praktike apo jopraktike?

Le të shkojmë përpara dhe të shpaketojmë konceptimin dhe të shohim se çfarë mund të bëjmë prej tij.

Unë do të doja të vendosja së pari disa baza thelbësore rreth AI dhe veçanërisht Etikës dhe Ligjit të AI, duke e bërë këtë për t'u siguruar që tema e paralajmërimeve të AI do të jetë e ndjeshme në kontekst. Për ata prej jush që janë përgjithësisht të interesuar në UA Etike dhe gjithashtu Ligjin e AI, shihni mbulimin tim të gjerë dhe të vazhdueshëm në lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Rritja e ndërgjegjësimit për AI Etike dhe gjithashtu Ligjin e AI

Epoka e fundit e AI fillimisht u konsiderua si e tillë AI për të mirë, që do të thotë se ne mund të përdorim AI për përmirësimin e njerëzimit. Në thembra të AI për të mirë erdhi kuptueshmëria se edhe ne jemi zhytur në të AI për të keqen. Kjo përfshin AI që është krijuar ose vetë-ndryshuar në diskriminim dhe që bën zgjedhje llogaritëse duke mbushur me paragjykime të panevojshme. Ndonjëherë AI është ndërtuar në atë mënyrë, ndërsa në raste të tjera ajo kthehet në atë territor të pakëndshëm.

Dua të sigurohem shumë që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme. Ne nuk e kemi këtë. Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si singulariteti, shih mbulimin tim në lidhja këtu).

Lloji i AI në të cilin po fokusohem përbëhet nga AI jo e ndjeshme që kemi sot. Nëse do të donim të spekulonim në mënyrë të egër për inteligjencën artificiale të ndjeshme, ky diskutim mund të shkonte në një drejtim rrënjësisht të ndryshëm. Një AI e ndjeshme supozohet se do të ishte e cilësisë njerëzore. Duhet të keni parasysh se AI e ndjeshme është ekuivalenti kognitiv i një njeriu. Për më tepër, meqenëse disa spekulojnë se mund të kemi AI super-inteligjente, është e mundur që një AI i tillë mund të përfundojë të jetë më i zgjuar se njerëzit (për eksplorimin tim të AI super-inteligjente si një mundësi, shih mbulimin këtu).

Unë do të sugjeroja fuqimisht që t'i mbajmë gjërat në tokë dhe të marrim parasysh inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtën mënyrë me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht Mësimin e Makinerisë (ML) dhe Mësimin e Thellë (DL), të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Jini shumë të kujdesshëm ndaj antropomorfizimit të AI-së së sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime të ngulitura ende brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

E gjithë kjo ka implikime të rëndësishme të Etikës së AI dhe ofron një dritare të dobishme në mësimet e nxjerra (edhe para se të gjitha mësimet të ndodhin) kur bëhet fjalë për përpjekjen për të ligjësuar AI.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore.

Në kolonat e mëparshme, unë kam mbuluar përpjekjet e ndryshme kombëtare dhe ndërkombëtare për të krijuar dhe miratuar ligje që rregullojnë AI, shih lidhja këtu, për shembull. Unë kam mbuluar gjithashtu parimet dhe udhëzimet e ndryshme të Etikës së AI që kombe të ndryshme kanë identifikuar dhe miratuar, duke përfshirë për shembull përpjekjet e Kombeve të Bashkuara si grupi i UNESCO-s i Etikës së AI që kanë miratuar afro 200 vende, shih. lidhja këtu.

Këtu është një listë e dobishme kryesore e kritereve ose karakteristikave Etike të AI në lidhje me sistemet e AI që kam eksploruar më parë nga afër:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Këto parime të Etikës së AI supozohet të përdoren me zell nga zhvilluesit e AI, së bashku me ato që menaxhojnë përpjekjet e zhvillimit të AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI.

Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të IA konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u theksua më parë këtu, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të Etikës së UA.

Kohët e fundit kam ekzaminuar gjithashtu UA Bill of Rights i cili është titulli zyrtar i dokumentit zyrtar të qeverisë amerikane të titulluar "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" që ishte rezultat i një përpjekjeje njëvjeçare nga Zyra e Politikave të Shkencës dhe Teknologjisë (OSTP ). OSTP është një ent federal që shërben për të këshilluar Presidentin Amerikan dhe Zyrën Ekzekutive të SHBA-së për aspekte të ndryshme teknologjike, shkencore dhe inxhinierike me rëndësi kombëtare. Në këtë kuptim, mund të thoni se ky Projektligj i të Drejtave të AI është një dokument i miratuar dhe i miratuar nga Shtëpia e Bardhë ekzistuese e SHBA.

Në Ligjin e të Drejtave të AI, ekzistojnë pesë kategori kryesore:

  • Sisteme të sigurta dhe efektive
  • Mbrojtje nga diskriminimi algoritmik
  • Privatësia e të dhënave
  • Njoftim dhe shpjegim
  • Alternativat njerëzore, konsiderata dhe rikthimi

Unë i kam shqyrtuar me kujdes ato rregulla, shih lidhja këtu.

Tani që kam hedhur një themel të dobishëm në këto tema të lidhura me Etikën e AI dhe Ligjin e AI, ne jemi gati të hidhemi në temën e mprehtë nëse AI duhet të ketë apo jo etiketa paralajmëruese.

Bëhuni gati për një udhëtim informues që hap sytë.

Vendosja e etiketave paralajmëruese në AI si një mjet për të mbrojtur njerëzimin

Ka një zhurmë në rritje që ndoshta AI duhet të vijë me një paralajmërim të një lloji.

Për shembull, në një artikull të fundit në Rishikimi i teknologjisë MIT që diskutoi interesin në rritje për të bërë auditime të AI, u ngrit nocioni i ofrimit të shenjave paralajmëruese: “Rritja e këtyre auditimeve sugjeron që një ditë ne mund të shohim paralajmërime të stilit të paketave të cigareve se sistemet e AI mund të dëmtojnë shëndetin dhe sigurinë tuaj. Sektorë të tjerë, si kimikatet dhe ushqimi, kanë auditime të rregullta për t'u siguruar që produktet janë të sigurta për t'u përdorur. A mundet që diçka e tillë të bëhet normë në AI?” (Rishikimi i teknologjisë MIT, Melissa Heikkilä, 24 tetor 2022).

Le të flasim pak në përgjithësi për shenjat paralajmëruese dhe paralajmëruese.

Të gjithë jemi tashmë përgjithësisht të njohur me shenjat paralajmëruese dhe paralajmëruese në produkte dhe shërbime të shumta të natyrës së përditshme. Ndonjëherë shenjat e sigurisë janë të përcaktuara me ligj si të kërkuara, ndërsa në raste të tjera ekziston diskrecioni për përdorimin e shenjave të tilla. Për më tepër, disa shenja sigurie janë të standardizuara, të tilla si të specifikuara sipas standardit ANSI Z535 dhe standardit OSHA 1910.14. Këto standarde mbulojnë aspekte të tilla si formulimi i shenjës, ngjyrat dhe fontet e përdorura, forma e shenjës dhe veçori të tjera të ndryshme.

Ka kuptim të kemi standarde për shenja të tilla paralajmëruese. Sa herë që shihni një shenjë të tillë, nëse i plotëson standardet e deklaruara, ka më shumë gjasa të besoni se shenja është legjitime, plus ju duhet më pak përpunim kognitiv për të analizuar dhe kuptuar shenjën. Për shenjat që nuk janë të një qasjeje të standardizuar, shpesh duhet të llogaritni mendërisht atë që po ju thotë shenja, ndoshta duke humbur kohën e çmuar për të ndërmarrë veprime ose mund ta vlerësoni plotësisht shenjën dhe të mos e kuptoni siç duhet paralajmërimin në fjalë.

Mund të ekzistojnë një sërë shenjash të tilla, për të cilat ato shpesh klasifikohen disi si kjo:

  • Shenja e rrezikut: Shqetësimi më i lartë dhe tregues i një rreziku të menjëhershëm me pasoja të mundshme të rënda
  • Shenja paralajmëruese: Tregues i një rreziku që është më pak se "rrezik", por ende mjaft serioz
  • Shenja e kujdesit: Tregues i një rreziku të mundshëm që është më pak se "paralajmërues", por ende me të vërtetë serioz
  • Shenja e njoftimit: Tregues i një njoftimi informues që është më pak se "kujdes", por ende përfshin aspekte shqetësuese

Duke pasur parasysh sfondin e mësipërm në lidhje me paralajmërimet dhe shenjat paralajmëruese, ne mund të vazhdojmë dhe të përpiqemi ta zbatojmë këtë kontekstualisht për përdorimin e AI.

Së pari, ne potencialisht mund të pajtoheshim disi që sinjalizimi i AI mund të jetë në një gamë të ngjashme ashpërsie siç është zakon me shenjat e përditshme, të tilla që:

  • Shenja e rrezikut të AI: UA është shqetësimi më i lartë dhe tregues i një rreziku të menjëhershëm me pasoja të mundshme të rënda
  • Shenja paralajmëruese e AI: Inteligjenca artificiale tregon një rrezik që është më pak se "rrezik", por ende mjaft serioz
  • Shenja paralajmëruese e AI: Inteligjenca artificiale treguese e një rreziku të mundshëm që është më pak se një "paralajmërim", por ende me të vërtetë serioz
  • Shenja e njoftimit të AI: Inteligjenca artificiale tregon për një paralajmërim informativ që është më pak se "kujdes", por ende përfshin aspekte shqetësuese

Thelbi është se jo e gjithë AI do të jetë po aq shqetësuese. Mund të ndodhë që një AI paraqet rreziqe të jashtëzakonshme ose ka vetëm rreziqe margjinale. Prandaj, tabela duhet të pasqyrojë se cila është ajo. Nëse të gjitha paralajmërimet ose shenjat paralajmëruese të AI do të tregoheshin thjesht si të të njëjtit kalibër, ne me sa duket nuk do të dinim ose nuk do të ishim të vetëdijshëm nëse duhet të shqetësoheshim shumë ose vetëm pak të shqetësuar për AI. Përdorimi i një skeme të tipizuar formulimi mund ta bëjë jetën më të lehtë kur shihni dhe interpretoni shenja paralajmëruese të lidhura me AI.

Ju mund të pyesni veten se çfarë tjetër do të thoshin shenjat për sa i përket specifikave të mesazhit që do të transmetohet.

Kjo është sigurisht një çështje më e vështirë për t'u trajtuar. Mundësitë e AI për të bërë gjëra që konsiderohen të pasigurta ose shqetësuese do të ishin jashtëzakonisht të mëdha, pothuajse të pafundme. A mund t'i zbërthejmë ato në një grup të rutinuar që është shkruar me vetëm një grusht fjalësh secila? Apo do të na duhet të lejojmë një qasje më të lirë se si do të shkojë formulimi?

Do t'ju lë të mendoni për këtë pyetje të hapur.

Duke ecur përpara, ne priremi të shohim shenja paralajmëruese të postuara në objekte. Një sistem AI nuk është domosdoshmërisht një "objekt" në të njëjtin kuptim si vendosja e zakonshme e shenjave. Kjo ngre pyetjen se ku do të paraqiten shenjat paralajmëruese të AI.

Mund të ndodhë që kur po ekzekutoni një aplikacion në smartfonin tuaj, thoni se nëse përdor AI, do të shfaqet një mesazh që përmban paralajmërimin e lidhur me AI. Aplikacioni do t'ju paralajmërojë për përdorimin themelor të AI. Ky mund të jetë një mesazh pop-up ose mund të paraqitet në mënyra të ndryshme vizuale dhe madje dëgjimore.

Ekziston edhe situata e përdorimit të një shërbimi që mbështetet nga AI, megjithëse mund të mos bashkëveproni drejtpërdrejt me AI. Për shembull, ju mund të keni një bisedë me një agjent njerëzor për marrjen e një hipoteke për shtëpinë, për të cilën agjenti është në heshtje prapa skenave duke përdorur një sistem AI për të drejtuar përpjekjet e tyre.

Kështu, duhet të parashikojmë që shenjat paralajmëruese të AI duhet të jenë të pranishme në të dy rastet e përdorimit të AI, të tilla që:

  • AI specifike për produktin: Inteligjenca artificiale si produkt duhet të ketë shenja të drejtpërdrejta paralajmëruese ose paralajmëruese
  • AI e orientuar nga shërbimi: IA si shërbim (direkt ose indirekt) duhet të ketë shenja paralajmëruese ose paralajmëruese të AI

Skeptikët me siguri do të ishin të shpejtë për të sugjeruar se shenja paralajmëruese e AI mund të maskohet në mënyrë dinak nga krijuesi i aplikacionit, në mënyrë që alarmi të mos jetë veçanërisht i dukshëm. Ndoshta paralajmërimi shfaqet për një çast të shkurtër dhe ju vërtet nuk e vini re që u shfaq. Një tjetër mashtrim i poshtër do të ishte të bësh një lloj loje prej tij, duke ulur në dukje seriozitetin e vigjilencës dhe duke i shtyrë njerëzit të mendojnë se paralajmërimi është i parëndësishëm.

Po, mund të vini shumë bast se çdo shenjë paralajmëruese e lidhur me AI do të mashtrohet dhe do të përdoret në mënyra që nuk janë brenda frymës dhe qëllimit të mesazheve paralajmëruese që ata supozohet të përcjellin.

Të gjitha këto skepticizma lidhen me atë nëse ne do të përdorim Etikën e AI si "ligje të buta" për të provuar dhe për të ecur përpara në paralajmërimet dhe paralajmërimet e lidhura me AI, ose nëse do të përdorim "ligje të vështira" duke përfshirë ligjet e miratuara me mbështetje gjyqësore. Teorikisht, shtytja e butë e ligjit do të lejonte një pamje më të madhe të lojës me këtë çështje, ndërsa ligjet mbi librat do të vinin me potencialin për zbatimin e qeverisë dhe do të nxirrnin rreptësi më të madhe.

Një shqetësim tjetër është nëse sinjalizimi i AI do të bënte ndonjë ndryshim gjithsesi.

Shumë kërkime mbi sjelljen e konsumatorëve priren të tregojnë rezultate të ngatërruara kur bëhet fjalë për ofrimin e etiketave paralajmëruese për konsumatorët. Ndonjëherë paralajmërimet janë efektive, ndonjëherë jo. Le të zbatojmë disa nga ato kërkime në kontekstin e AI.

Merrni parasysh këto aspekte:

  • Zbulim: A do të vërejnë ose zbulojnë në mënyrë aktive ata që përdorin AI që përmban një shenjë paralajmëruese të zbatueshme të AI-së (duke supozuar se një shenjë e tillë ka ndodhur)?
  • Të kuptuarit: Për ata që e vunë re, a do ta kuptonin apo kuptonin se çfarë po përpiqet t'u sugjerojë shenja paralajmëruese e AI?
  • Veprimi: Për ata që e bëjnë atë kërcim mendor, a do t'i shtyjë ata të veprojnë shenja paralajmëruese e AI apo do të shërbejë për të udhëhequr sjelljen e tyre në përputhje me rrethanat?

Ju mund të parashikoni që nëse vrulli fiton për të patur shenja paralajmëruese të AI, studiuesit do ta studiojnë nga afër këtë çështje. Ideja do të ishte të ndihmonte për të sqaruar se në cilat rrethana paralajmërimet janë të dobishme dhe kur nuk janë të dobishme. Kjo nga ana tjetër lidhet me dizajnin dhe pamjen dhe ndjenjën e përfshirë. Ne gjithashtu mund të presim që publiku në përgjithësi do të duhet të edukohet ose të informohet për shfaqjen e këtyre shenjave paralajmëruese dhe paralajmëruese të AI, në mënyrë që ata të mësohen me to.

Ka shumë kthesa që duhen marrë parasysh.

A duhet që shenja paralajmëruese ose paralajmëruese e AI të shfaqet vetëm në fillim të aplikacionit që përdoret? Ndoshta pika e fillimit nuk është e mjaftueshme në vetvete. Një person në shikim të parë mund të mendojë se aplikacioni thjesht po e luan atë të sigurt duke përdorur një paralajmërim, dhe kështu nuk i kushton shumë vëmendje paralajmërimit. Sapo personi të jetë në mes të përdorimit të aplikacionit, ndoshta do të garantohej një paralajmërim shtesë. Në atë moment, personi është më i vetëdijshëm për atë që aplikacioni po ndërmerr dhe ai mund të ketë harruar tashmë mesazhin paralajmërues të treguar më parë.

Paralajmërimi ose paralajmërimi i AI atëherë mund të ndodhë:

  • Përpara nisjes së aplikacionit dhe pikërisht në momentin që aplikacioni do të thirret
  • Prezantohet sapo të nisë aplikacioni dhe vetëm në pikën fillestare
  • Shfaqet në fillim dhe përsëri në mes të rrugës
  • Shfaqet shumë herë gjatë përdorimit të AI
  • Jepet në fund të përdorimit të aplikacionit
  • Sigurohuni pas daljes nga aplikacioni dhe ndoshta edhe minuta, orë ose ditë më vonë
  • Etj

A mendoni se personi që përdor AI duhet të konfirmojë ose pranojë ndonjë paralajmërim të tillë ose shenjë paralajmëruese të AI?

Disa do të këmbëngulin që personit t'i kërkohet të pranojë se i ka parë paralajmërimet. Kjo potencialisht do të parandalonte ata që mund të pretendonin se nuk kishte ndonjë mesazh paralajmërues. Gjithashtu mund të bëjë që njerëzit t'i marrin mesazhet më seriozisht, duke qenë se atyre u kërkohet të konfirmojnë se kanë respektuar treguesin paralajmërues.

Këtu keni një pyetje të vështirë për ju.

Do të të gjithë IA duhet të japë një paralajmërim apo tregues sigurie?

Ju mund të argumentoni se po, e gjithë AI duhet ta ketë këtë. Edhe nëse AI është vetëm një rrezik margjinal i sigurisë, ai duhet të ketë ende një formë të shenjës paralajmëruese, ndoshta vetëm një njoftim ose tregues informues. Të tjerët do ta kundërshtonin këtë pretendim. Ata do të kundërargumentonin se po e teproni. Jo e gjithë AI ka nevojë për këtë. Për më tepër, nëse e detyroni të gjithë AI ta kenë atë, ju do ta zbehni qëllimin. Njerëzit do të mpihen për të parë indikacionet paralajmëruese. E gjithë qasja do të bëhet një farsë.

Në një këndvështrim të lidhur, merrni parasysh atë që ka të ngjarë të thonë krijuesit e AI.

Një këndvështrim do të ishte se kjo do të jetë një dhimbje në faktin se ju e dini se çfarë të vendosni. Duhet të ndryshoni të gjitha sistemet tuaja të AI dhe të shtoni këtë veçori mund të jetë e kushtueshme. Shtimi i tij në një bazë "go-forward" mund të jetë më pak i kushtueshëm, megjithëse megjithatë ka një kosto që lidhet me përfshirjen e kësaj dispozite.

Përzierja është një tjetër ankesë e mundshme. Çfarë lloj mesazhi duhet të tregohet? Nëse nuk ka ndonjë standard, kjo do të thotë se krijuesit e AI do të duhet të krijojnë diçka përsëri. Jo vetëm që kjo kosto shtesë, ajo ndoshta hap derën për t'u paditur. Mund të imagjinoni që një krijues i AI mund të merret me detyrën që paralajmërimi i tyre nuk ishte aq i mirë sa një sistem tjetër i AI. Avokatët do të përfundojnë duke bërë një pako nga konfuzioni që rezulton.

Ekziston gjithashtu shqetësimi se njerëzit do të tremben pa arsye nga këto mesazhe sigurie.

Një prodhues i inteligjencës artificiale mund të shohë një rënie të shpejtë të numrit të përdoruesve për shkak të një mesazhi sigurie që synon thjesht të japë një kujdes informativ. Njerëzit nuk do të dinë se çfarë të bëjnë me mesazhin. Nëse ata nuk kanë parë mesazhe të tilla më parë, ata mund të tremben menjëherë dhe të shmangin pa nevojë përdorimin e AI.

Unë i përmend ato aspekte sepse disa tashmë po shpallin se "nuk mund të dëmtojë" fillimi i përfshirjes së paralajmërimeve të AI ose mesazheve të sigurisë. Për ta, ideja është po aq ideale sa byreku me mollë. Askush nuk mund t'i mohonte seriozisht përfitimet e të kërkuarit gjithmonë siguri ose paralajmërime të lidhura me AI. Por sigurisht, kjo nuk është një mënyrë reale e të menduarit për këtë çështje.

Ju madje mund të shkoni më tej dhe të pretendoni se mesazhet paralajmëruese të AI mund të prodhojnë një formë histerie masive. Nëse ne të gjithë filluam t'i detyronim sistemet e AI që të kishin mesazhe të tilla, njerëzit mund ta keqinterpretonin qëllimin. E shihni, ka shumë këshilla se ne po përballemi me një krizë ekzistenciale të AI, ku AI do të pushtojë botën dhe do të zhdukë njerëzimin, shih lidhja këtu për analizën time të këtyre lloj pretendimeve.

Përdorimi i mesazhit paralajmërues të AI mund të "frymëzojë" disa njerëz që të besojnë se fundi është afër. Pse tjetër do të shfaqeshin mesazhet tani? Sigurisht, është një tregues se më në fund, AI po bëhet gati të bëhet sundimtari ynë shtypës.

Një lloj rezultati dëshpërues i zymtë i përpjekjes për të bërë gjënë e duhur duke e ndërgjegjësuar publikun se si AI mund të mbushet me kapacitete diskriminuese ose të tjera AI për të keqen aspekte.

Përfundim

James Russell Lowell, poeti i famshëm amerikan, tha një herë këtë: "Një gjemb përvojë ia vlen një shkretëtirë e tërë paralajmërimi".

Unë sjell vërejtjen e lartë për të bërë disa komente përmbyllëse mbi çështjen e paralajmërimeve të AI ose mesazheve të sigurisë.

Shanset janë që derisa të kemi një realizim disi të përhapur të AI duke bërë vepra të këqija, nuk do të ketë shumë zhurmë për mesazhet paralajmëruese të lidhura me AI. Ata krijues të inteligjencës artificiale që zgjedhin ta bëjnë këtë vullnetarisht ndoshta do të lavdërohen, megjithëse pa dashje mund ta gjejnë veten të ngacmuar padrejtësisht. Disa ekspertë mund t'i ndjekin ata për shfrytëzimin e AI që në dukje ka nevojë për paralajmërime, në fillim, ndërkohë që neglizhojnë të kuptojnë se ata po përpiqeshin të shkonin të parët dhe të gjithë ata krijues të tjerë të AI kanë mbetur prapa.

I mallkuar nëse e bën, ndoshta jo i mallkuar nëse nuk e bën.

Një konsideratë tjetër ka të bëjë me kthimin e asaj që duket të jetë një ide e bukur konceptuale në një praktikë praktike dhe të dobishme. Është e lehtë të tundësh duart dhe t'u bërtasësh në mënyrë të paqartë erërave se AI duhet të ketë mesazhe paralajmëruese dhe sigurie. Pjesa e vështirë vjen kur vendoset se cilat duhet të jenë ato mesazhe, kur dhe ku duhet të prezantohen, nëse ose në çfarë shkalle kostoja e tyre po sjell përfitime të mjaftueshme, etj.

Këtu do t'i japim James Russell Lowell fjalën e fundit (poetikisht kështu) për këtë temë tani për tani: "Kreativiteti nuk është gjetja e një gjëje, por nxjerrja e diçkaje prej saj pasi të gjendet".

Mendo se është koha të përveshim mëngët dhe të fillojmë të punojmë për këtë. Dhe ky nuk është vetëm një paralajmërim, është një veprim.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- paralajmërime-për-të gjitha-ekzistuese-dhe-të ardhmen-ai/