Etika e inteligjencës artificiale dhe vaksinimi psikologjik i nxitur nga AI për të ndihmuar njerëzit me dezinformim

Çfarë do të bëjmë për ngopjen masive të dezinformatave dhe dezinformatave?

Gjithçka duket se po bëhet gjithnjë e më keq, çdo ditë që kalon.

Ndoshta Inteligjenca Artificiale (AI) mund të na vijë në shpëtim. Po, është e drejtë, ne mund të jemi në gjendje të shfrytëzojmë përdorimet e dobishme të AI për të përballuar cunamin tonë të pamëshirshëm të dezinformimit dhe dezinformimit. Mund të jemi të mençur të përpiqemi ta bëjmë këtë. Çdo rrugë e zgjidhjes së mundshme do të dukej e denjë për t'u ndjekur.

Si mënjanë, dëshiroj të pranoj menjëherë dhe të vërej se AI padyshim që do të Edhe bëhu edhe ti pjesë e problemit. Nuk ka dyshim se njerëzit mund të përdorin lehtësisht AI për të gjeneruar dezinformata dhe dezinformata. Për më tepër, AI mund të përdoret në mënyrë tinëzare për të bërë që dezinformatat dhe dezinformatat të duken të jenë jashtëzakonisht të vlefshme dhe të mashtrojnë njerëzit që të besojnë se informacioni i paraqitur është jashtëzakonisht i saktë dhe faktik. Një anë e fytyrës e trishtuar e asaj që AI sjell në tryezë. Ne do të kthehemi te kjo enigmë negative në fund të këtij diskutimi.

Tani për tani, le të veshim fytyrat tona të buzëqeshura dhe të eksplorojmë se si AI është e dobishme për të sjellë dezinformimin dhe dezinformimin në gjunjët e saj të fuqishëm. Një rrymë e rëndësishme e fshehtë do të jetë se e gjithë kjo përputhet me elementët vitalë të Etikës së AI. Mbulimi im i kolonës për Etikën e AI dhe AI ​​Etike është i vazhdueshëm dhe i gjerë, duke përfshirë lidhja këtu lidhja këtu, vetëm për të përmendur disa.

Konsideroni këto mënyra themeli se AI mund të jetë një aleat veçanërisht i dobishëm në luftën kundër dezinformimit dhe dezinformimit:

  • Ndaloni në fillimin: Inteligjenca artificiale mund të përdoret për të zbuluar dhe për t'u përpjekur të heqë dezinformimin dhe dezinformimin përpara se të shpërndahet
  • Filtro përpara se të shihet: AI mund të përdoret për të filtruar dezinformatat dhe dezinformatat në mënyrë që të mos keni nevojë të shqetësoheni për ta parë atë
  • Përgatituni që të jeni imun: Inteligjenca artificiale mund të përdoret për të forcuar gatishmërinë dhe aftësinë tuaj për t'u përballur me dezinformimin dhe dezinformimin (e njohur disi zyrtarisht si ofrimin e një lloj vaksinimi psikologjik)
  • tjetër

Pika e parë e listuar përfshin përpjekjen për të ndaluar dezinformimin dhe dezinformimin në momentin më të hershëm të mundshëm, përpara se përmbajtja të hyjë në botë.

Kjo është një qasje shumë problematike. Disa do të argumentonin me zë të lartë se kjo mund të jetë një përpjekje e Big Brother për të shtypur lirinë e fjalës. Sa larg do të mund të shkonte kjo AI? A mund t'i pengojë njerëzit të shprehin lirisht pikëpamjet e tyre? Kjo në mënyrë të frikshme mund të bëhet një shpat i rrëshqitshëm i AI, duke u bërë përfundimisht makthi më i keq i rezultateve të liga që filluan pafajësisht me qëllimet më të mira.

Jam i sigurt që e ke marrë fotografinë.

Pika e dytë është pak më e moderuar dhe sugjeron që ne mund të përdorim AI për të filtruar përmbajtjen për ne.

Ju mund të keni një bot filtri të AI që do të skanojë të gjitha burimet tuaja të të dhënave hyrëse nga lajme të ndryshme dhe burime të tjera. AI është krijuar për të kapur çdo dezinformatë ose dezinformatë që i përshtatet kritereve tuaja personale. Kështu, në një skenar të tillë, nuk është një situatë censurimi i Big Brother. Ju kontrolloni AI dhe mënyrën se si ajo po filtron kutinë tuaj të vërtetë hyrëse të informacionit në emrin tuaj.

Tingëllon mjaft mirë.

Megjithatë, ka disa shqetësime të rëndësishme.

Për shembull, ne jemi tashmë shumë të polarizuar në pikëpamjet tona dhe ky përdorim i AI mund ta bëjë atë polarizim më të thellë dhe më të errët. Imagjinoni që me këtë AI të shkëlqyeshme që funksionon pa ndërprerje 24×7, kurrë nuk keni nevojë të shihni një copëz informacioni që i keni klasifikuar si potencialisht dezinformim dhe dezinformim. Perspektiva juaj e polarizuar tashmë është pothuajse e garantuar të mbetet e paprekur. Gjatë gjithë ditës dhe sa herë që kërkoni t'i hidhni një sy informacionit që pret vëmendjen tuaj, ai është gjithmonë plotësisht i parazgjedhur dhe nuk ka asnjë shans për t'i hedhur një sy të ashtuquajturave dezinformata dhe dezinformata.

Unë them se dezinformata dhe dezinformata mund të jenë i ashtuquajtur sepse ka një sasi të madhe polemikash mbi atë që në të vërtetë përbën dezinformim dhe dezinformim. Disa ekspertë këmbëngulin se ekziston një bazë absolute për të konstatuar se çfarë është dezinformim dhe çfarë është dezinformim. Ka të drejtë dhe të gabuar. Gjithçka mund të llogaritet pa gabuar se diçka është ose dezinformim ose dezinformim.

Jo të gjithë i shohin gjërat si kaq të qarta.

Kontrasti proverbial i dikotomisë reciprokisht ekskluzive "on-ose-off" thuhet se është një kornizë mashtruese e mendjes. Dezinformimi i një personi mund të mos konsiderohet si dezinformim për një person tjetër. Po kështu edhe për dezinformatat. Pohimi është se dezinformimi dhe keqinformimi variojnë për nga natyra dhe përmasat. Përpjekja për të klasifikuar përfundimisht të gjithë informacionin në një grumbull ose tjetrin është shumë më e vështirë sesa sugjeron tundja me dorë.

Thelbi është se pika e dytë e përdorimit të AI si një mekanizëm filtrues ka kompromiset e veta. Nuk ka dyshim se AI do të përdoret gjithnjë e më shumë në këtë përdorim. Në të njëjtën kohë, ne duhet të jemi të vetëdijshëm për sfidat që një AI i tillë do të sjellë në pah. Inteligjenca artificiale si një filtër për dezinformimin dhe dezinformimin nuk është ndonjë plumb argjendi apo slam dunk.

Kjo na çon në pikën e tretë, domethënë mundësinë e përdorimit të AI për t'i bërë njerëzit më të mirë në trajtimin e dezinformatave dhe dezinformatave.

Dyshoj se ndoshta keni dëgjuar shumë për këtë rrugë të tretë të përdorimit të AI në këtë kontekst. Ajo sapo ka filluar të shfaqet. Tani jeni në avantazhin e diçkaje që ka të ngjarë të rritet dhe gradualisht të vihet në përdorim. Ju lutemi ta dini megjithatë se ndërsa ky popullaritet zgjerohet, polemika nëse është një qasje e përshtatshme do të bëhet gjithashtu shumë e dukshme.

Një pjesë e çështjes është se AI është disi duke u përdorur për atë që disa do ta quanin në mënyrë nënçmuese duke luajtur lojëra të mendjes me njerëzit.

Kjo duket ogurzi.

Kjo gjithashtu na sjell në sferën e Etikës së AI.

E gjithë kjo lidhet gjithashtu me shqetësimet e shfaqura në mënyrë të matur në lidhje me inteligjencën artificiale të sotme dhe veçanërisht përdorimin e Mësimit të Makinerisë dhe Mësimit të Thellë si një formë teknologjie dhe se si po përdoret. E shihni, ka përdorime të ML/DL që tentojnë të përfshijnë që AI të antropomorfizohet nga publiku në përgjithësi, duke besuar ose duke zgjedhur të supozohet se ML/DL është ose AI e ndjeshme ose afër (nuk është). Përveç kësaj, ML/DL mund të përmbajë aspekte të përputhjes së modeleve llogaritëse që janë të padëshirueshme ose krejtësisht të pahijshme, ose të paligjshme nga këndvështrimet etike ose ligjore.

Mund të jetë e dobishme që së pari të sqaroj se çfarë dua të them kur i referohem AI në përgjithësi dhe gjithashtu të jap një përmbledhje të shkurtër të Mësimit të Makinerisë dhe Mësimit të Thellë. Ekziston një konfuzion i madh se çfarë nënkupton Inteligjenca Artificiale. Do të dëshiroja gjithashtu t'ju prezantoj parimet e Etikës së AI, të cilat do të jenë veçanërisht integrale në pjesën e mbetur të këtij ligjërimi.

Tregimi i të dhënave rreth AI

Le të sigurohemi që jemi në të njëjtën faqe për natyrën e AI-së së sotme.

Nuk ka asnjë AI sot që të jetë e ndjeshme.

Ne nuk e kemi këtë.

Ne nuk e dimë nëse AI sensitive do të jetë e mundur. Askush nuk mund të parashikojë me vend nëse ne do të arrijmë AI sensitive, as nëse AI sensitive do të lindë në njëfarë mënyre spontanisht në mënyrë të mrekullueshme në një formë të supernovës njohëse llogaritëse (zakonisht e referuar si Singulariteti, shih mbulimin tim në lidhja këtu).

Kuptoni se AI e sotme nuk është në gjendje të "mendojë" në asnjë mënyrë në të njëjtin nivel me të menduarit njerëzor. Kur ndërveproni me Alexa ose Siri, kapacitetet e bisedës mund të duken të ngjashme me kapacitetet njerëzore, por realiteti është se është llogaritëse dhe i mungon njohja njerëzore. Epoka e fundit e AI ka përdorur gjerësisht mësimin e makinerisë dhe mësimin e thellë, të cilat përdorin përputhjen e modeleve llogaritëse. Kjo ka çuar në sistemet e AI që kanë pamjen e prirjeve të ngjashme me njerëzit. Ndërkohë, sot nuk ka asnjë AI që të ketë një pamje të sensit të shëndoshë dhe as të ketë ndonjë nga mrekullitë njohëse të të menduarit të fortë njerëzor.

Një pjesë e çështjes është tendenca jonë për të antropomorfizuar kompjuterët dhe veçanërisht AI. Kur një sistem kompjuterik ose AI duket se vepron në mënyra që ne e lidhim me sjelljen njerëzore, ekziston një nxitje pothuajse dërrmuese për t'i atribuar cilësitë njerëzore sistemit. Është një kurth i zakonshëm mendor që mund të rrëmbejë edhe skeptikët më intransigjentë në lidhje me shanset për të arritur ndjenjën.

Në një farë mase, kjo është arsyeja pse Etika e AI dhe UA Etike janë një temë kaq e rëndësishme.

Rregullat e Etikës së AI na bëjnë të qëndrojmë vigjilentë. Teknologët e AI ndonjëherë mund të preokupohen me teknologjinë, veçanërisht me optimizimin e teknologjisë së lartë. Ata nuk janë domosdoshmërisht duke marrë parasysh degëzimet më të mëdha shoqërore. Të kesh një mentalitet të Etikës së AI dhe ta bësh këtë në mënyrë integrale në zhvillimin dhe shtrirjen e AI është jetike për prodhimin e AI të përshtatshme, duke përfshirë vlerësimin se si Etika e AI adoptohet nga firmat.

Përveç përdorimit të parimeve të etikës së AI në përgjithësi, ekziston një pyetje përkatëse nëse duhet të kemi ligje për të qeverisur përdorime të ndryshme të AI. Ligjet e reja janë duke u bashkuar në nivelet federale, shtetërore dhe lokale që kanë të bëjnë me gamën dhe natyrën se si duhet të krijohet AI. Përpjekja për të hartuar dhe miratuar ligje të tilla është graduale. Etika e AI shërben si një ndalesë e konsideruar, të paktën, dhe pothuajse me siguri në një farë mase do të përfshihet drejtpërdrejt në ato ligje të reja.

Kini parasysh se disa argumentojnë me vendosmëri se ne nuk kemi nevojë për ligje të reja që mbulojnë AI dhe se ligjet tona ekzistuese janë të mjaftueshme. Ata paralajmërojnë se nëse miratojmë disa nga këto ligje të AI, ne do të vrasim patën e artë duke shtypur përparimet në AI që ofrojnë avantazhe të mëdha shoqërore. Shih për shembull mbulimin tim në lidhja këtu.

Në kolonat e mëparshme, unë kam mbuluar përpjekjet e ndryshme kombëtare dhe ndërkombëtare për të krijuar dhe miratuar ligje që rregullojnë AI, shih lidhja këtu, për shembull. Unë kam mbuluar gjithashtu parimet dhe udhëzimet e ndryshme të Etikës së AI që kombe të ndryshme kanë identifikuar dhe miratuar, duke përfshirë për shembull përpjekjet e Kombeve të Bashkuara si grupi i UNESCO-s i Etikës së AI që kanë miratuar afro 200 vende, shih. lidhja këtu.

Këtu është një listë e dobishme kryesore e kritereve ose karakteristikave Etike të AI në lidhje me sistemet e AI që kam eksploruar më parë nga afër:

  • Transparenca
  • Drejtësi dhe Drejtësi
  • Jo keqbërje
  • përgjegjësi
  • Politika
  • Dashamirësia
  • Liri & Autonomi
  • Besimi
  • Qëndrueshmëria
  • dinjitet
  • Solidaritet

Këto parime të Etikës së AI supozohet të përdoren me zell nga zhvilluesit e AI, së bashku me ato që menaxhojnë përpjekjet për zhvillimin e AI, dhe madje edhe ato që përfundimisht vendosin dhe kryejnë mirëmbajtjen në sistemet e AI. Të gjithë palët e interesuara gjatë gjithë ciklit jetësor të zhvillimit dhe përdorimit të IA konsiderohen brenda fushës së respektimit të normave të vendosura të UA Etike. Ky është një theks i rëndësishëm pasi supozimi i zakonshëm është se "vetëm koduesit" ose ata që programojnë AI i nënshtrohen respektimit të nocioneve të Etikës së AI. Siç u theksua më parë këtu, duhet një fshat për të krijuar dhe zhvilluar AI, dhe për të cilin i gjithë fshati duhet të jetë i aftë dhe t'u përmbahet rregullave të Etikës së UA.

Le t'i mbajmë gjërat në tokë dhe të përqendrohemi në inteligjencën artificiale kompjuterike jo të ndjeshme të sotme.

ML/DL është një formë e përputhjes së modeleve llogaritëse. Qasja e zakonshme është që ju të grumbulloni të dhëna për një detyrë vendimmarrëse. Ju ushqeni të dhënat në modelet kompjuterike ML/DL. Këto modele kërkojnë të gjejnë modele matematikore. Pas gjetjes së modeleve të tilla, nëse gjenden, atëherë sistemi i AI do t'i përdorë ato modele kur ndeshet me të dhëna të reja. Me paraqitjen e të dhënave të reja, modelet e bazuara në të dhënat "e vjetra" ose historike zbatohen për të dhënë një vendim aktual.

Unë mendoj se ju mund të merrni me mend se ku po shkon kjo. Nëse njerëzit që kanë marrë vendime të modeluara kanë përfshirë paragjykime të padrejta, gjasat janë që të dhënat ta pasqyrojnë këtë në mënyra delikate, por domethënëse. Përputhja e modelit llogaritës të Mësimit të Makinerisë ose të Mësimit të Thellë do të përpiqet thjesht të imitojë matematikisht të dhënat në përputhje me rrethanat. Nuk ka asnjë ngjashmëri të sensit të përbashkët ose aspekteve të tjera të ndjeshme të modelimit të krijuar nga AI në vetvete.

Për më tepër, zhvilluesit e AI mund të mos e kuptojnë se çfarë po ndodh. Matematika misterioze në ML/DL mund ta bëjë të vështirë zbulimin e paragjykimeve të fshehura tani. Me të drejtë do të shpresonit dhe do të prisnit që zhvilluesit e AI do të testonin për paragjykimet potencialisht të varrosura, megjithëse kjo është më e ndërlikuar nga sa mund të duket. Ekziston një shans i fortë që edhe me testime relativisht të gjera, të ketë paragjykime ende të ngulitura brenda modeleve të përputhjes së modelit të ML/DL.

Ju mund të përdorni disi shprehjen e famshme ose famëkeqe të mbeturinave-në mbeturina-jashtë. Çështja është se kjo është më shumë e ngjashme me paragjykimet që injektohen në mënyrë tinëzare si paragjykime të zhytura brenda AI. Algoritmi i vendimmarrjes (ADM) i AI në mënyrë aksiomatike bëhet i ngarkuar me pabarazi.

Jo mirë.

Unë besoj se tani kam vendosur skenën për të diskutuar mjaftueshëm rolin e AI si një mjet për të nxitur vaksinimin psikologjik në lidhje me trajtimin e dezinformimit dhe dezinformimit.

Hyrja në mendjet e njerëzve

Le të fillojmë me bazat ose bazat që qëndrojnë në themel të dezinformimit dhe dezinformimit.

Në përgjithësi, keqinformimi i referohet informacionit të rremë ose mashtrues.

Dezinformimi është përafërsisht i njëjtë megjithëse përbëhet nga elementi i shtuar i qëllim. Ne normalisht e interpretojmë informacionin si dezinformim kur ai është informacion qëllim për të dezinformuar.

Mund t'ju them se aktualisht është ora 10 e natës, që le të themi është false sepse ora është vërtet mesnate. Nëse do t'ju kisha thënë orën 10 si paragjykim dhe nuk do të përpiqesha të mashtroja, zakonisht do të thoshim se ju kisha keqinformuar. Unë kisha përcjellë dezinformata. Ndoshta isha dembel ose ndoshta besova vërtet se ishte ora 10. Nga ana tjetër, nëse do të kisha përmendur orën 10 sepse qëllimisht doja t'ju mashtroja duke menduar se ora ishte ora 10 dhe se e dija se ora ishte në të vërtetë mesnata, kjo mund të thuhet se është një formë dezinformimi. .

Një aspekt i dukshëm i informacionit në përgjithësi është se zakonisht ne jemi në gjendje të shpërndajmë rreth informacionit dhe kështu informacioni mund të bëhet disi i përhapur. Informacioni me të vërtetë mund të rrjedhë si uji, në një kuptim të gjerë.

Unë ju them se është ora 10 e natës. Ju tani keni atë pjesë të veçantë të informacionit. Ju mund t'i bërtisni me zë të lartë një grupi njerëzish aty pranë se është ora 10 e natës. Edhe ata tani kanë të njëjtin informacion. Ndoshta disa nga ata njerëz futen në celularët e tyre dhe thërrasin njerëz të tjerë për t'u thënë se është ora 10. Në përgjithësi, informacioni mund të përhapet ose ndahet dhe ndonjëherë bëhet kaq shpejt, ndërsa në raste të tjera bëhet kaq ngadalë.

Në njëfarë kuptimi, ju mund të pretendoni se informacioni mund të bëhet viral.

Ekziston një fjalë ose terminologji e shpikur që mund të mos e keni parë ose përdorur veçanërisht që ndihmon në përshkrimin e këtij fenomeni të informacionit që bëhet viral, fjala është infodemike. Kjo fjalë është një përzierje e informacionit dhe e të qenit një epidemi. Në përgjithësi, një infodemi shoqërohet me rrethana që përfshijnë përhapjen e dezinformatave ose dezinformatave. Nocioni është se informacioni i rremë ose mashtrues mund të bëhet viral, në mënyrë të padëshirueshme, i ngjashëm me përhapjen e padëshirueshme të sëmundjeve ose sëmundjeve.

Në shembullin për orën 10 të natës, ky fakt në dukje ishte një informacion që u përhap në grupin e njerëzve aty pranë. Ata nga ana e tyre e përhapin faktin tek të tjerët. Nëse ora 10 ishte e rreme, atëherë ky rast i veçantë dezinformimi apo dezinformimi u përhap në shumë të tjerë. Ata mund të mos e dinë se informacioni ishte dezinformim ose ndoshta dezinformim.

Unë besoj se të gjitha këto përkufizime dhe baza duken të arsyeshme dhe ju jeni në bord deri tani.

E shkëlqyeshme, le të vazhdojmë.

Unë ju kam çuar disi në mënyrë të fshehtë në diçka që zë shumë magjepsje dhe gjithashtu ankth. Thelbi është se ekzistojnë paralele të arsyeshme të arsyeshme midis asaj që sëmundjet bëjnë në mënyrë virale dhe asaj që dezinformimi ose dezinformimi bën viralisht.

Jo të gjithë janë dakord me këto paralele të pretenduara. Sidoqoftë, ato janë intriguese dhe meritojnë vëmendje.

Më lejoni të shtjelloj.

E shihni, ne mund të përpiqemi të shfrytëzojmë analogjinë e dobishme të referimit ndaj sëmundjeve dhe sëmundjeve që transmetohen nga njeriu që përhapen, duke e bërë këtë për të krahasuar një mundësi të ngjashme me përhapjen e dezinformatave dhe dezinformatave. Për t'u përpjekur të ndalojmë përhapjen e sëmundjeve, ne mund të synojmë të zbulojmë herët dhe të kërkojmë të përmbajmë një burim të sëmundjes në zhvillim, që tregon përhapjen e mundshme të sëmundjes. Një tjetër qasje për t'u marrë me një sëmundje në përhapje do të ishte ruajtja kundër marrjes së saj nëpërmjet përdorimit të kujdesshëm të veshjes së një maskë ose pajisje mbrojtëse. Një qasje e tretë mund të konsistojë në marrjen e vaksinave për të provuar dhe ndërtuar imunitetin tuaj në lidhje me sëmundjen.

Tani kemi bërë rrethin e plotë në atë që të njëjtat qasje për përballimin e sëmundjeve mund të krahasohen në mënyrë eksplicite me trajtimin e dezinformimit dhe dezinformimit. E përmenda më herët se po bëhen përpjekje të ngjashme për të përdorur Inteligjencën Artificiale për qëllime të përpjekjes për të përballuar dezinformimin dhe dezinformimin, veçanërisht (siç u përmend më herët):

  • Ndaloni në fillimin: Inteligjenca artificiale mund të përdoret për të zbuluar dhe për t'u përpjekur të heqë dezinformimin dhe dezinformimin përpara se të shpërndahet
  • Filtro përpara se të shihet: AI mund të përdoret për të filtruar dezinformatat dhe dezinformatat në mënyrë që të mos keni nevojë të shqetësoheni për ta parë atë
  • Përgatituni që të jeni imun: Inteligjenca artificiale mund të përdoret për të forcuar gatishmërinë dhe aftësinë tuaj për t'u përballur me dezinformimin dhe dezinformimin (e njohur disi zyrtarisht si ofrimin e një lloj vaksinimi psikologjik)
  • tjetër

Aspekti i tretë do të jetë më me interes këtu.

Këtu është marrëveshja.

Ne e dimë se sëmundjet zakonisht godasin Trupi i njeriut. Me analogjinë se si ndodh dezinformimi dhe dezinformimi, ne mund të sugjerojmë që informacioni i ndyrë godet mendjen e njeriut. Po, me sa duket mund të vini në kontakt me dezinformatat ose dezinformatat që rrjedhin në mendjen tuaj. Dezinformimi ose dezinformimi potencialisht korrupton ose helmon mënyrën tuaj të të menduarit.

Trupi i njeriut mund të vaksinohet për të provuar dhe përgatitur veten për të rënë në kontakt me sëmundjet. Një pyetje e madhe lind nëse mund të bëjmë të njëjtën gjë për mendjen e njeriut. A është e mundur të provoni dhe të inokuloni mendjen në mënyrë që kur ju vjen në mendje dezinformata ose dezinformata, të jeni gati për të dhe të jeni vaksinuar në përputhje me rrethanat?

Një fushë studimi e njohur si inokulimi psikologjik parashtron se mendja me të vërtetë mund të inokulohet në kuptimin e gatishmërisë për të trajtuar dezinformimin ose dezinformimin.

Merrni parasysh këtë përshkrim në një studim të fundit kërkimor në lidhje me vaksinimin psikologjik dhe atë që nganjëherë etiketohet si duke bërë prebunking:

  • “Definimi i dezinformatave është gjithashtu problematik sepse korrigjimi i dezinformatave jo gjithmonë i anulon tërësisht efektet e tij, një fenomen i njohur si efekti i ndikimit të vazhdueshëm. Rrjedhimisht, në kontrast me debunkingun, paraprakisht ka fituar rëndësi si një mjet për të ndërtuar paraprakisht elasticitet ndaj ekspozimit të parashikuar ndaj dezinformatave. Kjo qasje zakonisht bazohet në teorinë e vaksinimit. Teoria e vaksinimit ndjek një analogji të imunizimit mjekësor dhe parashtron se është e mundur të ndërtohet një rezistencë psikologjike kundër përpjekjeve të padëshiruara për bindje, ashtu si vaksinat mjekësore ndërtojnë rezistencë fiziologjike kundër patogjenëve.Përparimet Shkenca, 24 gusht 2022, "Inokulimi psikologjik përmirëson elasticitetin kundër keqinformimit në mediat sociale" nga bashkëautorët Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje dhe Stephan Lewandowsky).

Duke iu rikthyer shembullit tim rreth orës 10 të natës, supozoni se ju kisha thënë më parë se ndonjëherë ora e pretenduar nuk është koha aktuale. Ju tani e tutje keni një formë vaksinimi për të qenë të kujdesshëm ndaj kohërave të pretenduara. Ky vaksinim ju ka përgatitur për të rënë në kontakt me kohët e pretenduara që janë dezinformata ose dezinformata.

Nëse do t'ju kisha paralajmëruar disa vite më parë se kohët e pretenduara nuk janë kohë aktuale, ekziston mundësia që ju të mos mendoni për atë paralajmërim shumë kohë më parë. Kështu, vaksinimi i mëparshëm është konsumuar (të themi). Vaksinimi im për ju mund të ketë nevojë të rritet.

Ekziston gjithashtu një shans që vaksinimi të mos ishte mjaftueshëm specifik për ta përdorur atë kur është e nevojshme. Nëse do t'ju kisha paralajmëruar vite më parë për kohët e pretenduara kundrejt kohëve aktuale, kjo mund të ishte tepër e gjerë. Vaksinimi mund të mos funksionojë në rastin konkret kur ju thonë rreth orës 10. Në këtë kuptim, ndoshta vaksinimi im duhet të ketë qenë që ju duhet të jeni të kujdesshëm kur përdoret një orë e pretenduar prej 10:XNUMX. Natyrisht, vaksinat në rastin e sëmundjeve janë disi të njëjta, ndonjëherë janë shumë specifike për sëmundjet e njohura, ndërsa në raste të tjera janë një spektër i gjerë.

Një studim kërkimor i përmendur shpesh i bërë në vitin 1961 mbi vaksinimin psikologjik nga William McGuire i Universitetit të Kolumbias, përgjithësisht konsiderohet tani një klasik në këtë fushë studimi. Ju mund të gjeni me interes këto pika kyçe që ai bëri në atë kohë:

  • “Imunizimi i tillë i përgjithësuar mund të rrjedhë nga njëri prej dy mekanizmave. Ekspozimi paraprak mund ta tronditë personin që të kuptojë se "truizmat" që ai ka pranuar gjithmonë janë me të vërtetë të prekshme, duke e provokuar kështu që të zhvillojë një mbrojtje të besimit të tij, me rezultatin që ai të jetë më rezistent ndaj kundërargumenteve të forta kur ato vijnë. Përndryshe, përgënjeshtrimet e përfshira në para-ekspozimin mund t'i bëjnë të gjitha kundërargumentet e paraqitura më pas kundër besimit të duken më pak mbresëlënëse” (William McGuire, “Rezistance to Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Psikologjia Sociale, 1961).

A ju duket kjo analogji e vaksinimeve dhe imunizimit një krahasim i dobishëm dhe i përshtatshëm me sferën e dezinformimit dhe dezinformimit?

Disa e bëjnë, disa jo.

Për qëllime të këtij diskutimi, ju lutemi pranoni se premisa është e arsyeshme dhe e përshtatshme.

Si mund të përpiqemi të vaksinojmë ose imunizojmë mendjet e njerëzve?

Ne mund t'i bëjmë njerëzit të lexojnë libra që mund të ndriçojnë mendjen e tyre. Ne mund t'u tregojmë atyre për këtë, ose t'i bëjmë të shikojnë video ose të dëgjojnë kaseta audio. etj.

Dhe ne mund të përdorim AI për të bërë të njëjtën gjë.

Një sistem AI mund të krijohet për të qenë inokuluesi juaj. Sa herë që filloni të shkoni në internet, si për shembull të shikoni internetin, një aplikacion i bazuar në AI mund t'ju përgatisë për udhëtimin tuaj në internet. Inteligjenca artificiale mund t'ju ushqejë një sasi të vogël dezinformimi që është etiketuar si i tillë, duke ju lejuar të kuptoni se do të shihni diçka që është qëllimisht e rreme.

Pas ekspozimit ndaj këtij dezinformimi të ushqyer nga AI, mendja juaj tani po përgatitet të përballet me dezinformatat ose dezinformatat që mund të hasni në natyrë në internet. Mendja juaj është përgatitur. Voila, ju shihni një blog në internet që ofron një fakt të pretenduar se krijesat e huaja nga Marsi janë tashmë këtu në tokë dhe fshihen në pamje të qartë, por ky dezinformim ose dezinformim në dukje refuzohet lehtësisht nga mendja juaj për shkak të vaksinimit të mëparshëm (mirë, pastaj përsëri, ndoshta është e vërtetë dhe ata janë vërtet këtu!).

Gjithsesi, shpresoj që të jeni në gjendje të dalloni tani se si është që AI mund të ndihmojë në vaksinimin ose imunizimin e njerëzve në lidhje me dezinformimin ose dezinformimin.

Po krijohen aplikacione të ndryshme të AI që do të funksionojnë si inokulues dezinformimi ose dezinformimi. IA mund të kërkojë të sigurojë vaksinim që është i gjerë dhe ofron një pamje të përgjithshme të imunizimit. AI mund të krijohet gjithashtu për forma më specifike të vaksinimit. Për më tepër, AI mund të funksionojë në një bazë të personalizuar që përshtatet me nevojat ose interesat tuaja të veçanta. Inteligjenca artificiale e avancuar në këtë hapësirë ​​do të përpiqet gjithashtu të përcaktojë nivelin tuaj të tolerancës, shkallën e përthithjes mendore, kapacitetin e mbajtjes dhe faktorë të tjerë kur kompozoni dhe prezantoni të ashtuquajturat injeksione të imunizimit, si të thuash.

Duket mjaft i dobishëm.

AI si lojtar i rrezikshëm i lojërave të mendjes

AI i përdorur në këtë mënyrë në shikim të parë do të dukej mjaft i dobishëm (hej, e përmenda këtë vetëm një sekondë më parë).

Ka një mori dobësish dhe problemesh të mundshme që janë shqetësuese dhe ndoshta të frikshme.

Në rubrikat e mia, unë shpesh diskutoj kapacitetet e përdorimit të dyfishtë të AI, shih për shembull lidhja këtu. AI mund të jetë një kontribues jetik për njerëzimin. Mjerisht, AI është gjithashtu i ngarkuar nga shumë rreziqe dhe gracka fatkeqe.

Për rastin e AI si një ngulitës, le të shqyrtojmë këto çështje demonstrative të lidhura me Etikën e AI:

  • Reagimet e padëshiruara nga njerëzit
  • Reagimet jo reaguese nga njerëzit
  • Qëllimi i gabuar i AI
  • Nën-shënjestrim i AI
  • Shkelja kibernetike e AI
  • tjetër

Ne do t'i shqyrtojmë shkurtimisht këto shqetësime.

Reagimet negative nga njerëzit

Supozoni se një njeri që merr këtë lloj vaksinimi të bazuar në AI ka një reagim negativ ose prodhon një efekt negativ.

Personi mund të keqinterpretojë imunizimin dhe papritmas të bëhet i papranueshëm ndaj çdo informacioni që merr. Ata bllokojnë të gjitha informacionet. Inteligjenca artificiale i ka shtyrë në njëfarë mënyre që ta hedhin fëmijën me ujin e banjës (një thënie e vjetër, ndoshta ia vlen të tërhiqet). Në vend që të përpiqet vetëm të përballet me dezinformimin dhe dezinformimin, personi ka reaguar duke vendosur që të gjitha informacionet janë gjithmonë të rreme.

Unë nuk mendoj se ne duam që njerëzit të kalojnë kaq shumë.

Ka një mori reaksionesh negative që mund të nxisë AI. Kjo është pjesërisht për shkak të mënyrës sesi UA tentoi të kryente inokulimin, por gjithashtu duhet ta shtrojmë një pjesë të çështjes në këmbët e njeriut që ka marrë vaksinën. Ata mund të kenë reaguar në mënyra të egra ose të çuditshme që të tjerët që marrin të njëjtin inokulim me AI nuk e kanë bërë këtë.

Përsëri, ju mund ta krahasoni këtë me analogjinë e vaksinave për sëmundjet.

Shkurtimisht, do të jetë e rëndësishme që kur të përdoren përpjekje të tilla të AI, ato të bëhen në mënyra të përgjegjshme që synojnë të minimizojnë efektet negative. Duhet të ketë gjithashtu një aspekt vijues të AI për të provuar dhe konstatuar nëse ka ndodhur një reagim negativ. Nëse zbulohet një reagim negativ, AI duhet të krijohet për të provuar dhe ndihmuar personin në përgjigjen e tij negative dhe për të kërkuar të kapërcejë ose lehtësojë përgjigjen.

Reagimet që nuk përgjigjen nga njerëzit

Një mundësi tjetër është që vaksinimi i ushqyer me AI të mos ketë ndikim tek personi pritës.

Një person merr një vaksinë të bazuar në AI në lidhje me dezinformimin ose dezinformimin. Ndërsa shumica e njerëzve "e marrin atë" dhe imunizohen, me siguri do të ketë njerëz që nuk do të reagojnë fare. Ata nuk mësojnë asgjë nga vaksinimi. Ata nuk reagojnë ndaj përpjekjes së AI për imunizimin e tyre për të gjitha ose për disa lloje të dezinformatave ose dezinformatave.

Edhe një herë, kjo është e krahasueshme me vaksinat për sëmundje.

AI duhet të krijohet për të luftuar me një rrethanë të tillë.

Gabim synimi i AI

Imagjinoni që një AI shpreson të imunizojë njerëzit në lidhje me një temë të veçantë që ne do të themi se është tema X, por rezulton se tema Y është duke u mbuluar në vend. AI po synon gabimisht.

Ky është një problem i dyfishtë. Së pari, tema X nuk është mbuluar më pas si qëllimi i supozuar dhe i shpresuar i inokuluesit të AI. Së dyti, tema Y është e mbuluar, por ne mund të mos kishim dashur që njerëzit të imunizoheshin për atë temë.

Oops.

Pyetjet janë të shumta. A mund të ishte parandaluar që kjo të ndodhte? Nëse ndodh, a mund ta zhbëjmë temën e imunizimit Y? A mund të kërkojmë të mbulojmë temën e vaksinimit X, apo personi do të jetë më pak pranues apo jo pranues për shkak të synimit të gabuar nga AI fillimisht?

Shfaqen shumë shqetësime problematike.

Nën shënjestrimin e AI

Një AI ofron një vaksinë në temën Z. Njerëzit që marrin vaksinën duket se kanë një reagim minimal ose pothuajse të papërfillshëm. Vaksinimi ishte i pamjaftueshëm për t'u mbajtur.

Ju mund të tundoheni të pretendoni shpejt se kjo zgjidhet lehtësisht. Gjithçka që duhet të bëni është të përsërisni vaksinën. Ndoshta po ndoshta jo.

Inokulimi i AI mund të jetë me një vlerë kaq të kufizuar sa që pavarësisht nëse keni njerëz që e përjetojnë atë njëqind herë, rezultati është ende një rezultat margjinal. Ju mund të keni nevojë të rritni inokulimin në vend që thjesht ta përsërisni atë.

Ndërkohë, imagjinoni se është bërë një përpjekje për të rritur inokulimin e ushqyer me AI, por kjo është e tepruar. Versioni i përforcuar shkakton hiper-reaksione. Po, ne kemi ardhur nga e keqja në më keq.

Shkelja kibernetike e AI

Parashikoni që AI po përdoret gjerësisht për të ndihmuar njerëzit që të inokulohen nga dezinformatat dhe dezinformatat.

Një mbështetje e përgjithshme zë njerëzit. Ata e dinë dhe presin që AI do t'u paraqesë atyre fragmente që do t'u hapin sytë ndaj asaj që njihet si dezinformim dhe dezinformim.

Gjithçka është mirë dhe mirë, duket.

Një keqbërës është disi në gjendje të bëjë një shkelje kibernetike në AI. Ata tinëz futin në AI disa dezinformata të dëshiruara që duan që njerëzit të mendojnë se nuk është dezinformatë. Inteligjenca artificiale është rregulluar për të bërë që dezinformimi aktual të duket si informacion i vërtetë. Gjithashtu, informacioni i vërtetë shfaqet si dezinformatë.

Njerëzit janë krejtësisht të snooker. Ata po dezinformohen nga AI. Për më tepër, për shkak se ata ishin bërë të varur nga AI, dhe për shkak të besimit se AI po bënte gjënë e duhur, ata bien në grep, vijë dhe fundosje për këtë AI të dëmtuar. Pa hezitim.

Duke pasur parasysh se sa lehtë mund të përhapet më tej dezinformimi, keqbërësi mund të shijojë që ekzistenca e këtij lloji të AI është mënyra e tyre më e lehtë dhe më e shpejtë për të bërë që gënjeshtrat e tyre tinëzare të përhapen nëpër botë. Ironikisht, natyrisht, duke përdorur inokulatorin e AI për të përhapur në thelb sëmundjen.

Përfundim

A duhet që AI të luajë lojëra mendore me ne?

A mundet që AI për dezinformimin dhe vaksinimin e keqinformimit të jetë një kalë trojan kërcënues?

Ju mund të bëni një rast thelbësor për t'u shqetësuar për një makth të tillë.

Të tjerët tallen me një mundësi të tillë. Njerëzit janë mjaft të zgjuar për të ditur kur AI përpiqet t'i mashtrojë ata. Njerëzit nuk do të bien pas driblimeve të tilla. Vetëm idiotët do të mashtroheshin nga një AI e tillë. Këto janë replikat dhe kundërargumentet e zakonshme.

Duke mos dashur të dukem më pak se admirues i plotë i njerëzve dhe natyrës njerëzore, unë thjesht do të sugjeroja se ka tregues të mjaftueshëm që njerëzit mund të bien pas AI që i mashtron ata.

Ekziston një çështje edhe më e madhe që ndoshta qëndron mbi të gjitha këto.

Kush e bën AI dhe si vendos AI në mënyrë algoritmike se çfarë konsiderohet dezinformim dhe dezinformim?

Një përleshje e tërë zjarri po zhvillohet sot në botë në përgjithësi rreth asaj që përbën dezinformim dhe dezinformim specifik. Disa pohojnë se faktet janë fakte, kështu që nuk mund të ketë kurrë ndonjë konfuzion se çfarë është informacioni i duhur kundrejt informacionit të pahijshëm. Edhe pse ndonjëherë djalli është në detaje, kjo është e sigurt.

Një vërejtje e fundit për momentin. Abraham Lincoln tha në mënyrë të famshme: "Ju mund t'i mashtroni të gjithë njerëzit disa herë dhe disa nga njerëzit gjatë gjithë kohës, por nuk mund t'i mashtroni të gjithë njerëzit gjatë gjithë kohës".

A do të jetë AI që përdoret për të ndihmuar vaksinimin e njerëzimit nga dezinformimi dhe keqinformimi një mjet jetik për të siguruar që jo të gjithë njerëzit mund të mashtrohen gjatë gjithë kohës? Apo mund të përdoret për të mashtruar më shumë nga njerëzit më shpesh?

Koha do të tregojë.

Dhe kjo nuk është me siguri dezinformim apo dezinformim.

Burimi: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/