3 Arsyet pse organizata juaj do të ketë nevojë për vlerësues të jashtëm të algoritmeve

Nga Satta Sarmah-Hightower

Udhëheqësit e biznesit po shtrydhin të gjithë vlerën që munden nga inteligjenca artificiale (AI). Një studim i KPMG-së i vitit 2021 zbulon shumica e udhëheqësve të biznesit të qeverisë, prodhimit industrial, shërbimeve financiare, shitjes me pakicë, shkencës së jetës dhe kujdesit shëndetësor thonë se AI është të paktën mesatarisht funksionale në organizatat e tyre. Studimi zbulon gjithashtu se gjysma e të anketuarve thonë se organizata e tyre përshpejtoi miratimin e AI në përgjigje të pandemisë Covid-19. Në organizatat ku është miratuar AI, të paktën gjysma thonë se teknologjia i ka tejkaluar pritshmëritë.

Algoritmet e AI janë gjithnjë e më shumë përgjegjës për një sërë ndërveprimesh dhe inovacionesh të sotme – nga ato të personalizuara rekomandimet e produkteve shërbimi ndaj klientit përvoja në banka vendimet e huadhënies dhe madje edhe reagimi i policisë.

Por për të gjitha përfitimet që ofrojnë, algoritmet e AI vijnë me rreziqe të mëdha nëse nuk monitorohen dhe vlerësohen në mënyrë efektive për elasticitetin, drejtësinë, shpjegueshmërinë dhe integritetin. Për të ndihmuar drejtuesit e biznesit me monitorimin dhe vlerësimin e AI, studimi i përmendur më sipër tregon se a Një numër në rritje i drejtuesve të biznesit duan që qeveria të rregullojë AI në mënyrë që të lejojë organizatat të investojnë në teknologjinë dhe proceset e duhura të biznesit. Për mbështetjen dhe mbikëqyrjen e nevojshme, është e mençur të merren parasysh vlerësimet e jashtme të ofruara nga një ofrues shërbimi me përvojë në ofrimin e shërbimeve të tilla. Këtu janë tre arsye pse.

1. Algoritmet janë "kuti të zeza"

Algoritmet e inteligjencës artificiale - të cilat mësojnë nga të dhënat për të zgjidhur problemet dhe për të optimizuar detyrat - i bëjnë sistemet më të zgjuara, duke u mundësuar atyre të mbledhin dhe gjenerojnë njohuri shumë më shpejt se sa njerëzit kanë mundur ndonjëherë.

Megjithatë, disa palë të interesuara i konsiderojnë këto algoritme si "kuti të zeza", shpjegon Drew Rosen, një drejtor menaxhues auditimi në KPMG, një firmë lider e shërbimeve profesionale. Në mënyrë të veçantë, disa palë të interesuara mund të mos e kuptojnë se si algoritmi erdhi në një vendim të caktuar dhe për këtë arsye mund të mos kenë besim në drejtësinë ose saktësinë e atij vendimi.

"Rezultatet e mbledhura nga algoritmi mund të jenë të prirur për paragjykim dhe keqinterpretim të rezultateve," thotë Rosen. "Kjo gjithashtu mund të çojë në disa rreziqe për njësinë ekonomike pasi ato i përdorin ato rezultate dhe i ndajnë [ato] me publikun dhe palët e tyre të interesit."

Një algoritëm që përdor të dhëna të gabuara, për shembull, është i paefektshëm në rastin më të mirë dhe i dëmshëm në rastin më të keq. Si mund të duket kjo në praktikë? Konsideroni një chatbot të bazuar në AI që u ofron përdoruesve informacione të gabuara të llogarisë ose një mjet të automatizuar të përkthimit të gjuhës që përkthen tekstin në mënyrë të pasaktë. Të dy rastet mund të rezultojnë në gabime serioze ose keqinterpretime për entitetet ose kompanitë qeveritare, si dhe për përbërësit dhe klientët që mbështeten në vendimet e marra nga ato algoritme.

Një tjetër kontribues në problemin e kutisë së zezë është kur paragjykimi i natyrshëm depërton në zhvillimin e modeleve të AI, duke shkaktuar potencialisht vendimmarrje të njëanshme. Huadhënësit e kredisë, për shembull, përdorin gjithnjë e më shumë inteligjencën artificiale për të parashikuar vlerën e kredisë së huamarrësve të mundshëm në mënyrë që të marrin vendime për huadhënien. Megjithatë, një rrezik mund të lindë kur inputet kryesore në AI, të tilla si rezultati i kredisë së një huamarrësi të mundshëm, ka një gabim material, duke bërë që atyre individëve t'u mohohet kredia.

Kjo thekson nevojën për një vlerësues të jashtëm i cili mund të shërbejë si një vlerësues i paanshëm dhe të sigurojë një vlerësim të fokusuar, bazuar në kriteret e pranuara, të rëndësisë dhe besueshmërisë së të dhënave historike dhe supozimeve që fuqizojnë një algoritëm.

2. Palët e interesuara dhe rregullatorët kërkojnë transparencë

Në vitin 2022, nuk kishte kërkesa aktuale të raportimit për UA përgjegjëse. Megjithatë, Rosen thotë, “ashtu si organet qeverisëse prezantuan rregulloren ESG [mjedisore, sociale dhe qeverisëse] për raport mbi disa metrika ESG, është vetëm çështje kohe që ne shohim kërkesa shtesë për raportimin e rregulloreve për AI përgjegjës.”

Në fakt, në fuqi nga 1 janari 2023, në qytetin e Nju Jorkut Ligji vendor 144 kërkon që një auditim i paragjykimit të kryhet në një mjet të automatizuar të vendimit të punësimit përpara se të përdoret.

Dhe në nivel federal, Akti Kombëtar i Iniciativës për Inteligjencën Artificiale i vitit 2020- e cila bazohet në një Urdhër ekzekutiv 2019— fokusohet në standardet dhe udhëzimet teknike të AI. Për më tepër, Akti i përgjegjësisë algoritmike mund të kërkojë vlerësime të ndikimit të sistemeve të automatizuara të vendimeve dhe proceseve të shtuara të vendimeve kritike. Dhe jashtë shtetit, Ligji i Inteligjencës Artificiale është propozuar, duke ofruar një kuadër rregullator gjithëpërfshirës me objektiva specifike për sigurinë, pajtueshmërinë, qeverisjen dhe besueshmërinë e AI.

Me këto ndërrime, organizatat janë nën një mikroskop qeverisjeje. Një vlerësues algoritmi mund të sigurojë raporte të tilla që adresojnë kërkesat rregullatore dhe rrisin transparencën e palëve të interesuara duke shmangur rrezikun që palët e interesuara të keqinterpretojnë ose mashtruar nga rezultatet e vlerësimit.

3. Kompanitë përfitojnë nga menaxhimi afatgjatë i rrezikut

Steve Camara, një partner në praktikën e sigurimit të teknologjisë së KPMG, parashikon se investimet në AI do të vazhdojnë të rriten ndërsa subjektet vazhdojnë me automatizimin e proceseve, duke zhvilluar inovacione që përmirësojnë përvojën e klientit dhe duke shpërndarë zhvillimin e AI në funksionet e biznesit. Për të qëndruar konkurruese dhe fitimprurëse, organizatat do të kenë nevojë për kontrolle efektive që jo vetëm trajtojnë mangësitë e menjëhershme të AI, por gjithashtu reduktojnë çdo rrezik afatgjatë që lidhet me operacionet e biznesit të mbështetur nga AI.

Këtu hyjnë vlerësuesit e jashtëm si një burim i besueshëm dhe i zgjuar. Ndërsa organizatat përqafojnë gjithnjë e më shumë integritetin e AI si një mundësi biznesi, partneriteti mund të bëhet më pak një shërbim ad hoc dhe më shumë një bashkëpunim i qëndrueshëm, shpjegon Camara.

“Ne shohim një rrugë përpara ku do të duhet të ketë një marrëdhënie të vazhdueshme midis organizatave që po zhvillojnë dhe funksionalizojnë AI në baza të vazhdueshme dhe një vlerësuesi të jashtëm objektiv,” thotë ai.

Një vështrim drejt asaj që vjen më pas

Në të ardhmen, organizatat mund të përdorin vlerësime të jashtme më shumë në një bazë ciklike, ndërsa zhvillojnë modele të reja, thithin burime të reja të dhënash, integrojnë zgjidhje të palëve të treta të shitësve ose lundrojnë kërkesat e reja të pajtueshmërisë, për shembull.

Kur kërkohet rregullore shtesë dhe kërkesa për pajtueshmëri, vlerësuesit e jashtëm mund të jenë në gjendje të ofrojnë shërbime për të vlerësuar drejtpërdrejt se sa mirë një organizatë ka vendosur ose përdorur AI në lidhje me këto kërkesa. Këta vlerësues do të ishin më të mirë të pozicionuar për të ndarë rezultatet e vlerësimit në një mënyrë të qartë dhe të qëndrueshme.

Për të përfituar nga teknologjia duke u mbrojtur edhe nga kufizimet e saj, një organizatë duhet të kërkojë vlerësues të jashtëm për të ofruar raporte në të cilat mund të mbështetet më pas për të demonstruar transparencë më të madhe gjatë vendosjes së algoritmeve. Nga atje, si organizata ashtu edhe palët e interesuara mund të kuptojnë më mirë fuqinë e AI-dhe kufizimet e saj.

Burimi: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/