Microsoft përmirëson sigurinë e AI Chatbot për të penguar mashtrimet

Microsoft Corp ka shtuar një sërë veçorish sigurie në Azure AI Studio, të cilat, me kalimin e kohës, duhet të vazhdojnë të reduktojnë gjasat që përdoruesit e tij të konfigurojnë modelet e AI në një mënyrë që do t'i detyronte ata të veprojnë në mënyrë jonormale ose të papërshtatshme. Kompania shumëkombëshe e teknologjisë me qendër në Redmond. Uashingtoni, përshkroi përmirësimet në një postim në blog, duke theksuar garantimin e integritetit të ndërveprimeve të AI dhe nxitjen e besimit në bazën e përdoruesve.

Mburoja të shpejta dhe më shumë 

Ndër zhvillimet kryesore është krijimi i "mburojave të shpejta", një teknologji që është krijuar për të gjetur dhe vrarë injeksione të menjëhershme gjatë bisedës me chatbot të AI. Këto janë të ashtuquajturat jailbreaks dhe në thelb janë hyrje nga përdoruesit që synojnë të formohen në një mënyrë të tillë që të shkaktojnë një përgjigje të padëshiruar nga modelet e AI.

Për shembull, Microsoft po luan rolin e tij në mënyrë indirekte me injeksione të menjëhershme, ku ekzekutimi i urdhrave të këqij është i mundur, dhe një skenar i tillë mund të çojë në pasoja të rënda sigurie si vjedhja e të dhënave dhe rrëmbimi i sistemit. Mekanizmat janë çelësi për zbulimin dhe reagimin ndaj këtyre kërcënimeve të një lloji në kohë reale, sipas Sarah Bird, Shefe e Produktit të Microsoft për Inteligjencën Artificiale të Përgjegjshme.

Microsoft shton se së shpejti do të ketë sinjalizime në ekranin e përdoruesit, të cilët do të vënë në dukje kur një model ka të ngjarë të shprehë informacion të rremë ose mashtrues, duke siguruar më shumë miqësi dhe besim ndaj përdoruesit.

Ndërtimi i besimit në mjetet e AI 

Përpjekja e Microsoft është pjesë e një nisme më të madhe, që synon t'u japë njerëzve besim në AI gjeneruese gjithnjë e më popullore që po aplikohet gjerësisht në shërbimet që synojnë konsumatorët individualë dhe klientelën e korporatave. Microsoft kaloi me një krehër me dhëmbë të imët, pas rasteve, ku përdoruesit kishin aftësinë të luanin me chatbot Copilot për të prodhuar rezultate të çuditshme ose të dëmshme. Kjo do të jetë në mbështetje të një rezultati që tregon nevojën për mbrojtje të forta kundër taktikave manipuluese të përmendura, të cilat ka të ngjarë të ngrihen me teknologjitë e AI dhe njohuritë popullore. Parashikimi dhe më pas zbutja është në njohjen e modeleve të sulmit, të tilla kur një sulmues përsërit pyetjen ose nxit në luajtjen e roleve.

Si investitori më i madh dhe partneri strategjik i OpenAI, Microsoft po shtyn kufijtë se si të inkorporojë dhe krijojë teknologji të përgjegjshme dhe të sigurta gjeneruese të AI. Të dy janë të përkushtuar ndaj vendosjes së përgjegjshme dhe modeleve themelore të AI gjenerative për masat e sigurisë. Por Bird pranoi se këto modele të mëdha gjuhësore, edhe pse ato po shihen si një bazë për pjesën më të madhe të inovacionit të AI-së në të ardhmen, nuk janë të dëshmuara për manipulime.

Ndërtimi mbi këto themele do të marrë shumë më tepër sesa thjesht të mbështetesh në vetë modelet; do të duhej një qasje gjithëpërfshirëse për sigurinë dhe sigurinë e AI.

Microsoft kohët e fundit njoftoi forcimin e masave të sigurisë për Studion e tij të AI Azure për të treguar dhe garantuar hapat proaktivë që po ndërmerren për të mbrojtur peizazhin në ndryshim të kërcënimeve të AI.

Ai përpiqet të shmangë keqpërdorimet e AI dhe të ruajë integritetin dhe besueshmërinë e ndërveprimit të AI duke përfshirë ekranet dhe sinjalizimet në kohë.

Me evolucionin e vazhdueshëm të teknologjisë AI dhe adoptimin e saj në shumë përfshirje të jetës së përditshme, do të jetë koha e fundit që Microsoft dhe pjesa tjetër e komunitetit të AI të mbajnë një qëndrim shumë vigjilent të sigurisë.

Burimi: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/