Ja se si OpenAI planifikon të pastrojë ChatGPT nga informacioni i rremë

OpenAI njoftoi më 31 maj, përpjekjet e tij për të përmirësuar aftësitë matematikore të zgjidhjes së problemeve të ChatGPT, duke synuar të reduktojë rastet e halucinacioneve të inteligjencës artificiale (AI). OpenAI theksoi zbutjen e halucinacioneve si një hap vendimtar drejt zhvillimit të AGI të linjës.

Në mars, prezantimi i versionit më të fundit të ChatGPT, GPT-4, e shtyu më tej inteligjencën artificiale në rrjedhën kryesore. Sidoqoftë, chatbot-ët gjenerues të AI-së janë përballur prej kohësh me saktësinë faktike, duke gjeneruar herë pas here informacion të rremë, të quajtur zakonisht "halucinacione". Përpjekjet për të reduktuar këto halucinacione të AI u njoftuan përmes një postimi në faqen e tyre të internetit.

Halucinacionet e AI i referohen rasteve kur sistemet e inteligjencës artificiale gjenerojnë rezultate që janë faktikisht të pasakta, mashtruese ose të pambështetura nga të dhënat e botës reale. Këto halucinacione mund të shfaqen në forma të ndryshme, të tilla si gjenerimi i informacionit të rremë, krijimi i ngjarjeve ose njerëzve që nuk ekzistojnë ose ofrimi i detajeve të pasakta për tema të caktuara.

OpenAI kreu kërkime për të ekzaminuar efektivitetin e dy llojeve të reagimeve - "mbikëqyrja e rezultateve" dhe "mbikëqyrja e procesit". Mbikëqyrja e rezultateve përfshin reagime të bazuara në rezultatin përfundimtar, ndërsa mbikëqyrja e procesit siguron të dhëna për çdo hap në një zinxhir mendimi. OpenAI i vlerësoi këto modele duke përdorur probleme matematikore, duke gjeneruar zgjidhje të shumta dhe duke zgjedhur zgjidhjen e renditur më të lartë sipas secilit model reagimi.

Pas analizës së plotë, ekipi hulumtues zbuloi se mbikëqyrja e procesit dha një performancë superiore pasi inkurajoi modelin t'i përmbahej një procesi të miratuar nga njeriu. Në të kundërt, mbikëqyrja e rezultateve doli më sfiduese për të shqyrtuar në mënyrë të vazhdueshme.

OpenAI pranoi se implikimet e mbikëqyrjes së procesit shtrihen përtej matematikës dhe hetimi i mëtejshëm është i nevojshëm për të kuptuar efektet e tij në fusha të ndryshme. Ai shprehte mundësinë që nëse rezultatet e vëzhguara qëndrojnë të vërteta në kontekste më të gjera, mbikëqyrja e procesit mund të ofrojë një kombinim të favorshëm të performancës dhe përputhjes në krahasim me mbikëqyrjen e rezultateve. Për të lehtësuar kërkimin, kompania publikoi të dhënat e plota të mbikëqyrjes së procesit, duke ftuar eksplorimin dhe studimin në këtë fushë.

Related: Kërkesa për inteligjencë artificiale katapulton shkurtimisht Nvidia në klubin prej 1 miliard dollarësh

Edhe pse OpenAI nuk ofroi raste të qarta që nxitën hetimin e tyre për halucinacione, dy dukuri të fundit ilustruan problemin në skenarët e jetës reale.

Në një incident të fundit, avokati Steven A. Schwartz në çështjen Mata kundër Avianca Airlines pranoi se mbështetej në chatbot si një burim kërkimi. Megjithatë, informacioni i dhënë nga ChatGPT doli të ishte tërësisht i fabrikuar, duke nxjerrë në pah çështjen në fjalë.

ChatGPT i OpenAI nuk është shembulli i vetëm i sistemeve të inteligjencës artificiale që hasin halucinacione. Inteligjenca artificiale e Microsoft-it, gjatë një demonstrimi të teknologjisë së saj chatbot në mars, ekzaminoi raportet e fitimeve dhe gjeneroi shifra të pasakta për kompani si Gap dhe Lululemon.

Revistë: 25 mijë tregtarë vënë baste në zgjedhjet e aksioneve të ChatGPT, AI nuk pranon hedhjen e zareve dhe më shumë

Burimi: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information