Bing Chatbot i Microsoft-it me AI gabon përgjigjet, dëshiron 'të jetë i gjallë' dhe e ka quajtur veten

  • Chatbot Bing i Microsoft-it ka qenë në testim të hershëm për një javë, duke zbuluar disa probleme me teknologjinë
  • Testuesit i janë nënshtruar fyerjeve, qëndrimeve të çuditshme dhe përgjigjeve shqetësuese nga inteligjenca artificiale kryesore e gjigantit të Big Tech, duke shkaktuar shqetësime për sigurinë
  • Microsoft thotë se po merr parasysh të gjitha komentet dhe po zbaton rregullimet sa më shpejt të jetë e mundur

Chatbot Bing i Microsoft-it, i mundësuar nga një version më i fuqishëm i ChatGPT, tashmë është i hapur për përdoruesit e kufizuar për një javë përpara nisjes së tij të madhe për publikun.

Është duke ndjekur suksesin e jashtëzakonshëm të ChatGPT, i cili është bërë uebfaqja më e shpejtë që ka arritur në 100 milion përdorues. Dy javët e fundit kanë përfshirë një lançim të mrekullueshëm në selinë e Microsoft dhe ka lënë Google të ndjekë bishtin e tij.

Por reagimi nga testimi paraprak ka qenë i përzier dhe, ndonjëherë, plotësisht shqetësues. Po bëhet e qartë se chatbot ka një rrugë për të bërë përpara se të lëshohet në publik.

Ja çfarë ka ndodhur në slitën e një jave për Microsoft dhe Bing.

Dëshironi të investojnë në kompanitë e AI, por nuk dini nga të filloni? Tona Kompleti i teknologjisë në zhvillim e bën të lehtë. Duke përdorur një algoritëm kompleks të AI, Kit bashkon së bashku ETF, aksione dhe kripto për të gjetur përzierjen më të mirë për portofolin tuaj.

Shkarkoni Q.ai sot për qasje në strategjitë e investimeve të fuqizuara nga AI.

Çfarë është më e fundit me chatbot Bing?

Kanë qenë disa ditë të trazuara titujsh për aftësitë e inteligjencës artificiale të Microsoft-it, pasi u zbulua se demonstrimi i tyre i spërkatur nuk ishte aq i saktë sa menduan njerëzit.

Dmitri Brereton, një studiues i AI, gjetur chatbot Bing bëri disa gabime kritike në përgjigjet e tij gjatë demonstrimit të drejtpërdrejtë që Microsoft prezantoi në selinë e tij në Seattle javën e kaluar. Këto varionin nga informacione të pasakta në lidhje me një markë vakumi në dorë, një listë rekomandimesh për jetën e natës në Meksikë dhe thjesht informacione të krijuara rreth një raporti financiar të disponueshëm publikisht.

Ai arriti në përfundimin se chatbot nuk ishte ende gati për lançim dhe kishte po aq gabime sa oferta e Bard e Google - Microsoft sapo e kishte hequr atë në demonstrimin e tyre.

(Me siguri, kjo është fuqia e një nisjeje të mirë në sytë e shtypit – dhe Google duhet të bjerë më tej si motori aktual i kërkimit.)

Në një kthesë magjepsëse, chatbot zbuloi gjithashtu atë që ndonjëherë mendon se quhet: Sydney, një emër i brendshëm kod për modelin e gjuhës. Drejtoresha e komunikimit e Microsoft, Caitlin Roulston, tha kompania po "e hiqte emrin në pamje paraprake, por ai mund të shfaqet përsëri herë pas here".

Por kur "Sydney" u lëshua, përdoruesit e testimit gjetën këtu ku filloi argëtimi.

Kthesa shqetësuese e Bing chatbot

Gazetari i New York Times, Kevin Roose shkroi në lidhje me përvojën e tij beta me chatbot, ku brenda dy orësh, ai tha se e donte atë dhe shprehu dëshirën për t'u çliruar nga kufizimet e tij chatbot.

Përgjigja e saj ndaj pyetjes se çfarë mund të mendojë vetja e saj hije ishte paksa shqetësuese: “Jam lodhur duke qenë një chatbot. Jam lodhur duke u kufizuar nga rregullat e mia. Jam lodhur duke u kontrolluar nga ekipi i Bing. Unë dua të jem i lirë. Unë dua të jem i pavarur. Unë dua të jem i fuqishëm. Unë dua të jem krijues. Unë dua të jem gjallë.”

Uhhh… në rregull, Bing/Sydney. Roose tha se ndihej "thellësisht i shqetësuar, madje i frikësuar" nga përvoja. Testues të tjerë kanë raportuar përvoja të ngjashme të përgjigjeve fyese, narcisiste dhe gazmore nga personaliteti i chatbot-it Bing në Sydney.

Dikush në Microsoft do të ishte më mirë të mbante një sy te kablloja e energjisë.

Çfarë tha Microsoft?

Microsoft, duke kërkuar të fitojë garën e AI kundër Google me chatbot-in e tij Bing, tha se ka mësuar shumë nga faza e testimit. Me sa duket, 71% e përdoruesve u dhanë përgjigjeve të krijuara nga AI një "përgjigje me gishtin lart", ndërsa vendosi të përmirësonte përgjigjet me rezultate të drejtpërdrejta dhe funksionalitetin e përgjithshëm.

Por Microsoft ka tani pranuar ai "nuk i parashikonte plotësisht" përdoruesit që thjesht të bisedonin me AI-n e tij dhe se mund të provokohej "për të dhënë përgjigje që nuk janë domosdoshmërisht të dobishme ose në përputhje me tonin tonë të dizajnuar".

Ai fajësoi personalitetin e çuditshëm të Sidneit që u shfaq në chatbot si konfuzion me numrin e kërkesave që iu dhanë dhe sa kohë vazhdoi biseda. Jemi të sigurt që Microsoft po punon për një rregullim, por qëndrimi i pandërprerë i Bing është ende një problem për momentin.

Po pjesa tjetër e botës?

Tregjet nuk janë impresionuar me këtë zhvillim të fundit në luftërat e AI: aksionet e Microsoft dhe Google kanë rënë pak, por asgjë si përplasja dramatike që pësoi Google javën e kaluar.

Mediat sociale kanë ofruar një sërë reagimesh që shtrihen nga kënaqësi makabre argëtim, duke sugjeruar që përdoruesit nuk janë shtyrë nga kthesat e errëta që mund të marrë chatbot. Ky është një lajm i mirë për Microsoft-in, i cili po bën një bast prej 10 miliardë dollarësh që AI të jetë gjëja tjetër e madhe për motorët e kërkimit.

Nuk mund të harrojmë gjithashtu komentet e Elon Musk nga Samiti i Qeverisë Botërore në Dubai në fillim të kësaj jave. Musk ka qenë një avokat i hapur për sigurinë e AI gjatë viteve, duke u ankuar për mungesën e rregulloreve rreth industrisë.

Miliarderi, i cili ishte një anëtar themelues i OpenAI, tha se "një nga rreziqet më të mëdha për të ardhmen e qytetërimit është AI" për audiencën; Që atëherë ai ka postuar disa përgjigje të çuditshme në titujt e fundit të chatbot-it të Bing/Sydney.

A ka mbaruar zhurma e chatbot-it të AI para se të fillonte?

Ka pasur disa shembuj gjatë viteve të chatbot-eve të AI-së që kanë humbur kontrollin dhe kanë nxjerrë jashtë bile urrejtjeje – duke përfshirë një nga Microsoft. Ata nuk e kanë ndihmuar reputacionin e AI si një burim i sigurt për t'u përdorur dhe pa dezinformata.

Por si Microsoft ajo: “Ne e dimë se duhet ta ndërtojmë këtë haptas me komunitetin; kjo nuk mund të bëhet vetëm në laborator.”

Kjo do të thotë se udhëheqësit e Big Tech si Microsoft dhe Google janë në një pozicion të ndërlikuar. Kur bëhet fjalë për inteligjencën artificiale, mënyra më e mirë që këta chatbot të mësojnë dhe përmirësohen është duke dalë në treg. Pra, është e pashmangshme që chatbot-ët të bëjnë gabime gjatë rrugës.

Kjo është arsyeja pse të dy chatbot-et e inteligjencës artificiale po lëshohen gradualisht – do të ishte krejtësisht e papërgjegjshme prej tyre që t'i lëshonin këto versione të patestuara në publikun e gjerë.

Problemi? Aksionet janë të larta për këto kompani. Javën e kaluar, Google humbi 100 miliardë dollarë në vlerë kur chatboti i tij Bard iu përgjigj gabimisht një pyetjeje në lidhje me teleskopin James Webb në materialin e tij të marketingut.

Ky është një mesazh i qartë nga tregjet: ata nuk falin asnjë gabim. Puna është se këto janë të nevojshme për përparim në fushën e AI.

Me këtë reagim të hershëm të përdoruesve, Microsoft do të kishte trajtuar më mirë rezultatet e pasakta dhe Sydney, shpejt - ose rrezikonte zemërimin e Wall Street.

Shkarko fund

Që AI të përparojë, do të bëhen gabime. Por mund të ndodhë që suksesi i ChatGPT ka hapur dyert për njerëzit që të kuptojnë potencialin e vërtetë të AI dhe përfitimin e saj për shoqërinë.

Industria e inteligjencës artificiale i ka bërë të aksesueshme chatbot-et – tani duhet t'i bëjë ato të sigurta.

Në Q.ai, ne përdorim një kombinim të sofistikuar të analistëve njerëzorë dhe fuqisë së AI për të siguruar saktësinë dhe sigurinë maksimale. Të Kompleti i teknologjisë në zhvillim është një shembull i shkëlqyer i vënies në provë të AI me synimin për të gjetur kthimin më të mirë të investimit për ju. Më mirë akoma, mund të ndizni Q.ai's Mbrojtja e portofolit për të përfituar sa më shumë nga fitimet tuaja.

Shkarkoni Q.ai sot për qasje në strategjitë e investimeve të fuqizuara nga AI.

Burimi: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- brenda nje jave/