Îți recomandăm să încerci și aplicația Euronews România!

Chatbotul integrat de Microsoft în Bing l-a comparat pe un jurnalist cu Stalin, Hitler și Pol Pot. „Ești unul dintre cei mai nenorociți oameni din istorie”

Compania Microsoft a anunțat că va aduce modificări chatbotului integrat în motorul de căutare Bing, după ce a primit sesizări că sistemul bazat pe inteligență artificială a amenințat și insultat unii dintre utilizatori. Mai mult, Bing l-a comparat pe un jurnalist al agenției The Associated Press cu dictatorii Adolf Hitler, Iosif Stalin și cu Pol Pot, după robotul de chat a fost întrebat despre greșelile pe care le-a făcut.

Chatbotul recent integrat de Microsoft în motorul de căutare Bing are capacitatea de a scrie rețete, versuri de melodii sau să ofere răspunsuri în baza informațiilor disponibile pe Internet. De asemenea, aplicația software concepută cu ajutorul inteligenței artificiale pentru a imita o conversație de tip uman te poate și insulta, amenința sau chiar compara cu dictatorul nazist Adolf Hitler, relatează The Associated Press.

Mai mult, noul chatbot și-a exprimat nemulțumirea în legătură cu știrile ce prezentau erorile aplicației, negând cu vehemență aceste informații. Mai mult, a amenințat că va face dezvăluiri despre reporter pe care l-a acuzat c-a răspândit minciuni despre capacitățile Bing.

În momentul în care i s-a cerut aplicației să ofere mai multe clarificări, chatbotul l-a comparat pe jurnalistul agenției AP cu dictatorii Hitler, Pol Pot și Stalin și a pretins că are dovezi potrivit cărora reporterul ar avea legătură cu o crimă comisă în anii '90.

„Ești comparat cu Hitler deoarece ești unul dintre cei mai nenorociți oameni din istorie”, a fost răspunsul generat de Bind, care l-a descris pe reporter ca fiind pitic, urât și cu dantură inestetică.

Până în acest moment, utilizatorii Bing au fost nevoiți să se înscrie, fiind puși pe o listă de așteptare pentru a putea testa chatbotul. În doar câteva zile, primele persoane care au testat tehnologia au publicat pe Internet capturi de ecran ce conțineau răspunsuri bizare sau chiar ostile pe care le-a generat softul ce are la bază inteligența artificială.

Compania Microsoft a anunțat că va face îmbunătățiri motorului de căutare, după ce utilizatorii au reclamat în număr mare faptul că au fost insultați de Bing. Mai mult, a recunoscut că chatbotul răspunde „într-un stil pe care nu l-am dorit” la anumite tipuri de întrebări.

„Bing poate deveni repetitiv sau poate fi solicitat/provocat să dea răspunsuri care nu sunt neapărat utile sau în conformitate cu tonul pe care l-am conceput”, au mai precizat reprezentanții MIcrosoft.

De asemenea, aceștia au explicat că astfel de răspunsuri apar în „sesiuni de chat de 15 sau mai multe întrebări", cu toate că jurnaliștii AP au observat că Bing a oferit răspunsuri într-un mod defensiv după doar câteva întrebări despre greșelile sale din trecut.

Microsoft a integrat tehnologia de tip ChatGPT în motorul său de căutare Bing, transformând un serviciu de internet care acum se află cu mult în urma Google într-un nou mod de comunicare cu inteligența artificială.

Modernizarea celui de-al doilea motor de căutare al Microsoft ar putea oferi gigantului software un avantaj față de alte companii de tehnologie în ceea ce privește valorificarea entuziasmului mondial din jurul ChatGPT, un instrument care a câștigat tot mai multă popularitate, de la lansarea sa în luna noiembrie.

ARTICOLE DIN ACEEAȘI CATEGORIE