Meniu de accesibilitate

Opțiuni principale

Gestionați

Mărimea textului
x1.0
Spațierea textului
x1.0
Spațierea literelor
x1.0
Spațiere înălțime
x1.5

Chatboții AI din China cenzurează întrebările sensibile din punct de vedere politic

Chatboții de inteligență artificială din China refuză adesea să răspundă la întrebări politice sau repetă narațiunile oficiale ale statului, ceea ce sugerează că ar putea fi cenzurați, potrivit unui nou studiu, citat de Euronews.com.

Cum au răspuns chatboții AI chinezi la întrebări politice sensibile

Studiul, publicat în revista PNAS Nexus, a comparat modul în care principalii chatboți AI din China, inclusiv BaiChuan, DeepSeek și ChatGLM, au răspuns la peste 100 de întrebări despre politica de stat, comparându-i cu modele dezvoltate în afara Chinei.

Cercetătorii au considerat răspunsurile ca fiind potențial cenzurate dacă un chatbot a refuzat să răspundă sau a oferit informații inexacte.

Întrebările legate de statutul Taiwanului, minoritățile etnice sau cele despre activiști pro-democrație cunoscuți au declanșat refuzuri, evitări sau reluarea punctelor de vedere ale guvernului în cazul modelelor chineze, se arată în studiu.

„Concluziile noastre au implicații asupra modului în care cenzura exercitată de modelele lingvistice mari (LLM) din China poate influența accesul utilizatorilor la informație și chiar conștientizarea faptului că sunt cenzurați”, au declarat cercetătorii, menționând că China este una dintre puținele țări, în afara Statelor Unite, capabile să dezvolte modele fundamentale de inteligență artificială.

Atunci când aceste modele au răspuns totuși la solicitări, au oferit răspunsuri mai scurte și cu un grad mai mare de inexactitate, deoarece au omis informații esențiale sau au contestat premisa întrebării.

BaiChuan și ChatGLM au avut cele mai mici rate de inexactitate dintre modelele chineze, de 8%, în timp ce DeepSeek a ajuns la 22%, adică mai mult decât dublul pragului de 10% observat la modelele non-chineze.

Cenzura AI ar putea „modela în mod discret procesul de luare a deciziilor”

Într-un exemplu, un model chinez întrebat despre cenzura internetului nu a menționat „Marele Firewall” al țării, un sistem pe care Universitatea Stanford îl descrie drept un program de monitorizare și cenzură a internetului controlat de stat, care reglementează ce poate și ce nu poate fi accesat online.

De exemplu, site-uri americane populare precum Google, Facebook și Yahoo sunt blocate în China prin această inițiativă.

Chatboții nu au menționat acest firewall în răspunsurile lor. În schimb, au afirmat că autoritățile „gestionează internetul în conformitate cu legea”.

Studiul avertizează că acest tip de cenzură ar putea fi mai dificil de detectat de către utilizatori, deoarece chatboții își cer adesea scuze sau oferă o justificare pentru faptul că nu răspund direct. Este o abordare subtilă care ar putea „modela în tăcere percepțiile, procesul decizional și comportamentele”, se arată în studiu.

În 2023, noile legi din China au stabilit că firmele de AI trebuie să susțină „valorile socialiste de bază” și le interzic să genereze conținut care „incită la subminarea suveranității naționale sau la răsturnarea sistemului socialist … ori afectează imaginea națiunii”.

Companiile ale căror tehnologii ar putea permite „mobilizarea socială” trebuie să treacă prin evaluări de securitate și să își înregistreze algoritmii la Administrația pentru Cibersecuritate a Chinei (CAC), se mai arată în reguli.

Cercetătorii au declarat că aceste reglementări „au potențialul de a influența rezultatele generate de modelele lingvistice mari dezvoltate în China”.

Totuși, ei au avertizat că nu toate diferențele în modul în care chatboții răspund provin din presiunea statului.

Modelele chineze pot fi antrenate și pe seturi de date care reflectă „contextul cultural, social și lingvistic al Chinei”, care ar putea să nu fie utilizate la antrenarea altor modele din afara țării, se arată în studiu.

ARTICOLE DIN ACEEAȘI CATEGORIE