Îți recomandăm să încerci și aplicația Euronews România!

Surse Reuters: O "descoperire revoluționară" periculoasă ar fi dus la telenovela Open AI

Scandalul în care a fost implicat Sam Altman, CEO-ul de la Open AI, continuă să fie unul foarte discutat. Însă cei de la Reuters citează unele surse și susțin că cercetătorii OpenAI au avertizat consiliul de conducere cu privire la o "descoperire", înainte de înlăturarea lui Altman.

Astfel, înainte de concedierea lui Sam Altman, care a durat doar patru zile, mai mulți cercetători au scris o scrisoare consiliului de administrație, în care avertizau cu privire la "o descoperire revoluționară" a inteligenței artificiale, despre care au spus că ar putea amenința umanitatea, așa cum au declarat, pentru Reuters, două persoane familiare cu subiectul.

Scrisoarea trimisă de cercetători către consiliul de administrație al Open AI

Scrisoarea despre care nu se știa până acum și algoritmul AI au fost momente-cheie înainte de înlăturarea lui Altman, considerat copilul-minune al inteligenței artificiale generative, așa cum au spus cele două surse. Înainte de întoarcerea sa triumfală, în seara de 21 octombrie, peste 700 de angajați amenințaseră că se vor retrage și că se alătură susținătorului Microsoft (MSFT.O), ca gest de solidaritate cu liderul lor concediat.

Sursele respective spun că acea scrisoare a fost doar un factor dintr-o listă mai lungă de nemulțumiri ale consiliului, care au condus la concedierea lui Altman, printre care s-au numărat îngrijorările privind comercializarea progreselor făcute înainte de a înțelege consecințele. Reuters susține că nu a intrat în posesia acelei scrisori și că cei care au redactat-o nu au răspuns solicitărilor de a comenta.

Cei de la OpenAI au recunoscut, într-un mesaj intern adresat angajaților, că au existat un proiect numit Q* (n.r.: se pronunță Q-Star) și o scrisoare către consiliu înainte de evenimentele din weekend, după cum susține una dintre persoanele de contact. Un purtător de cuvânt al OpenAI a precizat că mesajul, care a fost trimis de directorul Mira Murati, a alertat personalul cu privire la anumite articole din presă, fără a comenta acuratețea lor.

Ce este Q*

Unele persoane din cadrul OpenAI consideră că Q* ar putea reprezenta o descoperire în cercetările acestei companii privind ceea ce se numește inteligență artificială generală (AGI), după cum a declarat, pentru Reuters, una dintre surse.

  • OpenAI definește AGI ca "sisteme autonome care depășesc oamenii în efectuarea celor mai multe sarcini prețioase din punct de vedere economic".

Având în vedere resursele informatice enorme de care dispune, noul model a reușit să rezolve anumite probleme matematice, după cum a spus persoana respectivă, sub protecția anonimatului, pentru că nu este autorizată să vorbească în numele companiei. Deși reușește că execute chestiuni matematice doar la nivelul elevilor de școală, realizarea unor astfel de teste i-a făcut pe cercetători să fie foarte optimiști cu privire la succesul lui Q* pe viitor.

Cercetătorii consideră că matematica reprezintă o adevărată frontieră a dezvoltării inteligenței artificiale generative. În prezent, aceasta este utilă la scrierea și traducerea dintr-o limbă, prin anticiparea cuvântului următor, în mod statistic, iar răspunsurile la aceeași întrebare pot varia foarte mult.

Dar a avea capacitatea de a face calcule matematice - acolo unde există un singur răspuns corect - înseamnă că AI ar avea capabilități de raționament mai mari, asemănătoare inteligenței umane. Acest aspect ar putea fi aplicat și în cercetările științifice noi, așa cum cred cercetătorii AI.

  • Spre deosebire de un calculator care poate rezolva un număr limitat de operații, AGI poate generaliza, învăța și înțelege.

În scrisoarea lor către consiliu, cercetătorii au semnalat capabilitatea AI și potențialul periculos, așa cum au spus sursele respective, fără a specifica și care erau preocupările exacte în ceea ce privește siguranța și care au fost menționate în acea scrisoare.

Au existat de multă vreme discuții între oamenii de știință în domeniul informaticii despre pericolul reprezentat de aceste mașinării extrem de inteligente. De exemplu, ce s-ar întâmpla dacă ele ar decide că distrugerea umanității este în interesul lor?

Cercetătorii au semnalat, de asemenea, munca unei "echipe științifice de AI", a cărei existență au confirmat-o mai multe surse. Grupul, format prin combinarea echipelor anterioare „Code Gen” și „Math Gen”, a explorat cum să optimizeze modelele AI existente pentru a-și îmbunătăți raționamentul și, în cele din urmă, să efectueze muncă științifică, după cum a spus una dintre respectivele persoane.

Altman, copilul teribil al inteligenței artificiale

Altman a condus demersurile de a face din ChatGPT una dintre aplicațiile software cu cea mai rapidă creștere din istorie și a atras investițiile și resursele de calcul necesare de la Microsoft pentru a se apropia cât mai mult de AGI.

Pe lângă faptul că a anunțat o mulțime de instrumente noi, într-o demonstrație care a avut loc în această lună, Altman a insinuat, săptămâna trecută, la un summit al liderilor mondiali de la San Francisco, că el crede că vor exista progrese majore.

"De patru ori în istoria OpenAI - cel mai recent moment a fost în ultimele două săptămâni - am ajuns sîn situația de a fi de față când împingeam înapoi vălul ignoranței și împingeam înainte frontiera descoperirii. Și să faci asta este onoarea profesională a vieții", a spus Altman, la summitul Cooperării Economice Asia-Pacific.

O zi mai târziu, consiliul l-a concediat pe Altman.

ARTICOLE DIN ACEEAȘI CATEGORIE