Îți recomandăm să încerci și aplicația Euronews România!

"Puneți Inteligența Artificială pe pauză, prezintă deja riscuri profunde pentru umanitate!". Ce conține scrisoarea deschisă, aparent semnată de Elon Musk, Steve Wozniak și alte personalități

Numele mai multor personalități, printre care Elon Musk, Yuval Harari ori Steve Wozniak , însoțesc o scrisoare deschisă prin intermediul căreia cer o pauză de 6 luni în dezvoltarea sistemelor avansate de Inteligență Artificială. Aceștia consideră că IA prezintă „riscuri profunde pentru umanitate” și trebuie reglementată corespunzător.

  • Precizare: Scrisoarea, aparent semnată, printre alții, de Elon Musk, Steve Wozniak, Yuval Harari și de peste 1000 de alte nume, nu poate fi verificată din alte surse credibile în afara preluărilor Time și Reuters, precum și a site-ului unde apare lista semnatarilor.

Pe de altă parte, amintim că în 2015, Elon Musk, Stephen Hawking, Noam Chomsky, împreună cu sute de cercetători din domeniul Inteligenței Artificiale, au cerut interzicerea la nivel mondial a producției armelor autonome ce folosesc Inteligența Artificială, avertizând că fabricarea acestora ar putea duce la o cursă a înarmării la nivel mondial.

Ce conține scrisoarea publicată de Future of Life Institute

  • Pe scurt, semnatarii cer o pauză de 6 luni în exploatarea sistemelor de inteligență artificială mai puternice decât modelul GPT-4, de la OpenAI;
  • Laboratoarele de Inteligență Artificială și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale;
  • Printre argumente, inclusiv abordarea companiei-mamă, OpenAI, care conștientiza, recent, că, pe parcursul evoluției sistemelor, va apărea un moment în care trebuie auditate independent;
  • În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu decidenții politici pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale.

Textul integral:

„Sistemele de Inteligență Artificială cu o inteligență competitivă pentru oameni pot prezenta riscuri profunde pentru societate și umanitate, după cum arată cercetările extinse și după cum recunosc laboratoarele de vârf de inteligență artificială. După cum se afirmă în Principiile Asilomar AI, aprobate pe scară largă, Inteligența Artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui să fie planificată și gestionată cu grijă și cu resursele necesare.

Din nefericire, acest nivel de planificare și gestionare nu are loc, chiar dacă în ultimele luni laboratoarele de Inteligență Artificială s-au înscris într-o cursă scăpată de sub control pentru a dezvolta și implementa minți digitale din ce în ce mai puternice pe care nimeni - nici măcar creatorii lor - nu le poate înțelege, prezice sau controla în mod fiabil.

Sistemele contemporane de Inteligență Artificială devin în prezent competitive pentru oameni în ceea ce privește sarcinile generale și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și neadevăruri? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm creiere non-umane care ar putea, în cele din urmă, să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să ne pierdem controlul asupra civilizației noastre?

Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele puternice de Inteligență Artificială ar trebui să fie dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem.

În declarația recentă a OpenAI privind inteligența generală artificială, se afirmă că «La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme». Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de Inteligență Artificială să întrerupă imediat, timp de cel puțin 6 luni, pregătirea sistemelor de Inteligență Artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii-cheie. În cazul în care o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de Inteligență Artificială și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți. Aceste protocoale ar trebui să garanteze că sistemele care aderă la ele sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în ceea ce privește dezvoltarea Inteligenței Artificiale în general, ci doar un pas înapoi de la cursa periculoasă către modelele din ce în ce mai puternice, imprevizibile, cu capacități emergente

Cercetarea și dezvoltarea Inteligenței Artificiale ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu decidenții politici pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale.

Acestea ar trebui să includă cel puțin: noi autorități de reglementare dedicate Inteligenței Artificiale (AI); supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general; sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI; un ecosistem robust de auditare și certificare; stabilirea răspunderii pentru eventuale prejudicii cauzate de AI; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă”.

ARTICOLE DIN ACEEAȘI CATEGORIE