Peste 700 de oameni de știință, politicieni și antreprenori cer oprirea dezvoltării unei ''superinteligențe artificiale''

Peste 700 de oameni de știință, politicieni, antreprenori din domeniul tehnologiei și vedete au cerut miercuri oprirea lucrărilor care vizează dezvoltarea unei inteligențe artificiale (IA) capabile de depășirea capacităților umane, având în vedere riscurile pe care le-ar reprezenta acest lucru pentru umanitate, au consemnat AFP și Reuters.

''Cerem oprirea dezvoltării unei superinteligențe până când va exista un consens științific că aceasta poate fi construită într-un mod controlat și sigur și până când va exista sprijin din partea populației'', se arată pe site-ul inițiativei lansate de Future of Life Institute, o organizație non-profit cu sediul în SUA care avertizează în mod regulat asupra efectelor nocive ale IA.

Institutul, fondat în 2014, l-a avut între consultanți pe CEO-ul Tesla Elon Musk.

Printre semnatari se numără mai mulți ''părinți'' ai IA moderne, precum Geoffrey Hinton, laureat al Premiului Nobel pentru fizică în 2024, Stuart Russell, profesor de informatică la Universitatea California din Berkeley, și Yoshua Bengio, profesor la Universitatea Montreal.

Lista include de asemenea antreprenori din domeniul tehnologiei precum Richard Branson, fondatorul Virgin Group, și Steve Wozniak, cofondator al Apple; personalități politice ca Steve Bannon, fost consilier al președintelui american Donald Trump, și Susan Rice, consilier pentru securitate națională sub Barack Obama; lideri religioși ca Paolo Benanti, consilier al Papei și principalul expert al Vaticanului în domeniul inteligenței artificiale; și celebrități cum sunt cântărețul american will.i.am sau prințul Harry și soția sa, Meghan Markle.

Majoritatea celor mai mari jucători din domeniul inteligenței artificiale încearcă să dezvolte o inteligență artificială generală (AGI), etapă în care IA ar egala toate capacitățile intelectuale umane, dar și o ''superinteligență'', care ar însemna depășirea acestui nivel.

În opinia lui Sam Altman, șeful OpenAI, care a creat ChatGPT, nivelul superinteligenței ar putea fi atins în termen de cinci ani, a explicat el în septembrie, la un eveniment organizat de grupul media Axel Springer.

''Nu contează dacă e peste doi sau 15 ani, construirea a ceva de acest gen este inacceptabilă'', a declarat pentru AFP Max Tegmark, președintele Future of Life Institute. Acesta a mai adăugat că antreprenorii nu ar trebui să abordeze acest tip de activități ''fără niciun cadru de reglementare''.

''Putem susține crearea unor instrumente de inteligență artificială mai puternice, de exemplu pentru a vindeca cancerul, fiind totodată împotriva superinteligenței'', a adăugat el.

Inițiativa reflectă o scrisoare semnată de cercetători și responsabili din domeniul inteligenței artificiale, publicată acum o lună în marja Adunării generale a Națiunilor Unite, care a cerut stabilirea unor ''acorduri internaționale privind liniile roșii pentru inteligența artificială'' cu scopul de a preveni efecte devastatoare pentru omenire.

Mulți din industria tehnologiei și din guvernul SUA au argumentat că astfel de preocupări sunt nejustificate și subminează inovația și creșterea economică. Totuși, notează Reuters, sprijinul din partea unor personalități precum Bannon reflectă o potențială creștere a neliniștii legate de inteligența artificială în rândul dreptei populiste, într-un moment în care multe persoane cu legături cu Silicon Valley dețin roluri influente în administrația republicană a președintelui american Donald Trump.

ARTICOLE DIN ACEEAȘI CATEGORIE