Îți recomandăm să încerci și aplicația Euronews România!

EXCLUSIV. Expert româno-american: ”Ca inteligența artificială să nu devină periculoasă, trebuie să școlim algoritmii exact ca pe oameni”

Publicat de: Bogdan Rădulescu

Dr. Marius Stan este recunoscut pe plan internațional ca unul dintre întemeietorii modelării și simulării pe calculator a fenomenelor temporale și spațiale. Timp de un deceniu a fost cercetător principal la Institutul Argonne National Laboratory din Chicago. Acolo a coordonat programele de cercetare în domeniul inteligenței artificiale și de simulare pe calculatoare de mare performanță. În paralel cu activitatea științifică, Marius Stan a predate la Universitatea Chicago și la Universitatea Northwestern.  Între 2013-2015, dr. Marius Stan a fost consilier principal pe probleme de informatică și director național la Ministerul Energiei al Statelor Unite, pe timpul mandatului președintelui Barak Obama. Dr. Marius Stan a publicat cărți de specialitate și peste 80 de articole științifice. În 2018, Universitatea Politehnica din București i-a acordat titlul de Doctor Honoris Causa. Marius Stan a absolvit, în 1986, Facultatea de Fizică a Universității București. În 1997, a obținut doctoratul în Chimie și în același an a început un stagiu postdoctoral la institutul de cercetare Los Alamos National Laboratory din Statele Unite.

În interviul acordat în exclusivitate pentru Euronews România, dr. Marius Stan spune că riscul inteligenței artificiale generalizate nu stă în tehnologia în sine. În opinia sa, periculoși sunt cei care o folosesc în mod iresponsabil, cei care antrenează algoritmii, cei care îi pregătesc pentru luarea deciziilor care au impact asupra vieții oamenilor.  De aici și miturile senzaționaliste pe baza cărora unii cred în mod fals că inteligența artificială va încerca, într-un viitor nu prea îndepărtat, să guverneze omenirea, să controleze indivizii.

În opinia cercetătorului româno-american, dezvolatrea vertiginoasă a programelor de inteligență artificială impune înființarea unor ”universități” pentru educarea algoritmilor și pentru evitarea introducerii în funcționarea lor a unor prejudecăți umane.  

Bogdan Rădulescu: Am trecut de la faza de inteligență artificială restrânsă – capabilă să ne spună ce este corect și incorect în termeni de logică formală – la inteligența artificială generalizată, capabilă, spun unii, să ajungă să decidă în locul ființei umane?

Marius Stan: Conceptul de inteligență artificială generalizată face parte din conceptul generic de inteligență artificială apărut în secolul trecut, ca urmare a unui articol publicat de Alan Turing, informatician, matematician, și criptanalist britanic. El a pus primul întrebarea în 1950: ”Pot mașinăriile să gândească?”. Apoi,  prin anii '60 ai secolului trecut, Herbert Simon, unul dintre părinții inteligenței artificiale, a făcut profeția potrivit căreia, nu peste mulți ani, un calculator va putea face tot ceea ce fac oamenii, că va fi capabil să execute orice activitate desfășurată de ființele umane.

Termenul de inteligență artificială generalizată a fost menționat în anii '90 în special în legătură cu aplicabilitatea lui în domeniul militar. Inteligența artificială generalizată are ca scop dezvoltarea unor programe de calculator care să poată reproduce caracteristici ale creierului uman cum ar fi învățarea, luarea unor decizii, analiza imaginilor și a sunetului. Aceste programe sunt cuplate la brațe robotice, la camere video de înaltă rezoluție, la sistem audio de înaltă fidelitate. Este vorba de programe de calculator.

Termenul de inteligență artificială generalizată a fost menționat în anii '90 în special în legătură cu aplicabilitatea lui în domeniul militar.

-Marius Stan, expert în inteligența artificială

Putem să explicăm într-o definiție mai largă ce înseamnă inteligență artificială generalizată?

Am să să propun o definiție a inteligenței artificiale generalizate în care includem programe care pot să se comporte și să ia decizii în împrejurări diverse în funcție de constrângerile impuse de mediul înconjurător. E un obiectiv ambițios și care mi se pare că nu va fi realizat prea curând. Primul punct pe agenda dezbaterilor, atunci când vine vorba de inteligența artificială generalizată, este obsesia sau ambiția de a înlocui tot ce ține de cogniție umană, adică să reușim să imităm fidel capacitățile creierului uman.

Procesul însuși de decizional nu va mai aparține excvlusiv ființei umane, ci va fi lăsat în seama inteligenței artificiale generalizate. Ea va trebui să distingă dacă e bine sau nu să facă o operațiune.

-Marius Stan

Până acum am fost obișnuiți cu un tip de inteligență artificială restrânsă în care inteligența artificială era antrenată pentru anumite activități, dar, în cele din urmă, omul era cel care decidea. În cazul inteligenței artificiale generalizate, procesul decizional însuși nu va mai aparține exclusiv ființei umane, ci va fi lăsat în seama inteligenței artificiale generalizate. Ea va trebui să distingă dacă e bine sau nu să facă o operațiune. Acesta este un capitol destul de sensibil.

Care este totuși granița care separă capacitatea omului de a decide pentru propria sa viață și deciziile pe care le vor lua programele de inteligență artificială în numele nostru, în locul nostru?

Aceasta este o dilemă tehnologică și filosofică  extrem de dificil de rezolvat: să avem sau nu încredere în orice fel de tehnologie în general, dar, în particular, în inteligența artificială generalizată sau generală? Inteligența artificială generalizată se mai numește și ”strong intelligence”, adică inteligență artificială puternică, față de componentele inteligenței artificiale folosite uzual în aplicațiile restrânse.

Eu sunt în în tabăra optimiștilor care cred că inteligența artificială în general, și cea generalizată în special, ne vor ajuta, dacă știm să le folosim așa cum trebuie. Dar, optimismul meu, pe care nu mă sfiesc să-l afișez, se bazează pe o diferență fundamentală între felul în care funcționează acești algoritmi de ”machine learning” (învățare automată), în special cei de ”învățare profundă” (deep learning), în comparație cu programarea clasică. Și, iată, care este diferența - acești algoritmi bazați pe rețele neuronale, seamănă un pic cu felul în care creierul uman este structurat, cu neuronii pe care îi avem, fiecare din ei cu câteva mii de sinapse.  

Algoritmii de învățare profundă (deep learning) învață ei înșiși dintr-un șir de exemple pozitive și negative date de utilizator, astfel încât algoritmii să devină din ce în ce mai buni la luat decizii în mod autonom.

-Marius Stan

Algoritmii aceștia de tip nou nu mai sunt structurați pe arbori de decizie de tipul ”if...then” (”dacă”...”atunci”) care să-i ajute să avanseze în procesarea informației, așa cum erau construite programele clasice de calculator.  Dau un exemplul pentru a înțelege cum funcționează programele clasice: dacă valoarea lui X e mai mică decât 2, atunci  înmulțește pe Y cu 3. Spre deosebire de ele, algoritmii de învățare profundă (deep learning) învață ei înșiși dintr-un șir de exemple pozitive și negative date de utilizator, astfel încât algoritmii să devină din ce în ce mai buni la luat decizii în mod autonom și să facă singuri predicții privind evoluția unui sistem, pe măsură ce li se dau exemple mai multe, atât pozitive și negative.

Deseori ați folosit această comparație între un medic chirurg specializat, cu ani de facultate și de practică medicală, și un program de inteligență artificială care ar putea face operații chirurgicale în locul medicului. Preluând comparația, va exista o asemenea posibilitate în viitor, să înlocuim total chirurgul uman cu un robot care să facă operații de preciziei în locul său?

Eu văd o paralelă interesantă și extrem de semnificativă între felul în care un om este educat pentru a ajunge medic, spre exemplu, și algoritmii de învățare profundă. Un om care vrea să devină medic trebuie educat de mic, trebuie să treacă printr-o școală. Educația începe în familie. Apoi, educația se face prin gimnaziu, liceu și facultatea de medicină. Apoi, prin rezidențiat. Trebuie să facă practică ani de zile într-un spital și în sala de operații chirurgicale. Ei bine, cred că ceva asemănător ar trebui să se întâmple și cu acești algoritmi de învățare profundă. Ei trebuie să treacă printr-un proces de educare, să li se facă o educație bazată pe exemple, atât pozitive cât și negative, date de cei care îi antrenează. O asemenea educație determină algoritmii să ia decizii din ce în ce mai bune. Putem avea încredere în aceste programe în aceeași măsură în care putem avea încredere într-un chirurg uman, bine educat, cu un sistem de valori morale solid, adică o persoană care a dobândit în timp experiență și știe ce face, care dorește binele pacientului și vrea să îl vindece. 

Un asemenea grad de încredere poate fi investit și într-un program de inteligență artificială generalizată. Și, de ce nu, poate într-o zi, putem lăsa în seama unui astfel de program desfășurarea în întregime a unei operații chirurgicale. Poate nu chiar acum, dar cine știe, poate în câțiva ani de acum încolo. Eu cred că, în scurt timp, acești algoritmi, cuplați cu instrumentele necesare, vor putea să treacă dincolo de faza de a asista doar un chirurg uman, așa cum se întâmplă acum, la faza în care să execute o operație în deplină capacitate chirurgicală, adică să ia decizii pe care le ia un bun medic chirurg.

În comunitatea științifică, ați fost promotorul ideii ca algoritmii folosiți în programele de inteligență artficială de tip învățarea profundă (deep learning) să fie educați și școliți precum oamenii. Mai în glumă, mai în serios, vă întreb: ca să fim siguri că inteligența artificială generalizată va lua decizii corecte în locul nostru va trebui să o trimitem la facultate?

Într-o serie de conferințe, pe care le-am susținut acum doi ani, am pledat pentru înființarea unor ”universități” pentru educarea algoritmilor și a programelor de inteligență artificială. Evident, va fi un proces dificil de antrenare a lor, un proces anevoios de ”educare” a lor. Și asta nu pentru că un asemenea proces ar necesita neapărat foarte mult timp, sau foarte mulți ani, ci din alte considerente care creează dificultăți. Trebuie să observăm faptul că în educarea și informarea oamenilor, de consolidare a sistemului lor de valori, se strecoară adesea ceea ce în limba engleză numim ”bias”, adică seturi de prejudecăți.

Inducem prejudecăți în exemplele educative, transmise cumva copiilor. La fel se întâmplă și cu programele de inteligență artificială și cu algoritmii.

-Marius Stan

Există anumite prejudecăți pe care educatorii – fie ei părinți, profesori, cadre universitare - le au uneori implicit, fără să-și dea seama. În procesul educational, exemplele pe care părinții le dau copiilor lor despre ce e bine și ce e rău, la fel ca și exemplele pe care profesorii le invocă, privind ceea ce este valoros în știință sau în artă, sunt marcate de subiectivitate, de propria lor educație și de propriul lor sistem de valori. Aceste prejudecăți implicite, existente în exemplele educative, se transmit cumva, voit sau nu, copiilor. La fel se întâmplă și cu programele de inteligență artificială și cu algoritmii.

Avem exemple, ca să zic așa, strigătoare la cer, în care un algoritm de învățare automata, în special de învățare profundă (deep learning), a fost instruit, ”educat”, folosind exemple care reflectau preferințele utilizatorului. În asemenea cazuri, aceste programe de inteligență artificială au sfârșit prin a face preziceri care semănau foarte mult cu acelea pe care le avea cel care le-a antrenat. De aceea, cred că există un anume pericol în folosirea inteligenței artificiale fără discernământ, deci fără un control atent, pentru că nu știm niciodată cât de extins și cât de valoros a fost setul de date introdus în program, nu știm care au fost procedurile utilizate în antrenarea algoritmilor. Aici cred că se află cheia înțelegerii riscurilor: nu la cei care scriu aceste programe, le produc și le distribuie, ci la cei care antrenează algoritmii, la cei care care îi pregătesc pentru luarea deciziilor. Trebuie spus foarte clar și răspicat: inteligența artificială în sine nu este periculoasă. Periculoși sunt cei care o folosesc în mod iresponsabil. Când elaborăm astfel de programe de inteligență artificială, ar trebui să ne asumăm răspunderea privind deciziile pe care această tehnologie va fi capabilă să le ia în viitor și să recunoaștem că ele nu sunt decât o reflectare a  propriului nostru sistem  de valori, o reflectare a prejudecăților noastre, a felului în care noi, oamenii, cei care antrenăm acești algoritmi, gândim și înțelegem lumea.

 

ARTICOLE DIN ACEEAȘI CATEGORIE