Îți recomandăm să încerci și aplicația Euronews România!

AI Act: Întrebări cu și fără răspunsuri, pe tema reglementării Inteligenței Artificiale

Pe 14 iunie, în jurul orei 15, vom ști dacă intrăm într-o nouă eră a omenirii sau ne întoarcem la schițarea unui viitor (teoretic) mai sigur, pentru că încă nu ne iese tabloul. Parlamentul European votează, în sesiunea de la Strasbourg, mandatul de negociere privind reglementarea în premieră a Inteligenței Artificiale – AI Act.

Pe scurt, sistemele trebuie să fie sigure, transparente, nediscriminatorii. Și, extrem de important, dar delicat totodată, având în vedere rapiditatea evoluției tehnologice: foarte bine definite.

Odată aprobat de întregul Parlament și negociat, ulterior, în Consiliul UE, format din statele membre, AI Act ar trebui implementat, treptat. Când, cum, de către cine - iată doar câteva întrebări care încă nu au un răspuns concret.

Care sunt temerile legate de dezvoltarea sistemelor de Inteligență Artificială care au dus la propunerea de reglementare?

După un raport despre IA, adoptat în 2020, Comisia Europeană a lansat o consultare publică, urmată de o Analiză de Impact asupra unui posibil act menit să reglementeze folosirea acestor sisteme.

Șase probleme au fost, astfel, identificate, conform unui briefing al Parlamentului European (vezi .pdf)

  • Folosirea AI atrage riscuri ridicate pentru cetățeni și siguranța lor
  • Folosirea AI prezintă riscuri ridicate în ceea ce privește încălcarea drepturilor fundamentale ale cetățenilor și a valorilor UE
  • Autoritățile nu au capacitatea, cadrul legal și resursele pe care le necesită monitorizarea progresului tehnologic al AI
  • Impredictibilitate juridică și complexitate când vine vorba despre felul în care reguli existente deja afectează companiile care lucrează la/folosesc astfel de sisteme
  • Lipsa (eronată) de încredere în AI va încetini dezvoltarea tehnologiei în Europa și va reduce competitivitatea produselor made in UE la nivel global
  • O abordare fragmentată ar crea obstacole pe o piață în plină expansiune și ar amenința unitatea și suveranitatea digitală a UE.

Cum definește Comisia Europeană Inteligența Artificială?

În acest moment, nu există o definiție larg acceptată de comunitatea științifică, așa că termenul IA este asociat cu o multitudine de produse și servicii plecând mai degrabă de la caracteristici individuale, decât de la un ansamblu. Comisia Europeană propune totuși varianta următoare:

Software dezvoltat prin tehnici și cu abordări specifice, care poate, pe baza unui set de obiective definite de om, să genereze rezultate precum conținut, predicții, recomandări, decizii care influențează mediul cu care interacționează.

Tehnici, adică machine learning, sisteme bazate pe logică și cunoștințe, abordare statistică. Definiția acoperă atât sisteme IA individuale, cât și sisteme IA încorporate în produse mai mari.

Ce este Piramida Riscurilor, așa cum a fost definită de Comisia Europeană?

Conform briefului Parlamentului European, utilizarea IA, cu caracteristicile sale specifice (opacitatea, complexitatea, dependența de date, comportamentul autonom), poate afecta negativ o serie de drepturi fundamentale și siguranța utilizatorilor.

Drept urmare, proiectul de act privind IA urmează o abordare bazată pe riscuri. Sistemele IA au fost clasificate în patru categorii:

  • Sisteme care prezintă un risc inacceptabil
  • Sisteme care prezintă un risc ridicat
  • Sisteme care prezintă un risc limitat
  • Sisteme care prezintă un risc scăzut sau minim.

În cadrul acestei abordări, aplicațiile IA ar fi reglementate doar în măsura strict necesară pentru a aborda niveluri specifice de risc, se precizează în documentul citat anterior.

Ce înseamnă că IA va fi reglementată?

Abordarea tehnică, stufoasă, a propunerii de act normativ a făcut din acest subiect unul greu accesibil populației de rând. Există două aspecte, totuși: deși exemplele ating de multe ori consumatorul individual, mergând chiar la un aparent absurd în cazul unor sisteme considerate extrem de periculoase, AI Act este, la “adevăr” o dorință de aliniere la un set de reguli și valori, un cadru pentru companii și dezvoltatori. Sigur, având drept scopuri transparența, siguranța utilizatorului și așa mai departe. Abordarea europeană este una orizontală – aveți aceste direcții generale, trebuie să le implementați în raport cu cadrul stabilit de fiecare stat în parte.  

Pe de altă parte, reglementarea IA se face, punctual, în acest moment să-l numim 0 al dezvoltării tehnologice. Ce se va întâmpla peste un an, în momentul 1? Cum va arăta lumea peste cinci ani?  Să ne gândim doar la explozia sistemelor de inteligență artificială generative, precum Chat GPT, care a trimis draft-ul de propunere cu un pas în spate.

Cât de mult contează pentru companii aceste reglementări? Va încetini inovația?

Estimările arată că AI Act va costa Europa undeva între 31 și 36 miliarde de euro în următorii cinci ani. O analiză făcută de ONG-ul Center for Data Innovation relevă că investițiile în domeniu vor scădea cu aproximativ 20 de procente, în aceeași perioadă.

Pe de altă parte, dacă privim spre piața muncii și vedem cum s-a transformat, în puncte de inflexiune, precum boom-ul tehnologic, vom constata că o marte parte dintre job-urile de astăzi nu aveau cum să existe în urmă cu 15-20 ani. Va fi, așadar, nevoie de oameni și în era IA. Va fi, așadar nevoie de surse continue de finanțare, de investiții.

Ca o paranteză, unul dintre marile avantaje ale IA este că va putea oferi un grad de predictibilitate pe care omenirea nu îl deține, momentan. Și o va face chiar în viitorul apropiat.

Revenind la companii și la abordarea AI Act, există mai multe posibile direcții de luat în calcul: de la un exod al inovației europene către Statele Unite, așa cum au subliniat, de exemplu, oficiali din guvernul francez și până la satisfacția din rândul marilor jucători din tech. Alinierea la setul de reguli va presupune investiții zdravene pentru companii. Le va fi mult mai greu start-up-urilor să capete un loc pe piață în raport cu giganți precum Alhpabet Inc. ori Meta, care-și permit inclusiv să încalce reglementări similare, precum GDPR, și să plătească amenzi uriașe. Darmite să angajeze ori să extindă anumite subdomenii. Problema unei surprize din partea buturugilor mici ar fi, astfel, eliminată.

Cine și când va implementa reglementările în AI?

Teoretic, Biroul UE pentru IA, undeva începând cu finalul de an 2023/debutul lui 2024. Lucrurile nu stau atât de simplu.

În acest moment, abordarea propusă în draftul legii lasă evaluarea de risc la îndemâna producătorului/furnizorului – inclusiv clasificarea risc ridicat - iar experții  se tem că reglementarea va fi ineficientă. Propunerea este ca o entitate independentă să facă acest lucru înainte de lansarea către publicul larg.  

Cu îngrijorare este văzută și delegarea unor competențe către organizații europene de standardizare private. Printre argumente se numără lipsa controlului democratic, imposibilitatea părților interesate (organizații ale societății civile, asociații ale consumatorilor) de a influența elaborarea standardelor, lipsa mijloacelor judiciare de a le controla, odată ce au fost adoptate.

Aceiași experți susțin că factorii de decizie europeni ar trebui să consolideze supravegherea democratică a procesului de standardizare.

Și mai există o temă de discuție încă neacoperită integral: drepturile individuale. Ce va putea face o persoană/organizație afectată în vreun fel în caz că vrea să depună o plângere la autorități pentru nerespectarea cerințelor actului normativ?

Doar câteva rânduri, în ziua în care a fost aprobat mandatul de negociere, luna trecută, abordează subiectul, fără alte detalii.

Există vreo categorie exceptată de la reguli?

Pentru a nu tăia elanul inovației IA, propunerea conține și excepții de la reglementări pentru activitățile de cercetare și componentele open-source.


Surse:

https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

https://datainnovation.org

https://artificialintelligenceact.eu

ARTICOLE DIN ACEEAȘI CATEGORIE