Europuls – Center for European Expertise

Cele mai mari provocări și oportunități în reglementarea inteligenței artificiale în UE

Acum câteva decenii, inteligența artificială (AI) era un termen exotic accesibil preponderent unui număr limitat de experți. În 2023, utilizarea AI a devenit un subiect extrem de relevant pentru aproape toate domeniile de activitate, iar dezbaterile despre reglementarea acestuia suscită interesul publicului larg. Ilustrativ în acest sens, orice utilizator de internet poate experimenta cu asistenți conversaționali (chatbots) alimentați de inteligență artificială, cum ar fi ChatGPT lansat de OpenAI și Bard lansat de Google (în acest moment, disponibil doar pentru testări autorizate în Marea Britanie și SUA). Lansarea acestora a sporit considerabil interesul față de utilitatea practică a inteligenței artificiale, în contextul în care utilizatorii pot folosi acești asistenți conversaționali ca un prim instrument de cercetare, pentru a efectua analize complexe sau pentru pur amuzament creativ.

Deși AI are un potențial revoluționar diferit de multe alte invenții tehnologice precedente, este important să subliniem că tehnologia în sine rămâne a fi un instrument neutru. Astfel, putem folosi un sistem de geolocalizare alimentat de AI pentru a căuta cel mai apropiat supermarket sau pentru a identifica ținte militare. Scopul este determinat de utilizator. De asemenea, este esențial să avem o perspectivă clară în ceea ce ține de tipul de AI dezvoltat și folosit în practică. Marea majoritate a AI folosit este narrow AI (Inteligența Artificială limitată) – un tip specific de inteligență artificială în care un algoritm de învățare este conceput pentru a îndeplini o singură sarcină și orice cunoștințe dobândite în urma îndeplinirii acelei sarcini nu vor fi aplicate automat altor sarcini (cum ar fi cel folosit pentru traduceri și recunoașterea de imagini).

Uneori folosită drept exemplu de media pentru a atrage atenția asupra progresului în domeniu, Inteligența Artificială puternică (AI puternică) este o construcție de inteligență artificială care are capacități și funcții mentale care imită creierul uman. În acest caz, nu există nicio diferență esențială între software-ul AI care emulează exact acțiunile creierului uman și acțiunile unei ființe umane, inclusiv puterea sa de înțelegere și chiar conștiința sa. Dezvoltarea de AI puternică este la moment doar o perspectivă de cel puțin termen mediu, iar toate reglementările curente vizează tipul cel mai des întâlnit de AI – narrow AI.

În viața de zi cu zi, deja utilizăm de ceva timp AI pentru sarcini uzuale cum ar fi căutarea pe internet, traduceri automate, cumpărături sau navigație. La o scara largă economică, acesta transformă domenii precum sănătatea (prin implementarea de sisteme ce îmbunătățesc diagnosticul și scheme de tratament), transportul (conducere autonomă), fabricația (de la utilizarea de roboți până la optimizarea vânzărilor), agricultura (creșterea productivității și reducerea utilizării pesticidelor).

Multe din aceste aplicații se bazează pe AI cu scop general (GPAI) și reprezintă sisteme AI care au o gamă largă de utilizări posibile, atât intenționate, cât și neintenționate de către dezvoltatori. Ele pot fi aplicate la multe sarcini diferite în diferite domenii, adesea fără modificări substanțiale și reglaje fine. Pe de altă parte, generative AI (GenAI) este un tip de inteligență artificială care poate crea o mare varietate de date, cum ar fi imagini, videoclipuri, audio, text și modele 3D.

Implementarea rapidă de soluții alimentate de inteligență artificială în aproape toate domeniile, precum și progresia geometrică cu care evoluează acestea a făcut Uniunea Europeană (UE) să reflecteze la nevoia imperativă de a dezvolta reglementări eficiente ce pot fi puse în aplicare în vederea protejării consumatorilor, balansând acestea cu interesul general de a încuraja inovația, a spori creșterea economică și a fi competitivi la scară globală.

UE a identificat rapid AI ca un element central al transformării digitale a societății, iar cadrul normativ relevant este încă în proces de definire. Reprezentând un instrument inedit și fiind subiect constant de știri, inteligența artificială de uz general (GPAI), cum ar fi ChatGPT sau Bard, asistenții conversaționali, adesea domină dezbaterile axate pe reglementarea AI. În acest sens, este important să avem o imagine de ansamblu în ceea ce privește procesul de legiferare la nivel european și să păstrăm o perspectivă critică.

Comentariu

Dezbaterile referitoare la forma finală pe care o va avea Actul AI sunt încă în curs de desfășurare. Modul în care va fi definită inteligența artificială este esențial și va determina în mare măsură sfera de aplicare a Actului. Astfel, aceasta trebuie să vizeze un echilibru între o definiție prea restrânsă, ce ar risca să lase anumite tipuri de sisteme AI în afara domeniului de aplicare și o definiție prea largă, care ar include mult prea multe utilizări ale AI ce nu prezintă un risc suficient.

În acest sens, lista sistemelor de inteligență artificială generală enumerate în anexa actului este vagă și ar trebui modificată. Prin adoptarea unei definiții prea largi în ceea ce ține de inteligența artificială generală, există riscul ca multe din elementele tehnice neutre per se să fie încadrate la categorii înalte de risc, deși riscul lor vine din utilizarea lor într-un anumit context. De exemplu, un asistent conversațional poate fi folosit pentru a genera poezii, eseuri școlare și sinteze informative sau poate fi folosit pentru a crea știri false și propagandă. Alte tipuri de modele lingvistice similare pot genera imagini false ce ar putea fi ușor folosite pentru campanii de dezinformare sau poate fi folosit pentru a crea animații amuzante cu scop educativ. Reglementarea nu ar trebui să încadreze inteligența artificială generală de uz general la categoria de nivel ridicat de risc per se, cât să facă o distincție clară în ce context e nevoie de pârghii de supraveghere speciale.

Consiliul UE a propus ca modelele de inteligență artificială generală să fie supuse unor cerințe de reglementare specifice, inclusiv pentru gestionarea riscurilor, guvernanța datelor, documentația tehnică, precum și standardele de acuratețe și securitate cibernetică. În acest fel se intenționează ca modelele respective vor fi sigure, testate și bine documentate pentru utilizare. Totuși, varietatea cazurilor de utilizare a GPAI este prea diversă, iar designul algoritmic potrivit pentru un model de inteligență artificială generală nu garantează siguranța și corectitudinea în numeroasele sale utilizări potențiale. Deosebim două probleme aici: Actul AI va reglementa și modelele de inteligență artificială care sunt folosite doar pentru sarcini de bază banale, iar implementarea unui sistem de management al riscului este dificil de dezvoltat și implementat fără a fi cunoscută utilizarea finală.

În mod similar, inteligența artificială generativă este adesea o formă de inteligență artificială generală ce poate fi utilizată pentru o largă serie de scopuri. Includerea acesteia în lista de aplicații cu risc ridicat este disproporționată în raport cu multiplele utilizări banale ale acesteia (cum ar fi generarea textului unui email sau rezumarea unor fragmente de text). De asemenea, aceasta diferă fundamental de toate celelalte tipuri de sisteme AI enumerate inițial în anexa III, care sunt într-adevăr întotdeauna cu risc ridicat. O posibilă soluție ar putea fi încadrarea acesteia în normele care guvernează GPAI (care alocă cu atenție obligațiile între furnizorul GPAI și cel care implementează GPAI pe baza nivelului lor de control al riscului particular) combinate cu cerințele de transparență și supraveghere.

Actul AI ia forma unui regulament, iar conform dreptului UE responsabilitatea pentru punerea în aplicare a regulamentelor revine statelor membre. Statele membre au capacități de aplicare foarte diferite și se confruntă adesea cu deficit bugetar în ceea ce privește finanțarea autorităților naționale. Această diferență de punere în executare între statele membre creează ceea ce este adesea etichetat drept „mandate nefinanțate” create de UE – decalajul dintre ceea ce legea ar trebui să fie și să protejeze (de exemplu în cazul GDPR – datele personale), dar ceea statele nu sunt capabile să implementeze semnificativ (de exemplu – investigarea și aplicarea de amenzi companiilor pentru încălcarea protecției datelor personale). Lecțiile învățate din punerea în aplicare a GDPR-ului ar trebui să fie luate în considerare în procedura de adoptarea a Actului AI.

Uniunea Europeană este un pionier în domeniul de reglementare, iar aceasta vine cu beneficii și costuri. Printre beneficii ar fi crearea unui mediu sigur și predictibil pentru investitori și mediul de afaceri, precum și experiența de a fi un model de reglementare pentru alte jurisdicții. Cu toate acestea, noile reglementări ar putea crea obstacole în zona de inovație pentru unele state din UE și în special pentru start-up-uri și companiile mici și mijlocii care ar putea simți reglementările ca un obstacol oneros în calea dezvoltării de noi produse și servicii.

Forma finală a Actului trebuie să urmărească să asigure atât protecția consumatorului și respectarea drepturilor fundamentale, cât și încurajarea inovației și crearea unui mediu propice de afaceri. Învățând din experiența GDPR și pentru a rămâne un reglementator mondial credibil, UE ar trebui să evite setarea de standarde imposibile.

Context

La 12 aprilie 2021, Comisia Europeană a lansat propunerea Actului privind Inteligența Artificială (AI Act), cu intenția de a promova „trustworthy AI”, altfel zis un AI în care consumatorii pot avea încredere. La fel ca în cazul Regulamentului european General privind Protecția Datelor (GDPR), propunerea Comisiei este cea mai avansată încercare la nivel global de a reglementa AI, cu efecte extrateritoriale ce vor avea un impact semnificativ asupra dezvoltării reglementării AI la nivel global și a creșterii cooperării în acest sens. De asemenea, Consiliul Europei este în curs de elaborare a unei Convenții privind inteligența artificială, drepturile omului, democrația și statul de drept, aplicabilă global. În Statele Unite agențiile federale, inclusiv Comisia Federală de Comerț, Administrația pentru Alimente și Medicamente și Biroul pentru Protecția Financiară a Consumatorului se bazează pe legile deja în vigoare pentru a controla unele tipuri de inteligență artificială dezvoltate și utilizate de corporații. Cu toate acestea, nu există nicio inițiativă legislativă federală pentru reglementarea AI.

Revenind la Actul AI propus de Comisia Europeană, acesta se axează pe reglementarea riscurilor inerente și necunoscute pe care utilizarea sistemelor de AI le pot determina și le cataloghează în funcție de tipurile de riscuri pe care le creează, astfel:

Riscuri inacceptabile – sisteme AI imposibil de a deveni sigure nici măcar prin implementarea unor măsuri specifice, cum ar fi măsuri tehnice, etice sau organizatorice. Aceste sisteme prezintă un risc pentru sănătatea și siguranța persoanelor fizice, pentru protecția datelor lor personale sau pentru alte drepturi fundamentale care nu pot fi atenuate prin implementarea unor măsuri adecvate. Deoarece acestea contravin valorilor europene, vor fi interzise explicit. Cele mai cunoscute sunt sistemele de credit sau scoring social utilizate în China, adică sisteme de IA care folosesc algoritmi pentru a atribui scoruri sau evaluări indivizilor pe baza comportamentului și acțiunilor lor, cum ar fi sisteme de acordare a împrumuturilor/creditelor bancare, care ar analiza istoricul financiar al unei persoane, inclusiv istoricul creditului, raportul datorie-venit și alți factori.
Riscuri ridicate – sisteme AI care au efecte adverse asupra sănătății, siguranței sau drepturilor fundamentale. Ca să fie considerate cu risc ridicat, acestea trebuie să îndeplinească cumulativ două condiții: se folosesc în unul din domeniile identificare biometrică, managementul infrastructurii critice, educație, piața muncii, acces la servicii publice sau privat esențiale, aplicarea legii, migrație și controlul graniței, justiție și prezintă un risc asupra sănătății sau siguranței sau afectează drepturile fundamentale ale cetățeanului. Ca exemple, amintim: sistemele de recunoaștere facială utilizate în spațiile publice pentru identificarea și urmărirea persoanelor, sisteme IA precum scanerele de amprentă și iris, arme pe bază de IA, cum ar fi dronele, sistemele de imagistică medicală care funcționează pe bază de algoritmi IA.Riscuri limitate – sisteme AI care vor trebui să respecte o serie de obligații, cum ar fi transparența (să fie clar pentru utilizator că interacționează cu un AI și nu cu un om);
Riscuri minime – toate celelalte sisteme AI care nu intră în categoriile de mai sus și nu vor avea alte obligații decât cele deja existente. Aceasta categorie acoperă cele mai multe sisteme AI existente în prezent.
Aceste sisteme pot fi utilizate într-o gamă mai largă de contexte, cum ar fi:

Instrumentele personale de productivitate, cum ar fi calendare bazate pe IA și liste de activități
Chatbot de servicii pentru clienți bazați pe IA
Sisteme de recomandare bazate pe IA pentru cumpărături online
Sisteme de prognoză meteo alimentate de IA
Sisteme de recunoaștere a vorbirii bazate pe IA pentru dictare și transcriere
Instrumente de traducere bazate pe IA
Sisteme de analiză a sentimentelor bazate pe IA pentru rețelele sociale
Sisteme de detectare a tranzacțiilor financiare/bancare frauduloase bazate pe IA
Sisteme de întreținere/mentenanță predictivă alimentate de IA pentru echipamente industriale
Sisteme de control al calității bazate pe IA pentru procesele de fabricație sau cele industriale
Legislația se axează primordial pe sistemele de risc ridicat și respectiv creează o serie de obligații generale. Printre acestea, se enumeră: obligațiile de transparență și de furnizare a informațiilor pentru utilizatori, supravegherea umană, evaluări de conformitate înainte de plasarea pe piață, supravegherea pieței din partea autorităților statele și europene.

Urmărind parcursul specific adoptării legislației la nivel european, propunerea Comisiei a primit amendamente atât din partea președințiilor rotative ale Consiliului UE, dar și de la comitetele însărcinate cu raportarea asupra diferitelor părți ale Actului – IMCO (protecția consumatorului), respectiv LIBE (apărarea drepturilor omului). Următorul pas va fi adoptarea Actului AI de către Parlamentul European, în sesiunea plenară, cel mai probabil în prima jumătate a acestui an.

Odată adoptat, Actul AI va fi prima legislație orizontală din UE care reglementează sistemele AI, introducând reguli pentru plasarea în siguranță pe piața UE a produselor și serviciilor cu o componentă AI. Acesta va avea un domeniu de aplicare extrateritorial și prevede amenzi excepțional de mari, de până la 30 milioane de euro sau până la 6% din cifra de afaceri înregistrată în anul precedent. Rămâne de văzut dacă Actul va urma calea GDPR și va confirma “efectul Bruxelles” – respectiv dacă forțele pieței vor fi suficiente pentru a transforma standardul UE pentru AI în standard global, urmând să fie implementat în mod voluntar de companiile multinaționale pentru a le guverna operațiunile globale.
Update cookies preferences