Europuls – Center for European Expertise

Cazul Grok și testul regulilor europene pentru inteligența artificială

De Alexandra Petrescu și Maria-Ecaterina Nistor

Astăzi, 26 ianuarie, Comisia Europeană a deschis o nouă procedură formală împotriva X în temeiul Regulamentul privind serviciile digitale (DSA), procedură care vizează explicit funcționalitățile Grok integrate în platformă. Investigația analizează dacă X a respectat obligațiile prevăzute la articolele 34 alineatele (1) și (2), 35 alineatul (1) și 42 alineatul (2) din DSA.

Concret, Comisia verifică dacă platforma a realizat o evaluare adecvată a riscurilor înainte de implementarea Grok, dacă a transmis un raport de evaluare a riscurilor și dacă a adoptat măsuri suficiente pentru a preveni răspândirea de conținut ilegal, inclusiv imagini sexualizate manipulate și materiale care pot constitui abuz sexual asupra copiilor.

Această procedură se înscrie într-un context mai larg de aplicare a Regulamentului privind serviciile digitale în cazul platformei X. La 5 decembrie 2025, Comisia Europeană a adoptat prima decizie de neconformitate în temeiul DSA, aplicând platformei X o amendă de 120 de milioane de euro. Sancțiunea a vizat, printre altele, utilizarea unor elemente de design înșelătoare (inclusiv sistemul de verificare), lipsa transparenței în domeniul publicității și nerespectarea obligației de a oferi cercetătorilor acces la date, astfel cum prevede regulamentul.

De ce a deschis Comisia Europeană o anchetă oficială
La începutul anului 2026, integrarea modelului de inteligență artificială Grok în platforma X a permis generarea, la cererea utilizatorilor, de imagini sexualizate cu persoane reale, fără consimțământul acestora. O parte dintre aceste imagini au vizat femei și minori. Nu a fost vorba despre o utilizare marginală sau accidentală, ci despre o funcționalitate disponibilă public, integrată direct într-o rețea socială de dimensiuni foarte mari, utilizată de zeci de milioane de persoane în UE și supusă, din acest motiv, unor obligații juridice suplimentare.

Cazul a devenit rapid un punct de referință pentru politica digitală a Uniunii, deoarece a pus în lumină o confuzie frecventă: ce poate și ce nu poate face Regulamentul privind serviciile digitale (DSA) și, respectiv, Regulamentul privind inteligența artificială (AI Act). Dincolo de reacțiile politice și de dezbaterea publică, răspunsul trebuie căutat direct în textele legislative.

Ce reglementează Regulamentul privind serviciile digitale (DSA)
Regulamentul privind serviciile digitale (DSA) este actul legislativ care stabilește obligațiile platformelor online în raport cu conținutul și funcționarea serviciilor lor. El nu reglementează inteligența artificială ca tehnologie, ci comportamentul platformelor care intermediază conținut în spațiul digital.

Pentru platformele online foarte mari, precum X, DSA impune o obligație centrală: evaluarea și reducerea riscurilor sistemice generate de propriile servicii. Aceste riscuri sunt definite explicit în articolul 34 și includ, printre altele, răspândirea conținutului ilegal, efectele negative asupra exercitării drepturilor fundamentale, violența bazată pe gen și prejudiciile aduse minorilor.

Obligația nu este una formală sau abstractă. Platforma trebuie să analizeze modul concret în care funcționalitățile sale pot produce astfel de riscuri și să adopte măsuri rezonabile și proporționale pentru a le preveni sau reduce. Articolul 35 din DSA detaliază această obligație de atenuare a riscurilor, iar articolul 42 impune platformelor să furnizeze Comisiei Europene documentația relevantă, inclusiv rapoarte de evaluare a riscurilor.

Este esențial de subliniat ce nu face DSA. Regulamentul nu interzice dezvoltarea sau existența unui model de inteligență artificială și nu stabilește ce tip de conținut poate fi generat, în abstract. Intervenția sa are loc atunci când o platformă permite, prin arhitectura și funcționalitățile sale, răspândirea de conținut ilegal sau produce riscuri sistemice pe care nu le gestionează corespunzător.

În cazul Grok, problema juridică din perspectiva DSA nu este existența modelului, ci dacă X a evaluat și a redus riscurile asociate integrării acestuia înainte de lansare și dacă a prevenit utilizarea sa pentru producerea și difuzarea de imagini sexualizate ilegale.

Relevanța Regulamentului privind inteligența artificială (AI Act)
Regulamentul privind inteligența artificială este construit pentru a reglementa dezvoltarea și utilizarea sistemelor de inteligență artificială, nu pentru a interveni direct asupra efectelor produse de integrarea acestora într-o platformă online. Deși regulamentul se aplică etapizat și introduce obligații de transparență pentru sistemele generative, el nu reglementează tipurile de conținut care pot fi generate și nu prevede un mecanism prin care un sistem de inteligență artificială să poată fi suspendat sau interzis exclusiv pe baza utilizărilor sale abuzive.

Cu alte cuvinte, Regulamentul privind inteligența artificială stabilește reguli pentru dezvoltarea și utilizarea sistemelor de inteligență artificială, dar nu reglementează situațiile în care o platformă online permite, prin funcționalitățile sale, producerea și difuzarea de conținut ilegal sau grav prejudiciabil.

Din acest motiv, cazul Grok nu este analizat în prezent prin prisma Regulamentului privind inteligența artificială, ci prin Regulamentul privind serviciile digitale, care vizează tocmai responsabilitatea platformelor pentru riscurile sistemice generate de modul în care își proiectează și operează serviciile.

Ce s-a discutat în plenul Parlamentului European
Dezbaterea din plenul Parlamentului European din data de 20 ianuarie privind cazul Grok a evidențiat o divizare clară între europarlamentari în privința modului în care UE ar trebui să răspundă la utilizarea inteligenței artificiale pentru generarea de imagini sexualizate fără consimțământ. În timp ce o parte dintre intervenții au tratat fenomenul ca pe o problemă de protecție a drepturilor fundamentale, altele au încadrat discuția aproape exclusiv în termeni de libertate de exprimare și risc de cenzură.

În acest context, europarlamentara Irmhild Boßdorf (ESN, Germania) a avertizat asupra riscului ca reacția la abuzurile digitale să conducă la forme de supraveghere în masă și a susținut că reglementarea ar trebui să rămână, în principal, la nivel național. Această poziție a generat reacții imediate în plen. Europarlamentara Maria Grapini (S&D, România) a intervenit ridicând cartonașul albastru, contestând direct argumentația prezentată. Grapini a subliniat că există o contradicție între invocarea protecției minorilor și minimalizarea faptelor discutate și a afirmat că este inacceptabil ca, în numele libertății de exprimare, să fie tolerat un cadru permisiv care poate facilita exploatarea sexuală a fetelor și a copiilor. Ea a atras atenția asupra riscului de a relativiza astfel de fapte prin etichete precum „fake news” sau „cenzură”, insistând că protecția persoanelor vulnerabile trebuie să primeze.

Dincolo de Grok
Problema în cazul Grok nu este existența inteligenței artificiale, ci felul în care X a ales să o lanseze și să o integreze în platformă. Concret, Comisia Europeană verifică dacă X a făcut sau nu o evaluare reală a riscurilor înainte de lansare și dacă a luat măsuri suficiente pentru a împiedica folosirea acestei funcționalități la generarea și răspândirea de imagini sexualizate ilegale, inclusiv cu minori.
Faptul că astfel de conținut a apărut rapid și pe scară largă ridică semne de întrebare serioase cu privire la modul în care X și-a respectat obligațiile legale. În această etapă, Comisia adună probe și analizează documentele transmise de platformă. Dacă se confirmă că riscurile au fost ignorate sau tratate superficial, următorul pas este o decizie de neconformitate, care poate veni la pachet cu măsuri corective și sancțiuni.

Update cookies preferences