Ministerul Cercetării, Inovării și Digitalizării a publicat un ordin, prin care încearcă să reglementeze deepfake-urile, însă, după cum atrage atenția Asociația pentru Tehnologie și Internet (ApTI), această lege ignoră cea mai mare problemă a acestora: în marea majoritate a cazurilor, tehnologia este folosită pentru crearea de pornografie fără acordul persoanelor, iar țintele sunt aproape mereu femei.

Un deepfake este o imagine, o filmare sau o înregistrare, care a fost creată prin inteligență artificială și care este extrem de realistă, find greu de distins de materiale reale. Acestea sunt create în mai multe scopuri: adesea sunt folosite pentru glume, dar de multe ori scopul lor este acela de a înșela lumea: un caz recent din România este discursul fals al lui Mugur Isărescu, care încuraja oamenii să investească bani pe o platformă inexistentă.

Însă, aceste utilizări sunt doar o parte mică a tehnologiei; un studiu citat de ApTI susține că 98% dintre videoclipurile deepfake sunt pornografice, iar în 99% dintre cazuri sunt vizate femei.

Situația pare scăpată de sub control, același studiu menționând că un videoclip de 60 de secunde poate fi creat în 25 de minute, pe gratis. 404 Media, o redacție americană axată pe tehnologie, scrie despre mai multe derapaje legate de deepfake-uri: materiale pornografice cu copii, indivizi care creează imagini cu orice persoane la prețuri mici sau aplicații ușor de utilizat care se promovează prin reclame pe Instagram.

Platforma nofake

Acest ordin de ministru a creat o platformă, numită nofake, prin care cetățenii au posibilitatea de a semnala deepfake-urile pe care le găsesc pe internet – Facebook, Instagram, TikTok, YouTube și Google -, iar MCID va cere companiilor să elimine aceste postări. Însă, aceasta a fost creată în contextul alegerilor din acest an, iar scopul ei este oprirea dezinformării, până în prezent fiind scoase 3500 de materiale care puneau în pericol integritatea alegerilor.

Am vorbit cu Bogdan Ivan, ministrul cercetării, inovării și a digitalizării, persoana care a semnat acest ordin. El a spus că dacă sunt semnalate deepfake-uri cu conținut pornografic de pe platformele menționate mai sus, acestea vor fi șterse.

„Atunci când vorbesc despre un material care nu respectă standardele comunității din punct de vedere al platformelor online sau este unul care aduce atingerea imaginii cuiva, indiferent că este o formulă care e o imagine potențial pornografică sau este o imagine care arată că cineva vinde și garantează pentru un tratament miraculos sau pentru investiție la anumite acțiuni la bursă. Principiul este același, că tot e o înșelătorie și nu respectă realitatea. Iar noi, în clipa respectivă, pe această platformă, tot ceea ce nu respectă realitatea, este evident că e tratat este trimis cu prioritate în termenul de 60 de minute către administratorii platformelor” a spus ministrul Bogdan Ivan.

Problema este însă că marea majoritate a deepfake-urilor pornografice nu se află pe platformele cuprinse în ordin, ci în spații private, precum canale de Telegram sau aplicații independente. Bogdan Ivan ne-a spus că aceste spații virtuale nu țin de atributele sale, ci intră sub acoperirea altor instituții ale statului, MCID neavând capacitatea să înceapă anchete penale.

De asemenea, ne-a confirmat că încă nu există un plan concret de a crea o asemenea platformă dedicată deepfake-urilor pornografice și se așteaptă ca directivele europene relevante, precum AI Act și Digital Services Act, să fie implementate În România.

Alte probleme ale ordinului

ApTI atrage atenția asupra mai multor probleme ale ordinului de ministru, una dintre ele ținând de puterea pe care MCID o primește dintr-o dată: acesta va avea responsabilitatea de a decide ce mesaje sunt „malițioase”. Astfel, există posibilitatea de a se ajunge la derapaje masive, în care anumite postări critice la adresa guvernului pot fi scoase de pe rețelele de socializare în mod abuziv.

În această privință, ministrul Bogdan Ivan ne-a spus că, conform directivelor europene Digital Services Act și Data Governance Act, responsabilitatea este împărțită între mai multe instituții, precum MCID, CNA și ANCOM. După ce are loc o filtrare, materialele sunt trimise către acestea, care decid fiecare în parte ce să raporteze mai departe către rețelele de socializare. În continuare nu știm cum decide fiecare instituție ce este conținut malițios și care criterii stau la baza scoaterii de pe internet.

Situația actuală

În prezent, nu există încă nicio directivă europeană care să incriminalizeze pornografia creată cu inteligență artificială, ci doar un proiect de lege, prin care ar fi reglementate mai multe forme de violență online, inclusiv deepfake-urile non-consensuale. Însă, conform publicației Politico, dacă totul decurge bine, statele ar avea timp până în 2027 pentru a implementa legea.

Directiva Uniunii Europene dedicată inteligenței artificiale, care a fost votată de europarlamentari în martie, va bloca mai multe probleme aduse de această tehnologie: scoruri sociale, identificarea emoțiilor la școli și locurile de muncă, sisteme care să abuzeze persoane vulnerabile etc. Însă, printre criticile aduse acestei directive, se numără și faptul că se axează pe prevenirea distribuirii în scopuri malițioase a deepfake-urilor, însă nu cere pedepsirea acestora.

Anul trecut, în România, a intrat în funcțiune o lege prin care divulgarea sau transmiterea de imagini intime a unei persoane, fără consimțământul acesteia, este pedepsit cu închisoare de la 6 luni până la 3 ani. Proiectul inițial a fost propus de senatoarea Florina Presadă în 2019, dar nici acesta nu reglementează deepfake-urile.

De asemenea, studiul realizat de Home Security Heroes, pe care l-am menționat mai sus, aduce niște concluzii îngrijorătoare: popularitatea videoclipurilor pornografice deepkfake este în creștere, iar platformele care pun la dispoziție aceste materiale își cresc în mod constant numărul de utilizatori. Autorii mai susțin că este o nevoie masivă de utilizarea responsabilă și etică a tehnologiei, alături de reglementarea măsurilor de siguranță.

Andrei Boloș

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.