Dreptul de a fi uitat (RTBF) a evoluat într-un aspect critic al tehnocrației accelerante a societății noastre, ridicând unele considerații juridice pertinente. Dreptul de a fi uitat a fost recunoscut inițial în legislația Uniunii Europene pentru a aborda potențialul prejudiciu cauzat de păstrarea datelor personale online, dar acum RTBF se confruntă cu provocări. Acest articol analizează dreptul de a fi uitat, lăsând totodată loc pentru pași inovatori în avansarea inteligenței artificiale.
Epoca digitală a modificat semnificativ sistemele de comunicare în societate. Odată cu expansiunea rapidă a accesului global la internet și apariția inteligenței artificiale avansate, tehnologia informației este noua frontieră pentru expansiune comercială și politică. Intersecția dintre procesarea și arhivarea datelor îmbunătățite de AI a făcut tot mai dificil pentru indivizi să controleze utilizarea și reprezentarea identității lor digitale. Din această cauză, eforturile juridice de protejare a datelor personale au câștigat atenție internațională. În mod particular, Regulamentul General privind Protecția Datelor (GDPR) al UE a codificat Dreptul la ștergere („Dreptul de a fi uitat”) în Articolul 17 (Comisia Europeană, 2016). Legea s-a confruntat cu provocări substanțiale atât în ceea ce privește domeniul de aplicare, cât și aplicarea sa.
Dreptul de a fi uitat (RTBF) ridică întrebări ce depășesc mult gestionarea bazelor de date. Deși ștergerea unei înregistrări dintr-un sistem de stocare poate satisface cerința legală, provocarea devine mai complexă odată ce aceste date au fost deja folosite pentru antrenarea unui model. În acest context, „uitarea” nu este la fel de simplă precum eliminarea unui rând dintr-un tabel. Modelele nu stochează datele în forma lor brută, ci le codifică în modele, ponderi și reprezentări. Determinarea dacă aceste modele încă reflectă informații personale identificabile este dificilă și, în multe cazuri, nerezolvată.
Abordările europene și americane privind legislația confidențialității evidențiază dificultatea de a ajunge la un consens. GDPR tratează confidențialitatea ca un drept fundamental și acordă RTBF un rol central în aplicarea sa. În contrast, Statele Unite au reglementări sectoriale specifice, fără un drept general echivalent. Când modelele sunt antrenate pe seturi de date internaționale, aceste standarde diferite creează incertitudine privind obligațiile ce trebuie respectate și modul de aplicare a acestora.
Tensiunea devine mai clară atunci când se analizează impactul unei cereri de ștergere. Re-antrenarea unui model de la zero de fiecare dată când un punct de date este retras nu este practică pentru sisteme complexe care necesită resurse computaționale ridicate. Pe de altă parte, permiterea unui model să persiste cu urme de date personale subminează principiul ștergerii. Această tensiune a condus la cercetări în domeniul „dezînvățării” automate, unde datele specifice pot fi eliminate dintr-un model fără reantrenare completă. Deși promițătoare, metodele actuale se confruntă cu obstacole, precum degradarea performanței sau dificultatea de a identifica influența exactă a unui singur punct de date asupra unui model antrenat.
Pe măsură ce algoritmii AI devin mai puternici, aceștia pot extrage date istorice, genera perspective noi prin combinarea seturilor de date și chiar deduce informații sensibile care nu au fost furnizate explicit niciodată. În prezent, sistemele informatice procesează volume enorme de date personale (de exemplu medicale, sociale sau economice) în multe domenii de activitate. Deși această creștere a datelor personale permite practici pozitiv disruptive în învățarea automată (ML) și inteligența artificială (AI), aplicațiile care valorifică aceste progrese în scenarii reale pot amenința confidențialitatea datelor utilizatorilor.
Reglementările actuale din întreaga lume cer ca, la cerere, datele private să fie eliminate fără întârziere nejustificată din bazele de date. Aceasta este, în esență, Dreptul de a fi uitat sau Dreptul la ștergere.
Alte abordări propuse aduc propriile compromisuri. Modelele generative pot reduce dependența de datele personale brute, dar sunt totuși antrenate pe exemple reale și pot reproduce involuntar detalii sensibile. Învățarea federată distribuie antrenamentul între dispozitive și instituții, ceea ce complică procesul de eliminare a datelor individuale odată ce acestea au fost integrate. Învățarea prin transfer ridică preocupări similare, deoarece modelele pre-antrenate pe date supuse unei cereri de ștergere pot păstra reprezentări legate de acele date.
Reconcilirea Dreptului de a fi uitat cu datele de antrenament AI necesită mai mult decât soluții tehnice. Este nevoie de standarde legale clare privind ceea ce se consideră informație personală în cadrul unui model, instrumente practice pentru eliminarea datelor care să nu compromită integritatea modelului și cooperare între jurisdicții care abordează confidențialitatea în mod diferit. Fără progrese pe toate cele trei fronturi, conformitatea cu RTBF în AI va rămâne cel mult parțială.