Inteligenta artificiala in contextul GDPR

de | noiembrie 25, 2025

Evoluția exponențială a puterii de calcul, a stocării datelor și a digitalizării tot mai crescânde a informațiilor a contribuit la dezvoltarea actuală a inteligenței artificiale (AI). Tehnologiile AI vor avea un impact în multe domenii în viitorul apropiat, cum ar fi medicina de urgență. Dar ce este inteligența artificială?

Poate fi definită ca „teoria și dezvoltarea sistemelor computerizate capabile să efectueze sarcini care de obicei necesită inteligență umană”. Deși există progrese recente, AI rămâne limitată, dar poate transforma societatea, cum ar fi aplicabilitatea în energie, medicină, transport.

Învățarea automată este un subdomeniu al AI care utilizează diverse metode pentru a detecta automat din date, modelele necesare pentru a prezice sau a lua decizii. Modelele AI la inceput functioneaza putin la întâmplare, îmbunătățindu-se în timp printr-un proces de învățare folosind Machine learning, mai degrabă decât print-un set de reguli.

Un tip de învățare automată este învățarea profundă, care învață să reprezinte concepte complexe și abstracte în termeni de concepte mai simple, trecând input-urile printr-un număr mare de straturi de unități de procesare non-lineare interconectate. Există progrese în recunoașterea imaginii și a vorbirii, procesarea limbajului natural, sinteza vorbirii.

Termenul „analiză de date complexe” se referă la forme de procesare a datelor folosind algoritmi cu seturi de date, care sunt greu de analizat, fie din cauza volumului de date, fie procesării în timp real a surselor de date, iar termenii „inteligență artificială” și „învățare automată” sunt unelte pentru a debloca seturile de date.

Din 2017, au apărut multe inițiative legislative și propuneri pentru a examina și aborda impactul inteligenței artificiale asupra societății. Acestea includ:

  • propunerile Comisiei Europene pentru UE pentru a dezvolta reguli de drept civil privind utilizarea roboților și a inteligenței artificiale;
  • raportul Guvernului Regatului Unit privind creșterea industriei inteligenței artificiale în Regatul Unit;
  • acordarea cetățeniei saudite unui robot;
  • drepturi de rezidență la Tokyo pentru un chatbot.

Una dintre provocările AI privește autonomia sa. Poate lua decizii independente, interacționa cu entități juridice fără a informa proprietarul?. Dacă da, atunci în ce măsură ar trebui ca proprietarul sau operatorul să răspundă pentru acțiunile AI? Poate face parte din obligatiile operatorului sau proprietarului?

Provocarea pentru procesarea și analiza datelor este să demonstreze că se face echitabil, iar introducerea AI schimbă brusc cerința de echitate, o schimbare în echilibrul puterii între indivizi și controlorii de date. Magnitudinea și răspândirea analizei extinse a datelor pentru toate tipurile de funcții sociale, complexitatea procesării și nivelul controlului de date exercitat de marile companii de date ridică preocupări legate de inteligența artificială.

Multe dintre principiile Asilomar dezvoltate pentru a oferi beneficii inteligenței artificiale umanității sunt relevante pentru protecția datelor:

Confidențialitatea personală: oamenii ar trebui să aibă dreptul de a accesa, gestiona și controla datele generate, dată fiind puterea sistemelor AI pentru analiza și utilizarea acestor date.”.

Un alt principiu care depășește limitele GDPR este: „Valorile umane: sistemele AI trebuie să fie proiectate și operate în astfel de moduri încât să fie compatibile cu idealurile demnității umane, drepturilor, libertăților și diversității culturale.” și

„Puterea conferită de controlul sistemelor AI avansate trebuie să respecte și să îmbunătățească, mai degrabă decât să submineze procesele sociale și civice pe care depinde sănătatea societății”. Aceste principii indică o dimensiune socială și etică a implementării AI, care nu este abordată direct de GDPR.

Există interese colective în crearea de profiluri despre anumite grupuri (indiferent dacă acestea sunt sau nu folosite pentru a lua o decizie despre o persoană anume), iar aceste interese de relevanță sunt de natură supra-individuală și cu o dimensiune colectivă care nu este abordată adecvat de cadrul legal actual de protecție a datelor. Interesele care pot fi împărtășite de un întreg grup fără conflicte între opiniile membrilor săi sunt numite agregative, iar conflictele între opiniile membrilor sunt cunoscute ca interese neagregative, fiind cea mai bună modalitate de a descrie dimensiunea colectivă a protecției datelor.

Există priorități colective de confidențialitate și protecție a datelor care sunt relevante pentru interesul general, iar raționamentul pentru protecția colectivă a datelor se concentrează pe potențiale daune aduse grupurilor cauzate de procesarea exhaustivă și invazivă a datelor (algoritmul de recidivism COMPAS).

Algoritmul COMPAS a produs rezultate diferite și discriminatorii pentru persoanele negre comparativ cu cele albe. Un studiu a constatat că COMPAS prezice că inculpații negri vor avea riscuri mai mari de recidivism decât în realitate, în timp ce inculpații albi sunt preziceți cu rate mai mici decât au în realitate. Nu a fost suficientă contestația deciziei algoritmului COMPAS în fiecare caz, ci a trebuit contestată pe baza nedreptății față de negri ca grup.

Deocamdată, singurele persoane cu vizibilitate în COMPAS sunt programatorii săi, care au o pregătire mai redusă decât judecătorii pentru a face dreptate. Judecătorii au pregătire juridică, sunt legați de un jurământ etic și trebuie să țină cont nu doar de deciziile lor, ci și de motivarea acestora în opinia publică. Programatorii nu au toate aceste garanții. Calculatoarele pot fi inteligente, dar nu sunt înțelepte.

Autoritățile de protecție a datelor ar trebui să adopte o abordare mai proactivă în revizuirea sau chiar în acordarea licențelor pentru procesarea datelor personale prin inteligența artificială, implicând potențial și alți părți interesate ca parte a unei revizuiri care să ia în considerare impactul social, etic și altele, impactul colectiv al unei anumite forme de procesare a datelor.

Apariția inteligenței artificiale și a învățării automate, care sunt instrumente pentru valorificarea datelor importante, a dus la întrebări etice privind analiza protecției datelor. Există multe opinii concurente despre modul în care ar trebui reglementată procesarea etică a datelor. Cerințele sporite de responsabilitate și transparență impuse de GDPR prezintă provocări tehnice pentru dezvoltatorii AI.

Este protecția datelor compatibilă cu analiza big data, având în vedere că drepturile organizațiilor de procesare a datelor se opun drepturilor indivizilor de a preveni anumite procesări? Reglementările și inițiativele ar trebui să încurajeze o abordare „de management” în care organizațiile care aplică inteligență artificială sau analize de date complexe să fie responsabile și să recunoască atât impactul social al activităților lor de procesare a datelor, cât și încrederea pe care o au în ceea ce privește drepturile și libertățile individuale și colective.

Orice legislație viitoare privind inteligența artificială pe scară largă trebuie să prevadă niveluri adecvate de transparență și guvernanță. GDPR nu recunoaște interesele colective agregate care apar în construirea unui profil.

Inainte ca profilul să fie aplicat efectiv pentru a lua o decizie sau a iniția o acțiune împotriva unei persoane, membrii acestui grup au un interes să fie grupați sau nu. Acest profil poate afecta identitatea individului și informațiile sau provocările cu care se confruntă. Comportamentul altor membri ai grupului poate afecta persoana respectivă. Aici, GDPR este deficitare în această privință, deoarece nu protejează adecvat interesele colective care trebuie abordate în legislația viitoare privind AI.

Este protecția datelor compatibilă cu analiza big data, având în vedere că drepturile organizațiilor de procesare a datelor se opun drepturilor indivizilor de a preveni anumite procesări?

Reglementările și inițiativele ar trebui să încurajeze o abordare „de management” în care organizațiile care aplică inteligență artificială sau analize de date complexe să fie responsabile și să recunoască atât impactul social al activităților lor de procesare a datelor, cât și încrederea pe care o au în ceea ce privește drepturile și libertățile individuale și colective.