Sarcina urgentă, dar dificilă, de a reglementa inteligența artificială

Anul 2023 a marcat o nouă eră de “hype a Inteligenței Artificiale”, care a ridicat discuții privind siguranța și reglementarea noilor tehnologii de inteligență artificială (AI). În domeniul tehnologiei progresul a început cu lansarea ChatGPT la sfârșitul anului 2022 și s-a finalizat cu încheierea unui acord istoric – Legea UE privind AI. În timp ce textul final este încă în proces de a fi pus la punct în cadrul reuniunilor tehnice din următoarele săptămâni, primele semne indică faptul că prima “carte de reguli privind AI” din lumea occidentală face un anumit pas spre protejarea oamenilor de daunele cauzate de AI. Însă nu reușește să o facă în mai multe domenii importante, nereușind să asigure protecția drepturilor omului, în special pentru cei mai marginalizați. Acest lucru a venit la scurt timp după ce guvernul britanic a găzduit un Summit inaugural privind siguranța AI în noiembrie 2023, unde lideri mondiali, actori importanți din industrie și grupuri selecte ale societății civile s-au reunit pentru a discuta despre riscurile AI. Deși impulsul și dezbaterea în creștere privind guvernanța AI sunt binevenite și necesare, întrebarea cheie pentru 2024 este dacă aceste discuții vor genera angajamente concrete și se vor concentra asupra celor mai importante riscuri actuale ale AI și, în mod critic, dacă se vor duce la acțiuni substanțiale suplimentare în alte jurisdicții.

În timp ce evoluțiile AI prezintă noi oportunități și beneficii, nu trebuie să ignorăm pericolele documentate pe care le prezintă instrumentele AI atunci când sunt folosite ca mijloc de control social, supraveghere în masă și discriminare. Mult prea des, sistemele de inteligență artificială sunt testate pe cantități masive de date private și publice – date care reflectă nedreptățile societății, ceea ce duce adesea la rezultate părtinitoare și la exacerbarea inegalităților. De la instrumentele și echipamentele utilizate de poliție, la sistemele automatizate utilizate în procesul decizional din sectorul public pentru a determina cine poate avea acces la asistență medicală și asistență socială, la monitorizarea circulației migranților și refugiaților, AI a subminat în mod flagrant și constant drepturile omului ale celor mai marginalizați din societate. Alte forme de inteligență artificială, cum ar fi algoritmii de detectare a fraudelor, au avut, de asemenea, un impact disproporționat asupra minorităților etnice, care au suferit probleme financiare devastatoare, după cum a documentat deja Amnesty International, în timp ce tehnologia de recunoaștere facială a fost folosită de poliție și de forțele de securitate pentru a viza comunitățile rasiale și pentru a consolida sistemul de apartheid din Israel.

Așadar, ce determină ca reglementarea AI să fie complexă și dificilă? În primul rând, există natura vagă a termenului de inteligență artificială în sine, ceea ce face ca eforturile de reglementare a acestei tehnologii să fie mai complicate. Nu există un consens larg în ceea ce privește definiția AI, deoarece termenul nu se referă la o tehnologie singulară, ci mai degrabă include o multitudine de aplicații și metode tehnologice. Utilizarea sistemelor de inteligență artificială în multe domenii diferite din sectorul public și privat înseamnă că un număr mare de părți interesate sunt implicate în dezvoltarea și implementarea acestora. Aceasta înseamnă că aceste sisteme sunt un produs al muncii, al datelor, al software-ului și al contribuțiilor financiare, iar orice reglementare trebuie să se ocupe minuțios de toate daunele acestor sisteme. În plus, aceste sisteme nu pot fi considerate strict ca fiind hardware sau software, ci mai degrabă impactul lor se reduce la contextul în care sunt dezvoltate și implementate, iar reglementarea trebuie să țină cont de acest aspect.

Pe măsură ce intrăm în anul 2024, acum este momentul nu doar să ne asigurăm că sistemele de inteligență artificială respectă drepturile din start, ci și să garantăm că cei care sunt afectați de aceste tehnologii nu numai că sunt implicați în mod semnificativ în procesul de luare a deciziilor privind modul în care ar trebui reglementată tehnologia AI, dar și că experiențele lor sunt în mod continuu scoase la suprafață și fac parte dina ceste discuții.

În paralel cu procesul legislativ al UE, Regatul Unit, SUA și alte țări și-au stabilit agenda și abordări distincte pentru a identifica principalele riscuri pe care le prezintă tehnologiile de inteligență artificială și modul în care intenționează să le atenueze. Deși aceste procese legislative prezintă multe complexități, acest lucru nu ar trebui să amâne eforturile de a proteja oamenii de daunele prezente și viitoare ale AI și există elemente cruciale pe care noi, la Amnesty, știm că orice abordare de reglementare propusă trebuie să le conțină. Reglementarea trebuie să fie obligatorie din punct de vedere juridic și să centreze prejudiciile deja documentate ale persoanelor supuse acestor sisteme. Angajamentele și principiile privind dezvoltarea și utilizarea “responsabilă” a inteligenței artificiale – nucleul actualului cadru de reglementare pro-inovație urmărit de Regatul Unit – nu oferă o protecție adecvată împotriva riscurilor tehnologiei și trebuie să fie prevăzute de lege.

În mod similar, orice reglementare trebuie să includă mecanisme de responsabilizare mai complexe, dincolo de evaluările tehnice pe care le promovează industria. În timp ce acestea pot fi utile în cadrul oricărui proces de reglementare, în special în ceea ce privește testarea algoritmică, interdicțiile nu pot fi excluse în cazul sistemelor fundamental incompatibile cu drepturile omului, indiferent cât de precise sau eficace din punct de vedere tehnic ar fi acestea.

Alții trebuie să învețe din procesul UE și să se asigure că nu există lacune care să permită actorilor din sectorul public și privat să ocolească obligațiile de reglementare, iar eliminarea oricăror scutiri pentru AI utilizată în cadrul securității naționale sau al aplicării legii este esențială pentru a realiza acest lucru. De asemenea, este important ca, în cazul în care o viitoare reglementare limitează sau interzice utilizarea anumitor sisteme de inteligență artificială într-o jurisdicție, să nu existe lacune de reglementare care să permită exportul acestor sisteme în alte țări, unde ar putea fi utilizate pentru încălcarea drepturilor omului în cazul grupurilor marginalizate. Aceasta rămâne o lacună flagrantă în abordările Regatului Unit, SUA și UE, deoarece acestea nu iau în considerare dezechilibrele de putere la nivel global ale acestor tehnologii, în special impactul lor asupra comunităților din cadrul majorității globale, ale căror voci nu sunt reprezentate în aceste discuții. Au existat deja cazuri documentate de lucrători externalizați care au fost exploatați în Kenya și Pakistan de către companiile care dezvoltă instrumente de inteligență artificială.

Pe măsură ce intrăm în 2024, acum este momentul nu numai să ne asigurăm că sistemele de inteligență artificială respectă drepturile din start, ci și să garantăm că cei care sunt afectați de aceste tehnologii nu numai că sunt implicați în mod semnificativ în procesul de luare a deciziilor privind modul în care ar trebui reglementată tehnologia AI, dar și că experiențele lor sunt în mod continuu scoase la suprafață și sunt centrate în cadrul acestor discuții. Mai mult decât vorbe în vânt, avem nevoie de reglementări obligatorii care să responsabilizeze companiile și alți actori cheie din industrie – și să se asigure că profiturile nu vin în detrimentul protecției drepturilor omului. Eforturile de guvernanță internațională, regională și națională trebuie să se completeze reciproc, iar discuțiile globale nu trebuie să se desfășoare în detrimentul unei reglementări naționale semnificative sau a unor standarde de reglementare obligatorii – acestea nu se exclud reciproc. Acesta este nivelul de responsabilitate – trebuie să învățăm din încercările anterioare de reglementare a tehnologiei, ceea ce înseamnă să ne asigurăm că sunt introduse mecanisme solide pentru a permite victimelor încălcărilor drepturilor cauzate de AI să caute dreptate.

Taguri