Inteligența artificială (AI) a devenit o tehnologie cheie pentru transformarea digitală în organizațiile private și publice, anticipându-se că, până în 2030, va fi folosită direct sau indirect în majoritatea sectoarelor.
De altfel, o analiză realizată de strategy&, departamentul de strategie al rețelei globale PwC, arată că utilizarea inteligenței artificiale generative (GenAI) are potențialul de a genera o creștere economică suplimentară anuală între 0,4% și 0,7% în Europa, până în 2030, dacă organizațiile sunt receptive la inovare, dezvoltă o strategie și mai ales dacă sunt dispuse să facă investițiile necesare, inclusiv pentru prevenirea riscurilor asociate.
În aceste condiții, s-ar atinge până la 90% din potențialul de majorare a productivității totale datorate GenAI. Pe lângă relevanța economică a utilizării GenAI, încrederea în performanța, securitatea, fiabilitatea și corectitudinea AI sunt esențiale pentru utilizatori, clienți și factori de decizie.
Din acest motiv, la nivelul Uniunii Europene a fost adoptat un regulament vizând utilizarea sistemelor de inteligență artificială, sub denumirea de EU AI Act.
Acesta este direct aplicabil în statele membre și impactează atât organizațiile private, cât și pe cele publice, indiferent dacă acestea sunt producători, distribuitori sau utilizatori de sisteme AI.
Alte țări întreprind de asemenea demersuri de reglementare. Astfel, în prezent, SUA se bazează pe legile federale existente pentru a reglementa AI, dar își propune să introducă o legislație specifică și o autoritate federală de reglementare.
În același timp, Regatul Unit a elaborat ”Cartea albă privind reglementarea AI” care cuprinde un cadru bazat pe principii pe care autoritățile de reglementare ale diferitelor sectoare să le interpreteze și să le aplice pentru dezvoltarea și utilizarea AI.
Revenind la UE, regulamentul european impune obligații în funcție de riscurile potențiale ale diferitelor tipuri de sisteme AI.
Se așteaptă ca acest regulament să aibă un impact similar cu cel privind protecția datelor cu caracter personal (GDPR). Organizațiile trebuie să se conformeze legal la noile cerințe. În caz contrar, se expun mai multor riscuri legale, care includ potențiale amenzi.
În plus, încălcarea EU AI Act ar putea determina și o analiză privind posibile încălcări ale altor prevederi legale aplicabile, precum GDPR sau alte reglementări specifice fiecărei industrii.
Cine sunt principalii vizați de EU AI Act?
Producătorii și distribuitorii de sisteme de inteligență artificială reglementate în Uniunea Europeană sunt vizați de cea mai mare parte a cerințelor. Aceștia sunt furnizori care pun pe piață sau implementează sisteme de AI, indiferent dacă sunt stabiliți în UE sau într-o țară terță, precum și distribuitori de sisteme de AI reglementate care sunt stabiliți în UE.
Regulamentul UE împarte sistemele de AI în mai multe categorii bazate pe caracteristicile lor de risc, care sunt fie permise fără restricții, fie permise în anumite condiții, fie interzise.
Această abordare se bazează pe o evaluare a riscurilor preconizate pe care le poate prezenta un anumit sistem de AI pentru sănătatea, siguranța sau drepturile fundamentale ale cetățenilor UE.
Sistemele de AI cu riscuri inacceptabile sunt interzise per se. Acestea includ, de exemplu, sisteme pentru manipularea subliminală a oamenilor sau anumite sisteme biometrice de recunoaștere în timp real în spațiile publice.
Sistemele de AI cu risc ridicat sunt în centrul regulamentului. Acestea sunt permise numai în situații excepționale, cu respectarea unor cerințe stricte de documentare, monitorizare și calitate.
UE a stabilit termene de conformare pentru diferitele clasificări ale riscurilor. Organizațiile trebuie să clasifice și să evalueze în mod proactiv riscurile sistemelor lor de inteligență artificială pentru a evita sancțiunile și daunele aduse reputației.
De exemplu, la șase luni de la intrarea în vigoare a legii, o companie care implementează un sistem de inteligență artificială considerat interzis, cum ar fi unul care detectează emoții la locul de muncă, riscă amenzi de până la 35 milioane euro sau 7% din cifra sa de afaceri anuală totală la nivel mondial din anul financiar precedent, luându-se în considerare valoarea cea mai mare. Un astfel de sistem trebuie să fie scos de pe piața europeană sau reproiectat astfel încât să fie eliminate criteriile interzise definite de Legea UE privind inteligența artificială.
Ce măsuri trebuie să ia companiile? O parte dintre ele sunt listate mai jos
- Evaluarea impactului AI asupra cadrelor de conformitate existente.
- Clasificarea sistemelor AI și elaborarea unui inventar în funcție de clasificările de risc și menținerea unui inventar dinamic bazat pe taxonomia UE.
- Identificarea sistemelor AI interzise și luarea de măsuri imediate.
- Revizuirea modelului de guvernanță pentru alinierea la noile cerințe ale regulamentului.
- Dezvoltarea și punerea în aplicare a unor proceduri de gestionare, testare și validare a riscurilor.
- Guvernanța datelor: asigurarea unor practici solide de gestionare a datelor.
- Asigurarea unor controale adecvate, în special pentru sistemele avansate de AI.
- Cartografierea interdependențelor: înțelegerea dependențelor interne și externe legate de sistemele de inteligență artificială, de exemplu cu furnizorii de cloud și de platforme terțe în vederea punerii în aplicare a controalelor și a măsurilor de protecție adecvate.
Articol scris de Anda Rojanschi, Partener D&B David și Baias și Mircea Bozga, Partener PwC România.