La începutul lunii aprilie 2025, Comisia Europeană (CE) a făcut un pas neașteptat, dar cu semnificații importante: a interzis participarea agenților AI la ședințele sale online.
Deși aparent o măsură procedurală minoră, decizia a fost semnalată în mod vizibil chiar în timpul unei întâlniri virtuale între Comisie și reprezentanți ai birourilor naționale de politici digitale, unde slide-ul de deschidere afișa clar mesajul: „No AI Agents are allowed”.
Confirmată ulterior pentru publicația Politico, interdicția a fost aplicată pentru prima dată fără ca CE să ofere detalii suplimentare despre motivele care au stat în spatele acestei decizii.
Totuși, contextul și reacțiile rapide din industrie au arătat că nu e vorba doar despre o regulă de „etichetă digitală”, ci despre o poziționare fermă într-un moment-cheie al reglementării inteligenței artificiale în Europa.
Prudență, securitate și lipsa reglementării explicite
Chiar dacă nu a fost însoțită de o notă oficială detaliată, surse din cadrul Comisiei au confirmat pentru OpenDataScience că decizia reflectă o abordare precaută față de instrumentele AI cu autonomie operațională.
Agenții AI, spre deosebire de chatboturi precum ChatGPT, nu se limitează la răspunsuri date la întrebări punctuale. Ei pot iniția și coordona acțiuni, pot colecta și procesa informații în timp real și - esențial în contextul unei ședințe oficiale - pot interacționa în locul utilizatorului uman.
Temerile CE au legătură cu trei aspecte ale problemei:
- Confidențialitatea datelor: Agenții AI pot accesa și stoca automat conținutul unei întâlniri fără ca ceilalți participanți să fie conștienți.
- Securitatea informațională: Existența unor breșe sau scurgeri de date prin canale AI nesupravegheate ar putea pune în pericol discuții sensibile.
- Etica decizională: Dacă un AI notează, sintetizează sau chiar influențează decizii, cine este responsabil pentru rezultat? Se menține controlul uman?
Este important în context și faptul că agenții AI nu sunt reglementați explicit în legislația actuală, nici în forma finală a AI Act, adoptată de Parlamentul European în martie 2024. Deși modelele care alimentează acești agenți intră sub incidența legii, modul concret în care ei funcționează în contexte sociale sau instituționale rămâne într-un „spațiu gri”.
Ce sunt, de fapt, agenții AI?
Agenții AI reprezintă următoarea etapă a inteligenței artificiale generative. Dacă un chatbot oferă un răspuns punctual la o întrebare, un agent AI poate:
- participa la o întâlnire
- asculta activ conversația
- prelua sarcini în mod autonom - de exemplu, generare de rapoarte
- accesa aplicații, documente sau surse externe pentru a oferi informații în timp real
Potrivit definiției incluse într-un document al Comisiei Europene privind „virtual worlds”, agenții AI sunt „aplicații software concepute să perceapă și să interacționeze cu medii virtuale, operând autonom pe baza unor reguli predefinite”.
În practică, companii precum OpenAI (cu „Operator”), Microsoft (prin Copilot) sau startup-uri europene precum Mistral dezvoltă deja platforme care permit utilizatorilor să creeze propriii agenți.
Aceste entități digitale pot „merge” la întâlniri în locul nostru, pot discuta, pot prelua comenzi complexe - și, ceea ce îi îngrijorează pe mulți - pot face toate acestea fără o supervizare constantă.
Între semnal de alarmă și început de reglementare
În ce privește implicațiile, decizia CE este, în primul rând, un semnal că agenții AI nu vor fi acceptați în spații decizionale oficiale fără o reglementare clară. Este o delimitare simbolică între ce este acceptabil ca „asistent digital” și ce depășește limita autonomiei instituționale.
Organizațiile publice și private din UE vor fi, probabil, nevoite să revizuiască rapid politicile interne de utilizare a AI. Urmând exemplul Comisiei, instituții precum Parlamentul European, Consiliul UE sau agențiile specializate ar putea adopta poziții similare în lunile următoare.
În plus, pentru că agenții AI nu sunt încă definiți juridic, este posibil ca AI Act să sufere completări prin care să se precizeze când un AI devine „agent” și nu doar „asistent”, în ce contexte este permis și care sunt cerințele minime de transparență, control și notificare.
De asemenea, companiile dezvoltatoare vor trebui să creeze moduri clare prin care utilizatorii pot indica prezența AI-ului în întâlniri sau pot oferi acces la jurnalul de activitate al agentului.
Pe termen lung, UE pare să opteze pentru un model care încurajează AI-ul colaborativ, dar care pune frână formelor de autonomie necontrolată.
În acest sens, agenții AI ar putea deveni subiectul unor reglementări specifice privind „managementul algoritmic”, o direcție de lucru anunțată deja de Comisie pentru finalul mandatului actual.
Această abordare ar putea servi drept standard global, influențând nu doar alte guverne, ci și modul în care AI-ul este proiectat, promovat și perceput de publicul larg.
Teme de dezbatere generate de decizie
Cert este că decizia CE a deschis calea unor dezbateri necesare în contextul dezvoltării accelerate a AI. Iată câteva dintre cele mai importante teme:
- Autonomie vs. responsabilitate umană
Dacă un AI „participă” la o ședință și oferă un rezumat, cine răspunde pentru acuratețea acelui document? Dacă informațiile sunt incomplete sau părtinitoare, răspunderea e a AI-ului (teoretic imposibil) sau a utilizatorului? Această întrebare atinge o zonă critică în dezbaterea despre AI: cine poartă responsabilitatea deciziilor augmentate de tehnologie?
- Confidențialitate și securitate
Potrivit OpenDataScience, una dintre preocupările majore ale Comisiei este lipsa de control asupra datelor pe care agenții AI le colectează și, potențial, le păstrează în cloud.
Un agent care transcrie o ședință ar putea stoca acele informații într-un server extern - fără ca participanții să fie informați. Această lipsă de transparență este incompatibilă cu cerințele stricte ale UE privind protecția datelor (GDPR).
- Etică, bias și trasabilitate
În timp ce chatbot-urile răspund la întrebări directe, agenții AI pot influența procesul decizional. Dacă, de exemplu, un AI oferă o interpretare greșită a unei politici și aceasta este preluată ca bază pentru o decizie, rezultatul poate fi distorsionat.
Mai mult, lipsa trasabilității - adică imposibilitatea de a reconstitui logica unui răspuns AI - contravine principiilor de transparență cerute în administrația publică.
- Accesibilitate digitală și incluziune
Agenții AI pot fi deosebit de utili pentru persoane cu dizabilități sau bariere de comunicare. Unii îi folosesc pentru a accesa informații în timp real, pentru a participa la ședințe în mod asistat sau pentru a traduce și adapta conținutul. Prin interzicerea acestora, CE riscă, spun unii critici, să limiteze accesul egal la procesele decizionale și să excludă tocmai acei utilizatori care ar putea beneficia cel mai mult de aceste instrumente.
- Modelul european vs. dinamica globală a inovației
UE a fost lider în reglementarea digitală (GDPR, DSA, DMA), dar este și acuzată că frânează inovația. Prin această decizie, Comisia își reafirmă poziția de gardian al eticii și securității, dar intră din nou în conflict cu viziunea mai permisivă adoptată de SUA sau Asia în privința AI-ului.
Cert este că decizia Comisiei Europene de a exclude agenții AI din ședințele online este mult mai mult decât un gest birocratic. Este o mișcare strategică, menită să traseze o linie roșie în fața unei tehnologii care avansează rapid, dar care nu este încă pe deplin înțeleasă, controlată sau reglementată.
Prin această interdicție, UE afirmă că inovația nu trebuie să excludă etica, transparența și responsabilitatea umană. Iar agenții AI, oricât de utili ar fi, nu sunt (încă) gata să stea la masa deciziilor - cel puțin nu în spațiul european.
Sursă suplimentară consultată pentru realizarea articolului: opentools.ai.