Ce (ne) face și ce nu poate face Inteligența Artificială? Situația de risc a României, falsul avantaj pentru dictaturi și cum ne pregătim Interviu cu Dragoș Tudorache

Ce (ne) face și ce nu poate face Inteligența Artificială? Situația de risc a României, falsul avantaj pentru dictaturi și cum ne pregătim <span style="color:#990000;">Interviu</span> cu Dragoș Tudorache

Între teoriile alarmiste că Inteligența artificială (IA) ne va lăsa fără job-uri și va distruge omenirea și nevoia de a opri utilizarea IA în scopuri imorale, manipularea alegerilor care urmează în UE și în SUA fiind unul dintre momentele de risc, un lucru e sigur: societățile cu un nivel precar de educație și încredere rămân vulnerabile, în vreme ce democrațiile mature nu au de ce să concureze cu regimurile autoritare. Pe scurt, cu China.

Dragoș Tudorache, președintele Comisiei privind Inteligența Artificială din Parlamentul European și raportor pentru AI Act, avertizează, în dialogul cu spotmedia.ro, asupra situației de risc în care este pusă România, din cauza slabei investiții politice reale în calitatea educației. Inteligența artificială nu ne fură în mod direct slujbele, dar ne poate lăsa în urmă și poate mări clivajele sociale și așa cronicizate în România. Mai mult, politicienii populiști nu fac decât să fertilizeze terenul pentru teorii alarmiste, în prag de alegeri.

Ce face și nu face Inteligența Artificială. Riscuri

Dragoș Tudorache, Parlamentul European tocmai a adoptat, într-o primă formă, primele reglementări privind utilizarea Inteligenței artificiale. Prima întrebare este foarte simplă: care au fost și care rămân pe masă principalele provocări ale acestor reglementări?

Provocările au fost foarte multe. În primul rând, a fost o provocare de a înțelege ce anume vrem să reglementăm și n-a fost simplu. E o tehnologie nouă și, de altfel, suntem primii care și-au propus o asemenea provocare importantă. Și, spre deosebire de alte momente legislative în istoria Uniunii, de data aceasta chiar am preferat să mergem un pic mai încet, dar să înțelegem bine, pentru a ne asigura că nu greșim.

ADVERTISING

Și Comisia a acționat un pic mai cu metodă decât o face de obicei. Președinta von der Leyen, în discursul de inaugurare în Parlament, a anunțat că această reglementare va fi adoptată în primele 100 de zile. Noi în Parlament i-am spus apoi președintei că nu e cazul să se grăbească, ci mai degrabă să se consulte foarte bine cu toate părțile interesate, pentru a înțelege foarte bine fenomenul, implicațiile lui și abia apoi să venim cu reglementarea.

A înțeles atunci Comisia, în 2019 a amânat adoptarea propunerii legislative și în schimb, a venit cu un document de consultare. Și cred eu că a fost foarte bine că a făcut-o, tocmai pentru că a lăsat tuturor celor interesați, și celor care dezvoltă tehnologia de IA, dar și celor care sunt la capătul celălalt, cei care îi suportă consecințele, șansa să se pronunțe.

Noi, pe partea Parlamentului, n-am lăsat timpul să treacă degeaba. Am avut, cred eu, viziunea la nivelul instituției să constituim o comisie specială pentru Inteligență artificială, pe care am avut onoarea să o conduc.

Am folosit-o tocmai pentru a ne documenta foarte bine, pentru a organiza audieri de experți, audieri de reprezentanți guvernamentali, de șefi de întreprinderi.

Ce provocări rămân? Provocarea principală va fi legată de modul în care vom implementa această reglementare. Eu sunt convins că până la finalul anului, așa cum stau lucrurile acum, o vom adopta. Am avut votul definitiv pentru un mandat în Parlament săptămâna trecută, acum începem negocierile cu Consiliul, dar eu sunt convins că până la finalul anului terminăm, iar de la acel moment vom avea o perioadă de implementare, probabil undeva între un an și doi ani.

ADVERTISING

Întrebarea mare și provocarea mare pentru mine va fi capacitatea guvernelor de a pune la punct niște autorități de reglementare cu competența necesară și nu doar de a înțelege la nivel birocratic, juridic ce înseamnă aceste norme și de a porni un dialog, de a sta de vorbă cu cei care lucrează cu tehnologia aceasta, pentru că noi am adăugat foarte multe competențe la nivelul Parlamentului, care țin de o interacțiune constantă, cel puțin așa ne-am dori noi să o vedem.

O interacțiune constantă între mediul privat, cei care generează creativitate, inovare în acest domeniu, și autoritățile de reglementare, pentru a asigura că există conformare fără să o forțăm și fără costuri prea mari.

De aceea creăm un ecosistem, ceea ce se numește în engleză sandbox, un ecosistem de teste, de centre de testare și de interacțiune într-un mediu sigur între dezvoltatori și stat. Dar pentru aceasta, statul trebuie să aibă competența de a înțelege și de a putea sta de vorbă de la egal egal cu inginerul care are o idee minunată și vrea să o dezvolte și să o pună pe piață. Deci, aici văd o provocare mare.

A doua ține de convergența la nivel global. E drept că suntem primii pe piață cu aceste reglementări, toată lumea se uită cu admirație la efortul european pe partea aceasta, tocmai pentru că recunosc cu toții că am avut viziunea la nivel european de a înțelege că această tehnologie va ajunge repede în acest punct în care suntem astăzi și în care cu toții, cred eu, împărtășim îngrijorările pe care le generează.

Avem acest, să spun, avantaj de a fi primii pe piață și de a pune pe piață un model. Provocarea e însă nu doar de a ne baza pe acest efect, ceea ce se numește efectul de Bruxelles, ci și de a încerca în mod proactiv să creștem o poftă de convergență, măcar în jurisdicțiile care gândesc la fel ca noi sau care înțeleg rolul tehnologiei în democrație, la fel ca și noi, pentru a ușura și efortul companiilor europene de a-și lărgi sfera de acțiune economică în afara granițelor Europei, dar și pentru cei care vor să vină pe piața europeană să nu le punem bariere inutile.

ADVERTISING

Ați vorbit despre stat și despre responsabilitatea statului. Aici sunt două paliere - responsabilitatea, cumva morală, a statului și a dezvoltatorilor de aplicații și competența care ține de felul în care selectezi resursele umane și îți construiești instituțiile. Prima întrebare, și probabil e cea clasică, este dacă aceste reglementări nu creează cumva un dezavantaj, de fapt, pentru democrații și mai ales pentru democrațiile stabile și responsabile, pentru că regimurile autoritare, iliberale vor fi mai degrabă tentate să folosească, să apese pedala și mai mult pentru a-și crea un avantaj.

Da, eu sunt convins că asta se va întâmpla. Întrebarea pe care noi, ca democrație, trebuie să ne-o punem, este dacă ne dorim așa ceva și ne dorim o astfel de cursă către abis. Da, putem fi convinși că China, cel puțin pe anumite modele de dezvoltare a Inteligenței artificiale, este mult în fața, nu doar a Europei, ci și a Statelor Unite, tocmai pentru că are acces la baze de date incomparabil mai mari chiar și decât cele pe care le accesează companii din Statele Unite, nu are niciun fel de rușine sau vreo barieră, nici morală, nici juridică, nici politică, nici de orice altă natură în ceea ce privește posibilitatea de a folosi datele personale ale propriilor cetățeni în interesul dezvoltării unor aplicații din ce în ce mai sofisticate, care să-i profileze, care să folosească aceste date în a dezvolta tot felul de alte instrumente.

Deci, de departe în acest domeniu, cel puțin China ne-o va lua înainte, dar întrebarea pentru noi, ca democrație, este dacă vrem să concurăm în direcția aceasta.

Eu cred că nu, pentru că în nici într-un caz eu, la nivel de societate, că sunt societate europeană sau societate americană sau japoneză sau sud-coreeană sau alte democrații, eu nu voi ajunge vreodată să am o acceptare a societății pentru un astfel de model de utilizare a tehnologiei.

Unde într-adevăr apare o întrebare este ce se întâmplă dacă pe baza acestor modele antrenate, dezvoltate în China, folosind nelimitat acea resursă pe care statul o conturează și pe care poate în mod pilotat, controlat de către anumite companii, care de altfel par companiile legitime private care operează în piața globală, dacă dezvoltă aplicații care nu sunt neapărat duse în acea direcție de control social, ci poate pot apărea ca o variantă comercială foarte inofensivă, mult mai bine antrenată și mai capabilă decât altele vestice.  

Și aici vine rolul reglementării. Este important să înțelegem de ce să avem reguli clare, pentru că dacă vine o companie chineză și vrea să-și pună o aplicație care repet, are un scop comercial, dar e foarte abilă, foarte capabilă și intră pe piața mea, atunci va trebui să se conformeze cu regulile. Dacă n-am reguli și sunt ca acum, uitați-vă la ce se întâmplă cu TikTok. Vine cu un model care are alți algoritmi decât cei folosiți în China sau cei folosiți în Singapore sau în altă parte, intră pe piața mea și face ce face.

Dacă am reguli, dacă acea aplicație chineză va vrea să intre în piața europeană, va trebui să vină și să-mi prezinte seturile de date, modul în care a configurat algoritmul, respectiv instrucțiuni de date și tot așa. Deci practic nu va fi posibil să-și utilizeze în mod abuziv anumite seturi de date cu care să-și altereze algoritmul și apoi să mi-l aducă pe piață fără ca eu să știu, fără să văd, fără să treacă prin acel exercițiu de transparență care cel mai probabil va face ca acea aplicație să nu poată fi folosită pe piața noastră.

Bun, dar nu vom avea aceste reguli până la alegeri. Or, noi am văzut ce a putut face Rusia cu niște fabrici de troli, atunci ce poate face o aplicație care nu numai că utilizează, dar și generează limbaj în crearea disensiunilor, faliilor, haosului social? Până la urmă, ăsta e instrumentul prin care prin care controlezi cumva alegerile. Cum vedeți riscul pentru alegeri și putem preîntâmpina, grăbi cumva anumite reguli?

Este o întrebare foarte bună și o problemă cât se poate de reală. Și, deschid o paranteză, aici e atât de reală încât și liderii G7 s-au aplecat asupra ei. Liderii americani și europeni în cadrul Consiliului de Comerț și Tehnologie de acum două săptămâni au discutat tema asta, iar în acest week-end am avut o întâlnire între reprezentanții Congresului american și cei ai Parlamentului European, la care am participat și eu și cred că am discutat mai bine de o oră pe marginea acestui subiect.

Ce facem la anul, când avem alegeri și în Europa, avem alegeri și în Statele Unite foarte importante? Cum ne putem asigura deja de pe acum că putem avea măcar o parte din aceste reguli aplicabile, în așa fel încât să curățăm cât se poate de mult spațiul informațional digital atât de poluat la acest moment de dezinformare?

Și aici sunt răspunsuri pe două paliere.

Primul palier e cel ce ține de reglementarea privind serviciile digitale, acel Digital Services Act. Această reglementare intră în vigoare deja pe 1 septembrie. În urmă cu o lună și jumătate a expirat termenul până la care Comisia trebuia să desemneze care sunt acele largi platforme care intră în scopul de aplicare a reglementării. Au fost desemnate 19, toate platformele de social media sunt acolo, iar de la 1 septembrie actul normativ începe să devină aplicabil, ceea ce înseamnă obligațiile privind conținutul pe care îl găzduiesc aceste platforme și responsabilitatea lor privind acel conținut, inclusiv prin a lua măsuri proactive să elimine riscurile.

Pe partea care ține de inteligență artificială, e cum anume umplem acest timp de astăzi până când chiar și reglementarea noastră cea mai avansată va intra în vigoare. Nu mai spunem de americani, de ceilalți care încă nici măcar nu au început să scrie reglementările. O soluție care a fost pusă pe masă este un act, un cod de conduită, cel puțin în ceea ce privește IA, aceste modele precum CHAT GPT, aceste modele foarte puternice și care într-adevăr pot fi folosite în a genera conținut, care apoi poate fi manipulat și folosit într-o campanie electorală.

Ideea cu acest cod de conduită e să se aplice la nivel global, deci toate democrațiile să se adune în jurul acestui cod de conduită. Cei care urmează să propună textul acestui cod de conduită suntem noi, europenii împreună cu partea americană, și vă pot spune că se lucrează deja la acest text. Suntem și noi cumva consultați în acest proces și implicați în acest proces, tocmai pentru că avem acest rol la nivel Parlamentului European în ceea ce privește actul normativ. Și atunci, împreună cu doamna Vestager, vom pregăti cumva liniile mari ale acestui cod și ideea cu el este de a  acoperi această perioadă și de a găsi în mod voluntar înțelegerea companiilor care dezvoltă acești algoritmi în a se conforma deja, înainte ca legislația să intre în vigoare.

Deci, practic extragem și simplificăm cumva o parte din normele la care lucrăm acum și care vor deveni literă de lege într-un an jumătate, doi, maxim, le introducem într-un cod voluntar de conduită în așa fel încât să ghidăm dezvoltatorii IA. Reacția din partea lor e una bună și asta este foarte important. Aproape toate companiile mari deja s-au arătat interesate în a participa la un astfel de exercițiu, pentru că înțeleg și ele responsabilitatea față de consumatori, față de societățile în care ele au interes să continue să se dezvolte, să convingă utilizatorii să fie alături de ei.

Eu cred că acest efort, acest exercițiu, va avea succes.

Grila facilă în care a fost lecturată Inteligența artificială e cea alarmistă, de la extincția ființei umane până la teoria că ne pierdem cu toții job-urile. Totuși, toate aceste teorii privind inteligența artificială au măcinat destul de mult încrederea oamenilor în politicienii tradiționali, în comunicarea tradițională, în presa tradițională. Cum poate fi refăcută această țesătură de încredere? Pentru că fără ea codul de conduită pentru alegeri e inutil.

Sunt de acord cu dumneavoastră. Din păcate, refacerea acelui țesut de încredere la nivel social-politic nu cred că poate fi făcută doar printr-o reglementare, mi-aș dori să fie atât de simplu și introducând niște reguli noi în piață, să poți să refaci ani de zile în care, practic, pas cu pas, fir cu fir, am destrămat acest țesut. Deci, repet, mi-aș dori să cred că doar prin reguli, valori s-ar putea face, dar nu cred că așa va funcționa.

Va funcționa prin comunicare, prin explicare, printr-o implicare complet diferită de ceea ce am avut până acum a politicului și a mediului politic în societate, practic, transformarea aceasta prin care trecem și nu e doar a spațiului informațional, a mediului în care accesăm și digerăm informație. Este o realitate pe care pur și simplu trebuie s-o acceptăm.

Schimbările sunt deja, din punctul meu de vedere, de neîntors. Deci faptul că publicul actual își ia altfel informația decât și-o lua în urmă cu zece ani, asta este imuabil, nu se mai poate schimba acest lucru și atunci noi trebuie să ne adaptăm, trebuie să înțelegem cum anume ajungem cu adevăr, cu fapte, cu știință, cu argumente raționale, la acest public care are acum o marjă de atenție mult mai mică, mult mai scurtă decât o avea în urmă cu zece ani, care nu mai citește de multe ori text sau citește text foarte scurt, mai degrabă ascultă sau urmărește un video.  

Deci practic înțelegând nevoile acestui nou elector, dacă e să vorbim politic, sau ale acestui utilizator de spațiu public în societățile noastre, doar înțelegându-i nevoile și înțelegându-i profilul, cred eu că atunci putem să ne adaptăm și noi ca ofertanți, cei care avem această responsabilitate de a ține cât de cât societatea coezivă. Doare adaptându-ne, cred eu că putem să câștigăm această această luptă pe care eu o consideră existențială pentru sănătatea democrațiilor noastre.

Știți că celor mai mulți politiceni, totuși, le este mai facil mai degrabă să speculeze faliile și să speculeze emoțiile primare.

Și vedem asta zi de zi. De aceea avem extremismul în floare peste tot, nu doar în România. Nu există democrație la acest moment în care extremismul să nu fie în creștere, fie pe stânga, fie pe dreapta. Și asta, da, vine din modul foarte ușor prin care fricile oamenilor pot fi folosite, exploatate, amplificate de cele mai multe ori folosind aceste noi canale de comunicare și de răspândire.

De fapt, nici măcar nu e de răspândire, pentru că este de captare într-o cameră a unui tip de mesaj și de opinie care apoi nu mai e comparat cu nimic altceva, nu mai e pus într-o contrapondere cu nicio altă opinie și rămâne capturată, să spun, într-o anumită viziune.

Vorbiți cumva despre publicul captiv. Dar cum stă România în tot acest peisaj și cel dat de inteligența artificială? Pe de o parte, avem, să zicem, o școală bună de IT sau specialiști buni în IT, pe de altă parte, avem o educație precară, o clasă politică precară și un sistem de selecție a resurselor umane la fel de precar. Și atunci cum vom putea controla efectele nocive, să spunem, extreme, ale inteligenței artificiale?

Pe scurt, foarte greu. Eu sunt extraordinar de îngrijorat de cifrele despre care nu discutăm suficient sau spre deloc, inclusiv în contextul grevei din sistemul de educație din aceste săptămâni. Toată lumea a vorbit despre salarii, sunt de acord că cerințele dascălilor erau cerințe cât se poate de rezonabile și legitime. Însă, din punctul meu de vedere, dezbaterea e mult mai largă și mult mai importantă de atât.

Dacă ne uităm în toate clasamentele la nivel european, suntem pe ultimul loc, deci eram pe ultimele înainte, acum suntem pe ultimul loc, la o distanță mare de Bulgaria, care este pe penultimul. Nu văd niciun politician, niciun responsabil politic la acest moment care să se îngrijoreze de această cifră.

Mitul cu noi, românii, care avem o școală foarte bună de IT, să știți că a rămas un mit. Nu că n-ar fi bună școala. Școala e în continuare poate bună pentru o anumită nișă, însă este de departe insuficientă pentru nevoile din piață și ceea ce generează e doar o mică picătură într-un ocean, din păcate.

Acestea sunt importante nu doar pentru sănătatea democrației de acum și pentru impactul pe care aceste lipsuri la nivelul educației, efectele pe care le au în dezbaterea publică sau în alegerile și în opțiunile politice sunt pe termen mediu și lung, pentru că dezvoltarea țării și capacitatea de a sări în acest tren al transformării digitale și al transformării IA de care vorbim ține exclusiv de capacitatea societății de a crește împreună cu creșterea acestei tehnologii și de a se adapta la ea, de a o încorpora practic în viața de zi cu zi, la locul de muncă și tot așa.

Or, aici și statul are un rol, și anume calitatea ofertei politice, calitatea și competența politicianului român și a ceea ce trebuie să facă statul. Statul are o obligație cheie în acest moment sau într-un astfel de moment transformațional, cum e cel prin care trecem, are o obligație clară de a se implica atât în redefinirea sistemului de educație, cât și în a sta de vorbă cu societatea, a pregăti societatea, inclusiv la nivelul narativului public, a îndemna mediul privat, a îndemna mediul public să se pregătească, să-și ia măsurile de precauție pentru adaptarea necesară unei astfel de transformări tehnologice, industriale, în a pune măsuri pe masă, în a gândi și a finanța programe de readaptare a forței de muncă.

Sunt banii europeni pe care-i avem pe aceste axe, care sunt total uitați, ignorați, nefolosiți sau, dacă sunt folosiți, sunt folosiți pentru cu totul și cu totul altceva decât ar trebui să fie puși la treabă. Deci, sunt multe carențe pe care, din păcate, nu le soluționăm, le lăsăm cumva așa, în băltire și, din păcate, asta înseamnă riscul ca această transformare nu doar să treacă pe lângă noi, ci să creeze clivaje și mai mari, să adâncească și mai mult prăpastia între cei care, cumva, în mod natural, se pot adapta la aceste transformări și le pot culege beneficiile, și cei, din ce în ce mai mulți, care riscă să rămână în spate.

Și iată cum suntem teren fertil pentru teorii alarmiste, cum e și această teză ne vom pierde cu toții locurile de muncă dacă Inteligența artificială evoluează. Ce e fals în asta?

E fals, în sensul în care această tehnologie nu ne va fura locurile de muncă. E un context în care fie înțelegem despre ce e vorba, care este impactul Inteligenței artificiale în meseria de jurnalist sau în meseria de politician, pentru că va avea un impact și asupra dumneavoastră, așa cum a avea și asupra mea, sau asupra medicului sau asupra avocatului, asupra controlorului de trafic aerian sau asupra bibliotecarei, va avea un impact asupra tuturor.

Acest moment e o soluție pentru politicianul populist care va alege să apese această pedală a fricii și să spună oamenilor „fugiți și ascundeți-vă sau dați cu pietre în tehnologie, pentru că ea vine să fure locuri de muncă”, în loc să vină să spună că e un progres, că orice progres vine cu niște provocări care înseamnă că noi va trebui să înțelegem cum anume ne adaptăm munca de jurnalist, politician, de avocat, de medic la această transformare.

În mod sigur ne va crea premise și ne va lăsa timp să facem alte lucruri cu o valoare adăugată mai mare decât o făceam acum, pentru că acum pierdem foarte mult timp în a face o bucată de muncă repetitivă, pe care IA o va face în două secunde și atunci va trebui să regândim felul în care arată o profesie sau alta, să vedem ce facem cu acel timp care ne rămâne, cum anume partea de input uman în acea profesie o valorizăm mai bine, cum capitalizăm mai bine și ca timp și ca valoare în producție.

Pentru asta e nevoie de o pregătire, de o adaptare și de educare a forței de muncă pentru care mediul privat are o parte din responsabilitate, dar mă aștept de acolo să vină mai natural o inițiativă. E în continuare nevoie să împingem cu toții din toate direcțiile, pentru a crea măcar un minim reflex de conștientizare și apoi de pregătire a acestei transformări.

Deci alegerile vor fi până la urmă o hârtie de turnesol.

Întotdeauna sunt, știți cum e. De fiecare dată spunem că sunt cele mai istorice alegeri. Poate chiar e un astfel de moment, tocmai pentru că le avem pe toate înșirate așa, pe un fir de ață. Și e un moment în care, într-adevăr, putem să ne întoarcem ca țară către o altă direcție, rămâne să convingem și electoratul de această nevoie.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇