În aceste zile tensionate pentru coaliția de guvernare, în care o bună parte a conflictului de la nivel discursiv s-a mutat în mediul online, este un moment bun pentru a atrage atenția asupra unei inițiative recente a platformei Facebook. Aceasta testează în mai multe țări (deocamdată, nu și România) o nouă formulă algoritmică, prin care să afișeze mai puțin conținut de natură politică în news feed-urile utilizatorilor. Măsura a fost testată inițial în Statele Unite, Canada, Brazilia și Indonezia și a primit feedback pozitiv din partea cetățenilor acestor state. Pe cale de consecință, experimentul va fi extins în Irlanda, Spania și Suedia.
Conform declarațiilor lui Mark Zuckerberg, noua politică de moderare a conținutului vine ca o măsură suplimentară de precauție, pentru a evita acumularea tensiunilor sociale alimentate de dezinformare și narațiuni conspiraționiste, care să ducă la un nou caz de tipul asaltului asupra Capitoliului.
”Trebuie să ne asigurăm că acele comunități cu care oamenii sunt conectați sunt sănătoase și pozitive. […] Există o mulțime de grupuri la care s-ar putea să nu dorim să încurajăm oamenii să se alăture, chiar dacă nu încalcă în mod explicit politicile noastre. […] Continuăm să efectuăm reglaje de finețe ale modului de implementare, însă plănuim să eliminăm din lista de recomandări grupurile civice și politice pentru o perioadă mai lungă de timp și să extindem această politică la nivel global. Aceasta este o continuare a muncii depuse pentru a reduce ”temperatura” și pentru a descuraja conversațiile și comunitățile divizive.”
Afirmațiile au un ton paternalist, care este justificat, din păcate, de importanța pe care a căpătat-o Facebook ca facilitator, dar și cenzor al informațiilor care apar în spațiul public. Conjunctura devenită de rutină în care publicațiile media online, agențiile de PR, comunicatorii și oamenii politici folosesc această platformă pentru a se promova, pentru a transmite mesaje către electorat, pentru a dobândi legitimitate în spațiul public conferă Facebook (o companie privată, care să nu uităm, urmărește interese private) o putere surprinzătoare în societate.
Presată de către guverne și autoritățile de reglementare să găsească soluții pentru a canaliza această putere în sens pozitiv și pentru a evita inflamarea opiniei publice prin dezinformare și manipulări, compania jonglează cu diverse posibilități. Una dintre ele fiind moderarea ”la sânge” a sistemului de recomandări algoritmice. Este aceasta o soluție pentru reducerea polarizării sociale?
Citată de Euractiv, Emma Llansó, de la Centre for Democracy & Technology, salută inițiativa, care ar putea limita capacitatea actorilor rău-intenționați de a exploata sistemul de ierahizare a conținutului după criteriul principal al engagement-ului pe care acesta îl generează. Actualul sistem favorizează conținutul înșelător, polarizant și dezinformarea, care incită audiența la reacții imediate.
Pe de altă parte, Ralph Schroeder, profesor la Oxford Internet Institute, este sceptic privind succesul pe termen lung al acestei politici, atât timp cât Facebook s-a consacrat drept ”un mijloc de exprimare politică, cu excepția cazului în care conținutul este dăunător.”
Conform unei analize semnate de Gilad Edelman în Wired, acest experiment de depoliticizare a newsfeed-ului reprezintă și o admitere tacită a faptului că sistemul algoritmic de prioritizare a conținutului are deficiențe majore: ”Momentul marchează probabil cea mai explicită recunoaștere până în prezent de către o platformă importantă că „postările care stârnesc reacții din partea oamenilor” nu sunt sinonime cu „ceea ce consideră oamenii că este valoros” și că acest fenomen nu se limitează la lucruri care amenință să încalce regulile unei platforme, cum ar fi pornografia sau discursul incitator la ură.”
Funcționarea algoritmilor este, după cum am arătat într-o analiză de luna trecută, un mare motiv de mândrie pentru rețele sociale, deoarece promit experiențe care se mulează perfect pe dorințele neexprimate ale utilizatorilor. Nu trebuie să îi explicăm în vreun fel lui Facebook (dacă îmi permiteți acestă personalizare retorică a platformei) ce ne dorim să vedem; reacționăm însă la conținutul afișat, educând astfel algortimii privind interesele noastre de moment.
Capcana stă în lipsa de transparență a procesului și în faptul că o mare parte din conținutul existent ne este ascuns vederii. De unde știm că primim ceea ce ne dorim, dacă o bună parte din postări ne sunt ascunse oricum, în mod automat? Ajungem la situația în care, de fapt, algoritmul ne educă pe noi, cu scopul final de a optimiza engagementul. Cu alte cuvinte, logica este de a ne ține cât mai mult conectați, atenți, dornici, dependenți de a ne verifica frecvent feed-ul, gata de a ne ultragia și de a ne bucura pe marginea diverselor postări, care au tot mai frecvent un conținut de natură politică. Or, conținutul senzaționalist și polarizant domină în topul viralizării și interacțiunii intense.
Reprezentanții Facebook susțin că au înțeles din feedback-ul primit de la utilizatorii expuși experimentului că trebuie să acorde mai puțină importanță semnalelor legate de engagementul cu acel conținut politic (numărul de comentarii sau de distribuiri) și mai multă importanță reacțiilor privind calitatea acelui conținut – cât de probabil este ca oamenii să ofere feedback negativ cu privire la postările despre subiecte politice și evenimente curente atunci când aceste tipuri de postări sunt ierarhizate în fluxul lor de știri.
Ideea este bună – pentru a face din Facebook un mediu de informare mai ”curat”, chiar este important să facem distincția între zgomot și calitate. Este însă oportun să lăsăm la latitudinea companiei să ia acest tip de decizii, care vor afecta drastic audiența social media a publicațiilor de știri, precum și mediul online de comunicare pe marginea temelor de interes public? De fiecare dată, revenim la următoarea dilemă. Ce să fie? Auto-reglementare a platformelor, sau co-reglementare, cu implicarea unor organisme de supraveghere și cu edificarea unor reguli agreate de toate părțile implicate?
Dumneavoastră vă doriți mai puțin conținut politic pe Facebook?