Pe măsură ce inteligența artificială devine tot mai prezentă în viața noastră de zi cu zi, este important să ne gândim și la impactul pe care aceste tehnologii îl au asupra mediului.
Un nou studiu realizat de cercetători din Germania și publicat în Frontiers in Communication atrage atenția asupra costurilor ascunse ale interacțiunilor noastre cu chatbot-urile AI și ne arată cum putem să folosim această tehnologie într-un mod mai sustenabil.
O echipă de cercetători de la Hochschule München – Universitatea de Științe Aplicate din Germania – au analizat 14 modele lingvistice mari (LLM), de la unele simple până la baze de cunoștințe mai complexe, și le-au oferit tuturor aceleași 1.000 de întrebări de referință. Numărul de „tokenuri” generate de fiecare model poate fi tradus în emisii de gaze cu efect de seră.
Pentru a înțelege de ce LLM-urile au un impact atât de mare asupra mediului, este important să analizăm conceptul de tokenuri și parametri. Când scriem un prompt – care poate fi o întrebare ori o instrucțiune – generăm tokenuri, care reprezintă fragmente ale acelui text.
LLM-ul generează apoi și el alte tokenuri în timpul procesării. Modelele cu capacități avansate de raționare generează și mai multe tokenuri. Aceste tokenuri înseamnă procesare (căutare, corelare, analiză), iar procesarea necesită energie. Această energie duce la emisii de CO₂.
Când un LLM este antrenat, el „învață” prin ajustarea parametrilor – niște valori numerice dintr-o rețea neuronală. Acești parametri controlează modul în care modelul prezice un token după altul. Un model cu mai puțini parametri este considerat mai simplu și va genera mai puține tokenuri, dar poate fi mai puțin precis.
Pe de altă parte, un model cu mai mulți parametri are și mai multe „greutăți” – valori care indică importanța anumitor informații – și, în teorie, oferă o precizie mai mare, deși nu este o regulă absolută.
Cum este de așteptat, cele mai complexe și mai precise modele au și cel mai mare consum energetic.
Cercetătorii au analizat 14 modele AI, testându-le cu 1.000 de întrebări standard, și au calculat emisiile de CO₂ în funcție de numărul de „tokenuri” generate – unități de text procesate de AI.
Modelele care folosesc raționament avansat au produs de până la 50 de ori mai multe emisii decât cele care oferă răspunsuri concise. De exemplu, modelul Deepseek R1 70B a emis 2.042 g CO₂ pentru 1.000 de întrebări – echivalentul unei călătorii de 15 km cu mașina. În schimb, modele eficiente energetic, precum Qwen 7B de la Alibaba, au emis sub 30 g CO₂, dar cu o precizie scăzută (31,9%).
Consumul de energie a variat și în funcție de prompt, domenii precum algebra abstractă și filosofia necesitând mai mult raționament decât întrebările mai simple. De asemenea, este important de menționat că acest studiu a analizat doar o parte dintre modelele existente și nu a inclus giganți precum ChatGPT de la OpenAI, Gemini de la Google, Grok de la X sau Claude de la Anthropic.
Potrivit cercetătorilor, un compromis între acuratețe și sustenabilitate poate fi obținut dacă utilizatorii aleg modele mai simple pentru sarcini de bază și limitează utilizarea modelelor de capacitate mare doar la sarcinile care justifică această putere, în timp ce încurajează dezvoltarea unor AI-uri mai eficiente energetic.
C.S.