Elon Musk, Yuval Noah Harari și Steve Wozniak cer o pauză de 6 luni în dezvoltarea Inteligenței Artificiale: Există riscuri profunde pentru omenire

Elon Musk, Yuval Noah Harari și Steve Wozniak cer o pauză de 6 luni în dezvoltarea Inteligenței Artificiale: Există riscuri profunde pentru omenire

Un grup de experți în domeniul tehnologiei, cărora li s-au alăturat mai multe personalități, solicită într-o scrisoare deschisă o pauză de cel puțin șase luni în dezvoltarea unor sisteme de inteligență artificială, întrucât acestea prezintă riscuri majore pentru omenire.

Sute de specialiști din domeniul Inteligenței Artificiale (AI) și al tehnologiei au semnat o scrisoare deschisă, la inițiativa organizației americane Future of Life Institute, cerând laboratoarelor de cercetare AI să oprească dezvoltarea unor sisteme AI mai puternice decât ChatGPT-4 pentru cel puțin șase luni, relatează Business Insider.

Printre semnatari se numără și personalități precum miliardarul Elon Musk, scriitorul Yuval Noah Harari, cofondatorul Apple, Steve Wozniak, co-fondatorul Pinterest, Evan Sharp, și Rachel Bronson, președintele organizației Bulletin of the Atomic Scientists.

ADVERTISING

În scrisoare se arată că sistemele cu inteligență care rivalizează cu cea a oamenilor pot reprezenta amenințări serioase pentru societate și omenire, astfel că e nevoie de o pauză de șase luni pentru dezvoltarea și aplicarea unui set de protocoale care să facă aceste sisteme AI mai precise, transparente și de încredere.

Conținutul integral al scrisorii deschise:

"Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele AI. Așa cum se precizează în Principiile Asilomar AI acceptate pe scară largă, Inteligența Artificială avansată poate reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și controlată cu grijă și cu resurse adecvate.

Din păcate, acest nivel de planificare și control nu are loc, iar în ultimele luni laboratoarele AI s-au avântat într-o cursă scăpată de sub control pentru a dezvolta și implementa și mai multe minți digitale puternice pe care nimeni - nici măcar creatorii lor - nu le pot înțelege, prezice sau controla în mod fiabil.

ADVERTISING
FĂRĂ SCURTĂTURI. Ajungem departe

Sistemele AI devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm: ar trebui să lăsăm mașinile să ne invadeze canalele de informare cu propagandă și neadevăr? Ar trebui să automatizăm toate locurile de muncă, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm minți non-umane care în cele din urmă să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?

Asemenea decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui să fie dezvoltate doar după ce suntem încrezători că efectele lor vor fi pozitive, iar riscurile lor vor fi controlabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența artificială generală arată că "la un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să pregătim sisteme viitoare, iar pentru cele mai avansate eforturi să convenim să limităm rata de creștere a puterii de calcul folosită pentru crearea de noi modele." Suntem de acord. Acum e momentul.

ADVERTISING

Prin urmare, cerem tuturor laboratoarelor AI să întrerupă imediat pentru cel puțin șase luni dezvoltarea sistemelor AI mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a Inteligenței Artificiale care sunt verificate și supravegheate riguros de experți externi independenți.

Aceste protocoale ar trebui să asigure că sistemele care aderă la ele sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai imprevizibile cu capacități emergente.

Cercetarea și dezvoltarea ar trebui să fie reorientate pentru a face sistemele actuale deja puternice mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, de încredere și loiale.

În paralel, dezvoltatorii trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a Inteligenței Artificiale. Acestea ar trebui să includă cel puțin:

  • autorități de reglementare noi și capabile, dedicate AI;
  • supravegherea și urmărirea sistemelor AI de înaltă capacitate și a bazelor cu putere mare de calcul;
  • sisteme de marcaj care să ajute la distingerea între real și artificial și să urmărească scurgerile de modele;
  • un ecosistem solid de auditare și certificare;
  • răspunderea pentru daunele provocate de AI;
  • finanțare publică solidă pentru cercetarea tehnică a siguranței AI;
  • instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care AI le va provoca.

Omenirea se poate bucura de un viitor înfloritor cu AI.

După ce am reușit să creăm sisteme AI puternice, ne putem bucura acum de "o vară AI" în care să culegem roadele, să proiectăm aceste sisteme în beneficiul clar al tuturor și să-i dăm societății șansa de a se adapta.

Societatea a oprit alte tehnologii cu potențiale efecte catastrofale. Putem face asta acum. Să ne bucurăm de o lungă vară AI, dar să nu ne grăbim nepregătiți către toamnă."

T.D.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇