Ediția: Sâmbătă 21 Decembrie 2024. Nr 6784
Ediția: Sâmbătă 21 Decembrie 2024. Nr 6784

Yoshua Bengio: Omenirea se va confrunta cu un viitor ”catastrofal” dacă nu reglementează strict AI-ul

Dacă inteligenţa artificială şi companiile care o dezvoltă nu vor fi strict reglementate şi controlate, omenirea se va confrunta cu un viitor „catastrofal”, avertizează Yoshua Bengio, unul dintre pionierii sistemelor AI, într-un interviu oferit Live Science. Yoshua Bengio este unul dintre cei mai citaţi cercetători specializaţi în AI, fiind considerat drept unul dintre „naşii” inteligenţei artificiale. El a desfăşurat o activitate de pionierat în dezvoltarea reţelelor neuronale şi a algoritmilor de învăţare profundă structurată, alături de Yann LeCun, şeful departamentului de cercetare AI al Meta şi de fostul cercetător AI al Google Geoffrey Hinton. Cei trei au primit în 2018 Premiul Turing (considerat Nobelul IT-ştilor) pentru contribuţia lor importantă în domeniu. În prezent Yoshua Bengio este preşedintele comitetului consultativ în probleme de AI „International Scientific Report on the Safety of Advanced AI”, un comitet susţinut de 30 de ţări, de UE şi de ONU.

          Bengio se declară îngrijorat de ritmul de dezvoltare şi de răspândirea accelerată a acestei tehnologii. El consideră că inteligenţa artificială are potenţialul de a distruge structura societăţii umane, prezentând riscuri uriaşe pentru omenire, unele dintre ele încă nebănuite. În interviul acordat Live Science Yoshua Bengio mărturiseşte că este dificil să militeze împotriva propriului domeniu de activitate şi de expertiză dar precizează că posibilitatea rezultatelor catastrofale pentru omenire, atunci când AI-ul va ajunge la un anumit nivel, este imposibil de ignorat. Nu în ultimul rând, cercetătorul a mărturisit că s-a gândit la copiii săi şi la viitorul lor.

          „Una dintre analogiile pe care le folosesc foarte mult este cea a întregii omeniri care conduce pe un drum necunoscut şi în faţa sa este un perete de ceaţă. Ne îndreptăm spre acea ceaţă şi am putea fi pe un drum de munte şi în faţa noastră s-ar putea afla o trecătoare foarte periculoasă pe care nu o putem vedea suficient de limpede. Deci ce putem face? Continuăm să mergem cu viteză şi să sperăm că totul va fi bine, sau încercăm să venim cu nişte soluţii tehnologice? Soluţia politică ne spune să aplicăm principiul precauţiei: trebuie să încetinim dacă nu suntem siguri. Soluţia tehnică spune că trebuie să găsim modalităţi să vedem prin ceaţă şi poate să echipăm vehiculul cu dispozitive de protecţie”, a susţinut el.

          Cercetătorul a precizat că riscurile legate de utilizarea şi dezvoltarea AI nu ţin de fantezia unui scenarist SF, ci sunt cât se poate de concrete chiar şi în prezent. „Am văzut deja sistemele AI folosite în campania electorală americană (…) Există un studiu recent care a arătat că ChatGPT-4 este mult mai persuasiv decât pot fi oamenii, iar noua versiune va fi şi mai şi”, a susţinut el.

          „Există şi teste care arată modul în care aceste sisteme pot ajuta teroriştii. Recentul ChatGPT o1 a adus o modificare a acestui risc de la nivelul scăzut la cel mediu (…) Apoi, când vom ajunge cu AI-ul la nivelul de superinteligenţă apar două riscuri majore. Primul este pierderea controlului uman, iar dacă maşinile superinteligente vor avea un obiectiv de autoconservare, atunci scopul lor ar putea fi să distrugă omenirea pentru ca să nu le putem opri (…) Celălalt pericol, dacă primul nu se concretizează, este ca oameni să folosească puterea AI pentru a obţine controlul asupra întregii omeniri într-o dictatură planetară”, a mai susţinut el, adăugând că această tehnologie are potenţialul să ofere o putere fără precedent celui care o controlează.

          Întrebat despre reglementările UE cu privire la AI şi cu privire la ordinul executiv semnat de preşedintele Joe Biden în acelaşi domeniu, Bengio a răspuns că aceste reglementări reprezintă paşi în direcţia cea bună dar nu au suficient impact pentru că nu obligă companiile să publice rezultatele testelor pe care le fac cu sistemele AI şi nici măcar să testeze aceste sisteme. „Companiile ar trebui să aibă planuri de siguranţă, să dezvăluie rezultatele testelor pe care le desfăşoară” şi să poată fi date în judecată dacă ignoră elemente de siguranţă publică, a mai precizat el.

          Publicaţia The Guardian a raportat recent că marile centre de date ale Google, Apple, Meta şi Microsoft consumă extrem de multă energie şi produc emisii probabil cu 662% mai mari decât recunosc companiile respective, menţionează Live Science. Bloomberg a raportat că marile centre de date AI au declanşat o renaştere a infrastructurii combustibililor fosili pe teritoriul SUA.

          Această situaţie va duce, conform lui Yoshua Bengio la o creştere fără precedent a costurilor energiei electrice. „Dacă ne uităm la date, cantitatea de energie electrică necesară pentru antrenarea marilor modele AI creşte exponenţial în fiecare an. Acest lucru se întâmplă pentru că cercetătorii au descoperit că aceste modele cu cât sunt mai mari, cu atât sunt mai inteligente şi implicit produc mai mulţi bani. Chestiunea importantă aici este că valoarea economică a acestei inteligenţe va fi atât de ridicată, încât un cost al energiei de 10 ori mai mare nu va reprezenta o problemă pentru cei implicaţi în cursă. Iar în ultimă instanţa asta înseamnă că noi toţi vom plăti mai mult pentru energie”, a explicat el.

          Întrebat despre posibilitatea ca maşinile să ajungă la aşa-numita „inteligenţă artificială generală” (AGI), noţiune controversată socotită chiar „neştiinţifică” de către unii cercetători din domeniu, Yoshua Bengio a răspuns că discuţiile despre capacităţile ce pot fi atinse în anumite domenii „nu sunt neştiinţifice”. „Lucrurile devin din ce în ce mai nesigure atunci când întrebăm ce reprezintă totul (în ceea ce priveşte AGI). Însă cred că este o întrebare greşită. Întrebarea mea este, în cazul maşinilor care sunt suficient de inteligente pentru a dezvolta capacităţi specifice, ce le-ar putea face să fie periculoase pentru noi? Ar putea fi folosite pentru atacuri cibernetice? Conceperea de arme biologice? Convingerea oamenilor să facă anumite lucruri? Vor dispune ele de capacitatea de a se copia în alte maşini sau pe internet în pofida dorinţei creatorilor lor?”.

          Toate aceste posibilităţi sunt nefaste pentru umanitate şi chiar şi sistemele AI care dispun doar de variante limitate ale acestor capabilităţi sunt foarte periculoase, conform lui Yoshua Bengio. Expertul în AI a menţionat şi rolul grupurilor de lobby care susţin interesele unor oameni puţini dar extrem de puternici şi de bogaţi din industria AI şi care nu doresc ca publicul larg să ştie ce pot face cu inteligenţa artificială. „Unul dintre argumentele lor este că (reglementările n.r.) vor încetini procesul de inovaţie. Dar de ce trebuie să fie o cursă să transformă lumea cât mai repede cu putinţă? Nu, doar vrem o lume mai bună. Dacă acest lucru înseamnă să facem paşii necesari pentru a proteja publicul, aşa cum am făcut în numeroase alte sectoare, nu este un raţionament bun. Nu este ca şi când am stopa inovaţia pentru că ne putem îndrepta eforturile în direcţii precum construirea instrumentelor necesare care vor ajuta economia în ansamblu şi vor asigura bunăstarea oamenilor. Aşa că este un argument fals”, a concluzionat el.

Sursa foto: https://www.theglobeandmail.com/

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

You cannot copy content of this page

× Ai o stire interesanta?