„superinteligenta”-nu-trebuie-construita-acum:-peste-700-de-oameni-de-stiinta-si-personalitati,-de-la-wozniak-la-printul-harry,-cer-oprirea-dezvoltarii-acesteia

„Superinteligența” nu trebuie construită acum: peste 700 de oameni de știință și personalități, de la Wozniak la prințul Harry, cer oprirea dezvoltării acesteia

Timp de citire: 2 minute

Peste 700 de semnatari, de la cercetători în inteligență artificială la lideri politici și celebrități, au semnat o declarație inițiată de Future of Life Institute (FLI) prin care cer interzicerea dezvoltării unei „superinteligențe” până când există dovezi științifice solide că poate fi construită în siguranță și cu sprijin public. Printre nume: Steve Wozniak, prințul Harry și Meghan, Geoffrey Hinton, Yoshua Bengio, Richard Branson sau Steve Bannon. Declarația a fost publicată pe 22 octombrie 2025.

Ce solicită concret semnatarii și de ce

Textul este scurt și fără ambiguități: ei „cer o interdicție” asupra construirii sistemelor de superinteligență, până la un consens științific privind controlabilitatea și siguranța, dublat de acord public. Mesajul vizează direct marile companii care concurează pentru modele tot mai capabile, precum OpenAI, Google sau Meta. Demersul vine în contextul unor avertismente că depășirea abilităților umane ar putea însemna pierderea controlului, cu riscuri pentru libertăți civile, securitate națională și chiar pentru supraviețuirea umană, notează Reuters.

Max Tegmark, președintele FLI, spune că firmele nu ar trebui să urmărească ținta superinteligenței „fără niciun cadru de reglementare”, subliniind că susținerea dezvoltării unor instrumente de IA utile (de pildă, în medicină) nu este incompatibilă cu respingerea superinteligenței. Un sondaj atașat inițiativei indică faptul că majoritatea americanilor ar prefera o pauză până la dovezi de siguranță — doar o minoritate susține dezvoltarea accelerată.

Argumentele pro și contra unei interdicții

Susținătorii văd „frână de urgență” ca pe o măsură de minimă prudență: progresul ar continua în domenii aplicate (sănătate, educație, productivitate), dar ar fi oprit explicit efortul de a construi sisteme care depășesc omul. În plus, o interdicție temporară ar crea spațiu pentru norme globale și testări standardizate, într-o cursă unde stimulentele comerciale pot încuraja riscuri.

Criticii avertizează însă că un moratoriu total poate frâna inovația și competitivitatea, deplasând cercetarea către jurisdicții mai permisive. În Statele Unite, voci din industrie și mediul politic au susținut că pauzele generale sunt greu de implementat și pot favoriza actorii care nu respectă regulile, deși apelul actual, prin diversitatea semnatarilor, marchează o schimbare a tonului în dezbaterea publică.

Pentru moment, apelul FLI nu are forță obligatorie, dar legitimează o coaliție neobișnuită — de la pionieri ai IA la figuri publice — și pune presiune pentru un cadru internațional cu „linii roșii”. Rămâne de văzut dacă guvernele vor transforma această solicitare într-un proces de reglementare coerent, care să delimiteze clar între IA utilă și proiecte care urmăresc depășirea explicită a capacităților umane.