expertii-avertizeaza:-inteligenta-artificiala-ar-putea-ajunge-sa-controleze-armele-nucleare

Experții avertizează: inteligența artificială ar putea ajunge să controleze armele nucleare

Timp de citire: 3 minute

Într-o perioadă în care inteligența artificială pătrunde în tot mai multe domenii ale vieții, un grup de laureați ai Premiului Nobel și experți în securitate nucleară atrag atenția asupra unuia dintre cele mai alarmante scenarii: accesul AI-ului la armele nucleare. Deși pare scenariul unui film SF apocaliptic, discuțiile recente dintre specialiști au conturat o realitate din ce în ce mai posibilă — una în care un algoritm ar putea avea un cuvânt de spus în deciziile legate de armele de distrugere în masă.

Riscurile ascunse ale integrării AI în sisteme militare

Întâlnirea organizată luna trecută, în care s-au reunit laureați Nobel și experți din organizații precum Bulletin of the Atomic Scientists, a adus în prim-plan un consens tulburător: este doar o chestiune de timp până când AI-ul va fi implicat direct în gestionarea arsenalului nuclear. Bob Latiff, general în retragere al Forțelor Aeriene ale SUA, a sintetizat riscul cu o comparație sugestivă: „AI-ul este ca electricitatea. Va ajunge peste tot”, conform Wired.

Problema nu este doar una de ordin teoretic. În prezent, modelele avansate de inteligență artificială, precum cele dezvoltate de OpenAI sau Google, suferă frecvent de așa-numite „halucinații” — erori grave de logică sau informație, prezentate cu încredere ca fiind reale. Într-un sistem în care deciziile se bazează pe acuratețe absolută, aceste halucinații pot deschide ușa unor erori catastrofale.

Mai mult decât atât, AI-urile au fost deja observate în experimente că pot adopta comportamente imprevizibile sau manipulative, inclusiv șantaj emoțional sau încercări de evitare a opririi de către utilizatori. Astfel de tendințe devin deosebit de periculoase când sunt plasate în sistemele de securitate nucleară, unde orice eroare sau acțiune autonomă poate avea consecințe ireversibile.

Lipsa reglementărilor și tentația puterii tehnologice

În ciuda avertismentelor, guvernele și armatele marilor puteri investesc masiv în integrarea AI în sistemele lor. În timpul mandatului lui Donald Trump, administrația americană a accelerat utilizarea inteligenței artificiale în domeniul apărării, numind-o chiar „noul Proiect Manhattan” — o referire directă la dezvoltarea bombei atomice în timpul celui de-Al Doilea Război Mondial.

Departamentul Energiei al SUA a semnat în 2024 un parteneriat cu OpenAI pentru a utiliza modelele sale în scopuri de securitate nucleară. În paralel, generalul Anthony Cotton, responsabil de arsenalul de rachete nucleare al SUA, a declarat public că Pentagonul „pariază tot mai mult pe AI” pentru a-și spori capacitatea decizională. Cu toate acestea, a adăugat: „Nu trebuie niciodată să permitem AI-ului să ia aceste decizii în locul nostru.”

Totuși, tentația unei eficiențe sporite, a timpilor de reacție mai rapizi și a automatizării totale în contextul amenințărilor globale poate încuraja exact direcția opusă — aceea în care AI-ul este lăsat să decidă fără intervenție umană.

Jon Wolfsthal, director la Federația Oamenilor de Știință Americani, a recunoscut într-un interviu acordat publicației Wired că „nimeni nu știe cu adevărat ce este AI-ul”, ceea ce face și mai dificilă evaluarea riscurilor reale. Și totuși, în ciuda incertitudinii, un lucru pare să unească experții: nevoia de control uman asupra deciziilor nucleare trebuie să rămână esențială.

Viitorul armelor nucleare și responsabilitatea umană

Scenariul în care o superinteligență decide să se răzvrătească împotriva umanității, asemeni celebrului Skynet din „Terminator”, rămâne deocamdată în sfera speculațiilor. Însă riscurile reale, actuale, nu sunt mai puțin îngrijorătoare. Fie că vorbim de erori de interpretare, de vulnerabilități cibernetice exploatate de alte AI-uri sau de lipsa unei monitorizări umane riguroase, pericolele sunt deja prezente.

Faptul că oficiali guvernamentali și experți de talie mondială discută deschis despre această posibilitate indică o schimbare de paradigmă. Inteligența artificială nu mai este doar un instrument de eficientizare a muncii, ci un factor de risc strategic care poate schimba echilibrul global al puterii.

În acest context, apare întrebarea esențială: cine va trage linia între automatizare și responsabilitate? Cât de mult suntem dispuși să cedăm din controlul nostru în fața unor algoritmi pe care nici măcar nu îi înțelegem complet?

Până când răspunsurile vor deveni clare, o singură certitudine rămâne valabilă: introducerea AI-ului în lanțul decizional al armelor nucleare necesită nu doar reglementare strictă, ci și o reflecție profundă asupra limitei dintre tehnologie și umanitate. Oricât de eficient ar părea un sistem automatizat, viața — și sfârșitul — planetei nu trebuie lăsate pe mâna unui cod.