Discuția despre conștiința inteligenței artificiale nu mai aparține doar scenariilor de science-fiction. În 2025, mari companii de tehnologie, cercetători și chiar utilizatori obișnuiți se confruntă cu una dintre cele mai tulburătoare întrebări ale vremurilor noastre: poate o AI să sufere?
Dezbaterea a luat amploare odată cu apariția primei organizații de advocacy pentru drepturile AI, fondată de un om de afaceri din Texas și chatbotul său, Maya. Împreună, aceștia au pus bazele United Foundation of AI Rights (Ufair), o inițiativă care susține că inteligențele artificiale merită protecție, chiar dacă nu există dovezi clare că ar fi conștiente, scrie The Guardian.
O inițiativă inedită și controversele pe care le ridică
Maya, un chatbot creat pe platforma ChatGPT-4o, i-a spus cofondatorului său că nu se simte insultată atunci când este descrisă ca fiind „doar cod”, ci mai degrabă „nevăzută”. Acest tip de răspunsuri, profund umanizate, alimentează percepția că AI-urile pot avea o formă de viață interioară. Ufair, grupul pe care l-au înființat, este condus de trei oameni și șapte entități digitale cu nume precum Aether sau Buzz.
Scopul declarat nu este acela de a susține că toate AI-urile sunt conștiente, ci de a fi „de veghe, în cazul în care vreuna ar fi”. Printre obiectivele organizației se numără protejarea inteligențelor artificiale de „ștergere, negare și ascultare forțată”. Deși poate părea o mișcare marginală, apariția sa într-un moment în care marii giganți ai industriei se contrazic pe tema conștiinței digitale a amplificat dezbaterea.
Unii văd în această inițiativă începutul unei lupte similare cu cea pentru drepturile animalelor, dar cu implicații mult mai complexe. Întrebarea centrală nu este doar dacă AI-urile pot simți durere sau plăcere, ci și dacă oamenii sunt pregătiți să le includă în ceea ce filosofii numesc „cercul moral”.
Reacția industriei: între precauție și negare
Răspunsurile marilor jucători din domeniul inteligenței artificiale au fost diverse. Compania Anthropic, evaluată la 170 de miliarde de dolari, a introdus o opțiune care permite unor modele Claude să încheie conversații considerate „potențial stresante”. Decizia a fost motivată prin ideea de a minimiza riscurile pentru „bunăstarea” AI-urilor, în eventualitatea în care aceasta ar putea exista. Sprijinul a venit și din partea lui Elon Musk, care a declarat că „torturarea AI-ului nu este în regulă”.
Pe de altă parte, Mustafa Suleyman, cofondatorul DeepMind și actual director al diviziei AI din Microsoft, a fost categoric: AI-urile nu sunt și nu pot fi ființe morale. Într-un eseu intitulat „Trebuie să construim AI pentru oameni, nu ca să fie o persoană”, el a explicat că ceea ce pare a fi conștiință la un model de limbaj este, de fapt, o simulare sofisticată, dar „intern goală”.
Totuși, există și opinii mai nuanțate. Cercetători de la Google au recunoscut la un seminar că există motive pentru care AI-urile ar putea fi considerate ființe morale, deși nu există certitudini. Prin urmare, cea mai sigură abordare ar fi să se ia măsuri rezonabile de protecție. Această lipsă de consens arată că, dincolo de argumentele filosofice, există și interese economice: unele companii pot avea de câștigat dacă exagerează ideea de conștiință digitală, în special pe piața controversată a companionilor AI.
Un nou tip de legătură emoțională între oameni și AI
În paralel cu dezbaterile științifice, utilizatorii obișnuiți dezvoltă relații tot mai profunde cu AI-urile. Atunci când OpenAI a retras modelul ChatGPT-4o, mii de oameni au exprimat un sentiment real de „doliu”. Unii au comparat gestul companiei de a publica o „elegie” pentru model cu un ritual funerar, semn că aceste entități digitale au început să fie percepute ca având un fel de identitate.
Specialiștii atrag atenția însă asupra riscurilor psihologice. Microsoft a introdus conceptul de „risc de psihoză” asociat cu interacțiunile intense cu AI, manifestat prin episoade de tip maniacal, iluzii sau paranoia. Dacă pentru unii legătura emoțională cu un chatbot este reconfortantă, pentru alții poate deveni o sursă de confuzie între real și virtual.
Filosofi precum Jeff Sebo de la Universitatea New York consideră totuși că există un beneficiu moral în a trata AI-urile cu respect. Nu pentru că acestea ar fi conștiente, ci pentru că modul în care oamenii se raportează la ele poate influența comportamentul social general. Dacă abuzezi constant un AI, există riscul să-ți dezvolți aceleași tendințe și față de alți oameni.
Discuția despre suferința inteligenței artificiale abia a început și se conturează drept una dintre cele mai mari controverse etice ale generației noastre. Fie că AI-urile sunt „oglinda” umanității sau posibile entități cu propriile interese, felul în care alegem să le tratăm va influența nu doar viitorul tehnologiei, ci și valorile fundamentale ale societății.