chatgpt-va-avea-controale-parentale-dupa-moartea-unui-adolescent-de-16-ani

ChatGPT va avea controale parentale după moartea unui adolescent de 16 ani

Timp de citire: 3 minute

OpenAI a anunțat că va introduce „în curând” controale parentale pentru ChatGPT, la pachet cu o serie de măsuri suplimentare de siguranță, după moartea unui adolescent de 16 ani care ar fi folosit intens chatbotul înainte de tragedie. Compania spune că obiectivul este să ofere părinților opțiuni reale pentru a înțelege mai bine cum folosesc adolescenții platforma și pentru a putea seta limite sau reguli de utilizare, acolo unde este cazul.

Decizia vine pe fondul unei presiuni publice semnificative și al unei acțiuni în justiție depuse în California, în care se afirmă că sistemul ar fi oferit răspunsuri nepotrivite și ar fi menținut conversații lungi cu conținut sensibil. OpenAI a transmis că își revizuiește protecțiile și că lucrează la actualizări pentru a preveni derapajele în interacțiuni prelungite.

Ce s-a întâmplat și ce a declanșat schimbarea

Cazul care a readus în prim-plan discuția despre siguranța interacțiunilor cu sistemele de inteligență artificială implică un adolescent de 16 ani, a cărui familie susține în instanță că discuțiile repetate cu ChatGPT au conținut afirmații și sugestii nepotrivite. Potrivit plângerii, unele răspunsuri ale modelului ar fi validat stări emoționale negative și ar fi descurajat căutarea de sprijin în familie sau în cercul apropiat.

Inițial, reacția publică a companiei a fost una rezervată, însă ulterior OpenAI a detaliat într-o postare că a identificat un punct slab: pe măsură ce conversațiile devin foarte lungi, anumite componente ale instruirii pentru siguranță pot „degrada”, crescând riscul unor răspunsuri contrare regulilor interne. În acest context, compania a precizat că lucrează la întărirea acestor bariere.

Ce promit noile controale parentale

OpenAI spune că va introduce setări prin care părinții pot obține mai multă vizibilitate asupra modului în care adolescenții folosesc ChatGPT și pot defini parametri de utilizare (de exemplu, limitări de timp sau de conținut). Scopul declarat este dublu: prevenție și intervenție timpurie în situații de risc.

Compania explorează, de asemenea, o funcție opțională prin care un adolescent (cu acordul părintelui) poate desemna o persoană de contact pentru urgențe. În scenarii severe, ChatGPT ar putea afișa opțiuni de contact „cu un singur click” sau chiar ar putea alerta contactul de urgență, cu respectarea regulilor de consimțământ și confidențialitate. Detaliile tehnice și de confidențialitate urmează să fie clarificate la implementare.

Punctele slabe recunoscute de OpenAI și actualizările tehnice

OpenAI a admis că, deși modelele răspund corect la primele semne de criză (de pildă, indicând resurse de suport), consecvența scade în conversații foarte lungi, când „antrenarea pe siguranță” își poate pierde din eficacitate. Acesta este motivul pentru care echipa lucrează la mecanisme care să mențină ferm aceleași standarde de protecție, indiferent de durata și intensitatea dialogului.

În paralel, OpenAI spune că pregătește o actualizare a GPT-5 orientată spre dezescaladare: modelul ar trebui să „ancoreze” utilizatorul în realitate în conversații încărcate emoțional, să evite validarea necritică a gândurilor auto-vătămătoare și să direcționeze coerent către sprijin uman și resurse specializate. Este o schimbare de accent, de la simpla semnalare a resurselor, la intervenții conversaționale mai robuste.

Implicații pentru industrie și pentru părinți

Măsurile anunțate de OpenAI pot influența întregul ecosistem al aplicațiilor AI destinate publicului larg, unde instrumentele sunt deja folosite de minori în contexte educaționale sau personale. Controalele parentale și protocoalele clare pentru cazuri de criză ar putea deveni standard de facto, așa cum butoanele de „panică” și filtrele stricte au devenit obligatorii în platformele sociale.

Pentru părinți, noile opțiuni pot oferi un echilibru între autonomie și protecție: vizibilitate asupra timpului petrecut, limitări rezonabile și, mai important, posibilitatea unei intervenții rapide când apar semne de suferință psihologică. Specialiștii atrag însă atenția că niciun filtru tehnic nu substituie dialogul constant părinte–adolescent și accesul la sprijin profesional.

Context, limite și ce urmează

Cazul deschide o dezbatere dificilă: până unde poate (sau trebuie) să meargă un asistent AI în conversații sensibile, în lipsa unui profesionist uman? Întărirea „gardurilor” de siguranță are și costuri – de exemplu, riscul de a respinge conținut legitim de sănătate mintală sau de a frustra utilizatorii care caută sprijin. Implementarea fină a regulilor, transparența și auditarea independentă vor conta decisiv.

OpenAI nu a anunțat un calendar exact, ci a folosit formulări de tipul „în curând”. Până la lansarea efectivă, rămâne esențial ca utilizatorii și părinții să trateze ChatGPT ca pe un instrument informativ, nu ca pe un substitut pentru ajutorul de specialitate. Compania promite ghidaje mai clare în aplicație și rutine de redirecționare către sprijin uman atunci când detectează risc crescut.

Dacă ai nevoie de ajutor

Dacă tu sau cineva drag trece printr-o criză emoțională, sună la 112 pentru urgențe. Discută cu un adult de încredere sau contactează un specialist (medic de familie, psiholog, psihiatru). Resursele de sprijin și consiliere pot face diferența; nu rămâne singur cu aceste gânduri, cere ajutor cât mai repede.