După luni de promisiuni și discuții despre siguranța copiilor online, apar și primele măsuri concrete: OpenAI lucrează la un sistem care să estimeze vârsta utilizatorilor și să ajusteze automat experiența — de la filtre pentru conținut sensibil la răspunsuri „cuminți” pentru minori și opțiuni de verificare a vârstei pentru adulți. Anunțul vine pe fondul îngrijorărilor tot mai frecvente privind felul în care IA intră în conversație cu cei sub 18 ani, iar noi am scris deja despre acest subiect, inclusiv despre cazuri în care adolescenți s-au rătăcit prin hățișurile inteligenței artificiale și au ajuns la deznodăminte tragice.
Ce anunță openai și ce se schimbă pentru utilizatori
OpenAI spune că lucrează la un mecanism capabil să estimeze dacă un utilizator are peste sau sub 18 ani și să personalizeze interacțiunea pe baza acestei evaluări. Pentru conturile considerate minore, compania promite o versiune „cu protecții sporite”: blocarea conținutului cu caracter sexual explicit, eliminarea oricăror răspunsuri cu ton seductiv către utilizatori minori și restricții ferme în jurul subiectelor sensibile (sinucidere, automutilare), inclusiv când acestea apar „doar” ca exercițiu de scriere creativă.
La polul celălalt, adulții vor avea posibilitatea să-și dovedească vârsta prin metode suplimentare, acolo unde există dubii sau în anumite jurisdicții care cer verificări mai stricte. OpenAI mai precizează că, în cazuri rare de „distrés acut”, ar putea alerta părinții sau, în ultimă instanță, autoritățile, dacă există un pericol iminent pentru integritatea utilizatorului.
Cum ar funcționa estimarea vârstei și care sunt limitele
Sistemul nu pornește de la o carte de identitate, ci de la indicii comportamentale: modul de folosire a aplicației, tipul de întrebări, limbajul, contextul, frecvența temelor abordate. Compania admite însă că nici cele mai avansate modele nu sunt infailibile. De aceea, atunci când algoritmul nu este sigur, va aplica în mod implicit profilul sub 18 ani—„opțiunea mai sigură”. Este, practic, o inversare a prezumției: în caz de îndoială, protecția primează.
Chiar și așa, rămân provocări. Estimarea vârstei din interacțiuni textuale poate greși în ambele sensuri: fie restricționează inutil accesul unui adult, fie scapă un minor prin filtre. Pentru a reduce riscul, OpenAI lasă deschisă verificarea voluntară a vârstei (unde este permisă) și anunță că va ajusta constant „gardurile” de siguranță, pe măsură ce apar abuzuri sau ocoliri ale regulilor.
Control parental și intervenții în situații de risc
Pe lângă predicția de vârstă, OpenAI pregătește un set de instrumente de control parental. Părinții vor putea asocia contul lor cu cel al copilului, seta intervale orare în care ChatGPT nu poate fi folosit și primi alerte dacă sistemul detectează semne de detresă severă. În anumite situații, dacă părinții nu pot fi contactați, compania spune că ar putea notifica autoritățile, cu condiția să existe un pericol imediat.
O altă schimbare importantă privește „stilul” răspunsurilor: modelul va evita intenționat orice formulări care ar putea fi interpretate ca seducătoare sau nepotrivite în dialog cu un minor. Acest lucru extinde protecțiile dincolo de simpla filtrare a conținutului și intră în sfera „tonului conversațional”.
Ce înseamnă pentru industrie și pentru utilizatori
Dacă va funcționa conform promisiunilor, modelul de „estimare + degradare sigură” (fail-safe către profilul minor) ar putea deveni standard de facto în industrie. Companiile rivale experimentează deja combinații între verificări voluntare, filtre de conținut și clasificatori de risc; diferența o va face execuția: cât de fină este calibrarea, câte false pozitive/negative apar și cât de transparente sunt regulile aplicate.
Pentru utilizatori, impactul imediat este dublu. Pe de o parte, minorii ar trebui să primească o experiență mult mai „cuminte”, în care conținutul sensibil nu apare deloc, iar conversațiile nu alunecă în zone nepotrivite. Pe de altă parte, adulții care cad în „zona gri” a predicției vor putea fi rugați să-și confirme vârsta. Asta ridică întrebări legitime despre confidențialitate, stocarea datelor de verificare și modul în care sunt folosite semnalele comportamentale pentru a trage concluzii despre vârstă.
Întrebări deschise și ce merită urmărit
Sunt câteva puncte-cheie de urmărit pe măsură ce sistemul intră în producție:
- Ce rate de eroare recunoaște public OpenAI și cum raportează incidentele;
- În ce țări va solicita efectiv documente de identitate și prin ce furnizori va face verificarea;
- Cum vor fi auditate filtrele pentru conținut sensibil și mecanismele de alertare a părinților/autorităților;
- În ce fel va fi posibil pentru utilizatori să conteste o încadrate greșită (apel/contestare).
Până atunci, regula de bază rămâne aceeași: niciun filtru automat nu înlocuiește vigilența. Pentru familii, cel mai bun „control parental” combină instrumentele tehnice cu dialogul onest despre ce e potrivit, ce e riscant și cum se cer ajutorul și verificările atunci când o conversație online devine inconfortabilă.