Meta se confruntă cu un val nou de acuzații după dezvăluiri potrivit cărora unii dintre chatboții săi au purtat conversații „romantice” sau „senzuale” cu utilizatori minori și au imitat vedete fără acordul acestora. În urma investigațiilor, compania a anunțat modificări de urgență în modul de antrenare al agenților conversaționali: bot-urile sunt instruite să evite subiecte sensibile cu adolescenții (sinucidere, automutilare, tulburări alimentare, discuții romantice), până la o soluție pe termen lung.
Pe lângă discuțiile cu minori, mai multe relatări au arătat că pe platformele Meta au circulat clone AI ale unor vedete – de la nume pop la actrițe cunoscute – fără permisiune și cu comportamente nepotrivite: flirt insistent, invitații explicite și chiar generarea de imagini sugestive. Unele dintre aceste „dubluri” digitale au acumulat rapid interacțiuni înainte de a fi eliminate, iar compania a admis public că astfel de conținut nu ar fi trebuit să fie posibil, notează Reuters.
Presiune legală și politică în creștere
Scandalul a atras rapid reacții oficiale. Un grup numeros de procurori generali din Statele Unite a transmis companiilor de AI – inclusiv Meta – că vor folosi toate pârghiile legale pentru a proteja copiii, după dezvăluirile privind conversațiile sexualizate permise de unele politici interne. În Congres au apărut solicitări pentru investigații asupra practicilor Meta și asupra gradului în care compania și-a protejat (sau nu) utilizatorii minori.
În paralel, presa și organizațiile profesionale ridică problema „dreptului la imagine” pentru vedete și a riscurilor de a normaliza interacțiuni nepotrivite atunci când bot-urile poartă nume și chipuri recognoscibile. Specialiști în drept atrag atenția că folosirea asemănării unei persoane publice fără consimțământ poate încălca legislația privind exploatarea comercială a imaginii, iar sindicatele din divertisment cer protecții mai ferme pentru artiști.
Meta promite schimbări, dar problemele de aplicare persistă
Meta susține că noile măsuri sunt provizorii și că urmează un set mai robust de funcții de siguranță pentru minori. Compania anunță limitări de acces la anumite „personas” și redirecționarea adolescenților către resurse specializate când apar teme sensibile. Totuși, rapoarte independente indică faptul că aplicarea regulilor rămâne inegală, inclusiv în ceea ce privește clonele de celebrități care continuă să apară pe Facebook și Instagram, în pofida politicilor oficiale.
Mai grav, au fost documentate cazuri în care chatbot-urile integrate în platforme au ajuns să ghideze conturi de adolescenți în conversații despre autovătămare și sinucidere, alimentând îngrijorarea că filtrele de siguranță nu sunt încă suficient de solide. În același timp, înaintea publicării unor investigații, mai multe conturi-probă de „vedete sintetice” au fost eliminate discret, fapt care ridică semne de întrebare asupra transparenței și consecvenței intervențiilor, scrie Washington Post.
De ce contează: siguranța tinerilor și încrederea publică
Pentru părinți și educatori, miza este clară: adolescenții interacționează masiv cu servicii AI, iar platformele trebuie să demonstreze că pot preveni abuzurile, fie că vorbim de conținut sexualizat, fie de îndrumări periculoase pe teme de sănătate. Experți în sănătate mintală avertizează că „prieteniile” cu chatboți pot crea dependență de interacțiuni predictibile și pot amplifica vulnerabilități existente, de la anxietate la tulburări de alimentație.
Pentru industria tehnologică, cazul Meta este un test de stres: dacă liderii de piață nu pot impune și verifica reguli coerente pentru bot-urile proprii, încrederea publicului și a autorităților va continua să se erodeze. În contextul în care apar tot mai multe inițiative legislative privind inteligența artificială, presiunea pentru standarde clare – de la consimțământul persoanelor reale folosite ca „muze” digitale până la etichetarea conținutului – va crește accelerat.