openai,-prinsa-in-mijlocul-controversei-sora:-de-la-„revolutia-video”-la-scandalul-legat-de-drepturile-de-autor-si-continutul-ofensator

OpenAI, prinsă în mijlocul controversei Sora: de la „revoluția video” la scandalul legat de drepturile de autor și conținutul ofensator

Timp de citire: 3 minute

Lansarea aplicației Sora, cea mai nouă creație a companiei OpenAI, a fost însoțită de un entuziasm uriaș – dar și de o avalanșă de controverse. Deși promitea să inaugureze o nouă eră a videoclipurilor generate de inteligență artificială, platforma a declanșat o dezbatere globală privind drepturile de autor, etica digitală și riscurile dezinformării.

În doar câteva zile de la debut, Sora a fost folosită pentru a crea mii de videoclipuri virale, multe dintre ele cu personaje fictive sau celebrități puse în situații absurde ori ofensatoare. În consecință, CEO-ul OpenAI, Sam Altman, a fost nevoit să anunțe o schimbare radicală de politică, recunoscând că echipa „nu s-a așteptat la o asemenea reacție” din partea publicului.

Sora a fost prezentată ca o aplicație de tip „TikTok pentru conținut AI”, permițând utilizatorilor să genereze videoclipuri de 10 secunde, complet cu sunet, folosind doar o instrucțiune text. Ideea era simplă: poți crea un clip cu orice scenă imaginabilă – de la o furtună pe Marte până la un dialog fictiv între doi politicieni – și chiar să incluzi o versiune digitală a propriei persoane, numită „cameo”.

Totuși, la scurt timp după lansare, feedul aplicației a fost inundat cu clipuri controversate, de la un „Nazi SpongeBob” la un „Pikachu criminal” sau versiuni parodice ale lui Rick and Morty. Multe dintre aceste creații au încălcat drepturi de autor sau au depășit limitele bunului gust, stârnind critici atât din partea companiilor media, cât și a utilizatorilor.

Inițial, OpenAI adoptase o politică de tip opt-out, prin care deținătorii de drepturi trebuiau să solicite explicit eliminarea personajelor sau mărcilor lor din aplicație. După scandal, Sam Altman a anunțat că regula va fi inversată: „Vom permite titularilor de drepturi să decidă cum vor să procedeze. Am ascultat comunitatea și înțelegem acum că trebuie oferit mai mult control creatorilor.”

Altman a recunoscut că echipa nu a anticipat reacția emoțională a publicului: „Teoria despre cum vor percepe oamenii aplicația a fost una, dar realitatea a fost complet diferită. Imaginile și videoclipurile au un impact mult mai intens decât textul – și n-am fost pregătiți pentru asta.”

Utilizatorii nu vor doar libertate, ci și protecție

În timp ce unii s-au grăbit să experimenteze cu noile funcții, alții au reacționat dur, semnalând riscurile uriașe ale platformei. Numeroși utilizatori au descoperit că pot manipula textul de comandă pentru a genera personaje reale sau semireale, în ciuda restricțiilor declarate. Astfel au apărut videoclipuri „aproape identice” cu persoane reale, folosite în contexte indecente, politice sau chiar amenințătoare.

Pentru a limita daunele, OpenAI a introdus un sistem prin care utilizatorii pot impune restricții personalizate pentru „cameo-urile” lor digitale. Concret, oamenii pot scrie instrucțiuni de tipul „nu mă pune în videoclipuri politice” sau „nu folosi cuvântul X”, iar AI-ul ar trebui să le respecte.

Bill Peebles, șeful diviziei Sora, a declarat că „mulți utilizatori vor ca imaginea lor să fie publică, dar vor să aibă control asupra modului în care e folosită”. În paralel, echipa lucrează la o marcare mai vizibilă a conținutului generat de AI, după ce watermark-ul inițial s-a dovedit ușor de șters. Tutoriale online arată deja cum poate fi eliminată eticheta care identifică un videoclip ca fiind artificial, ceea ce alimentează temerile privind o posibilă criză de dezinformare digitală.

În ciuda criticilor, Altman a insistat că OpenAI „ține la drepturile de autor și la siguranța utilizatorilor” și că Sora va include treptat mai multe filtre, limitări și verificări. „Vom vedea o mulțime de conținuturi disponibile, dar cu restricții clare privind ce pot face și ce nu pot face creatorii”, a adăugat el.

Între inovație și haos: dilema morală a AI-ului vizual

Lansarea Sora 2, versiunea următoare a aplicației, este deja în pregătire și va fi inclusă în API-ul OpenAI, oferind dezvoltatorilor posibilitatea de a genera videoclipuri ultra-realiste pentru propriile proiecte – fără watermark și, aparent, fără restricțiile actuale. Această decizie a ridicat noi semne de întrebare privind protecția împotriva deepfake-urilor.

Deși Altman a respins ideea că OpenAI urmează modelul „move fast and break things” promovat cândva de Facebook, situația Sora demonstrează cât de greu este de menținut echilibrul între inovație tehnologică și responsabilitate socială.

Criticii avertizează că, în absența unor reguli clare, Sora ar putea deveni un teren fertil pentru abuzuri – de la propagandă politică până la pornografie generată cu fețele unor persoane reale. „Există deja un val de conținut fals care afectează minorități și persoane vulnerabile. De aceea, viteza lansării acestor tehnologii ar trebui dublată de o etică solidă”, comentează experți citați de The Verge.

Între timp, OpenAI continuă să extindă infrastructura tehnologică prin proiectul Stargate, o colaborare cu SoftBank și Oracle, evaluată la până la 500 de miliarde de dolari, destinată construirii unor centre de date uriașe în SUA.

Pentru Altman, însă, toate aceste „accidente de început” reprezintă, paradoxal, o oportunitate: „Trebuie ca lumea să vadă ce se întâmplă atunci când putem genera videoclipuri aproape indistincte de realitate. Doar așa putem învăța să ne adaptăm.”

Dar dacă reacția la Sora este un indiciu, omenirea s-ar putea confrunta cu una dintre cele mai dificile lecții ale erei digitale: cine controlează realitatea atunci când oricine o poate recrea?