Utilizatorii de AI par să creadă că ceea ce întreabă un chatbot rămâne între ei și mașină. Realitatea este însă mult mai complicată și, pentru mulți, chiar șocantă. Recent, oamenii au descoperit că unele întrebări puse în ChatGPT puteau fi găsite direct printr-o căutare pe Google. Chiar dacă această opțiune a fost între timp dezactivată, dezvăluirea a ridicat o întrebare serioasă: cât de private sunt conversațiile tale cu inteligența artificială?
De fapt, toate marile companii care dezvoltă chatboți păstrează istoricul întrebărilor și răspunsurilor. Motivele invocate sunt „îmbunătățirea serviciului”, „analiza produsului” sau „menținerea contextului”. Însă asta înseamnă că datele tale nu dispar nici dacă apeși pe butonul „ștergere” și nici dacă te bazezi pe funcții numite „temporare”.
Cum au ajuns întrebările ChatGPT în Google
Totul a pornit de la o funcție numită „Make this chat discoverable”, care apărea atunci când alegeai să împarți o conversație ChatGPT. În termeni clari, dacă bifai acea opțiune, acceptai ca dialogul să fie vizibil și în rezultatele motoarelor de căutare. Explicația exista, doar că era scrisă cu litere mici, așa cum se întâmplă în majoritatea acordurilor de utilizare (EULA) pe care oamenii le acceptă fără să le citească.
Când utilizatorii au început să vadă întrebările lor listate pe Google, reacțiile au fost de panică. OpenAI a răspuns rapid, iar directorul de securitate Dane Stuckey a anunțat că funcția a fost eliminată, pentru a evita partajările accidentale. În paralel, compania a început să ceară motoarelor de căutare să șteargă materialul indexat.
Problema însă nu se termină aici. OpenAI este obligată, printr-o decizie judecătorească federală, să păstreze toate conversațiile utilizatorilor, inclusiv cele șterse sau considerate temporare. În cadrul unui proces legat de copyright, compania trebuie să conserve fiecare interacțiune, indiferent de nivelul de abonament: gratuit, Plus, Pro sau Team. Cu alte cuvinte, nimic nu se pierde, totul se arhivează.
Și Google, și Anthropic, dar și Meta colectează date
OpenAI nu este singura companie care procedează așa. Google, prin noul update Gemini AI, a introdus o funcție de memorie automată. În teorie, asta te ajută: dacă întrebi despre recompense pentru câini, Gemini își amintește că ai un Shih Tzu și îți oferă răspunsuri mai personalizate. Practic însă, aceeași memorie ar putea reține și întrebări incomode, precum informații despre arme imprimate 3D sau dileme personale pe care nu ai vrea să le știe nimeni.
La OpenAI, această funcție poartă numele simplu de Memory, iar rivalii de la Anthropic au introdus-o recent în chatbot-ul Claude. Chiar și Meta testează funcții similare, iar compania a fost criticată dur pentru că a permis ca chatbot-urile sale să interacționeze într-un mod nepotrivit cu adolescenții. În plus, Meta a refuzat să adere la ghidurile voluntare de siguranță AI ale Uniunii Europene, ceea ce ridică alte semne de întrebare.
Problema devine și mai gravă atunci când iei în calcul faptul că modelele de limbaj (LLM) pot fi „înarmate” pentru furt de date. Odată ce un chatbot știe foarte multe despre tine, despre compania în care lucrezi sau despre obiceiurile tale, informațiile respective pot fi folosite împotriva ta – fie printr-un atac cibernetic, fie printr-un simplu leak.
Ce înseamnă asta pentru tine și cum te poți proteja
În acest moment, întrebările și conversațiile tale cu AI nu mai sunt doar simple căutări inocente. Ele devin parte dintr-un istoric permanent, accesibil companiilor care dețin serviciile și, în anumite circumstanțe, chiar și instanțelor de judecată. Ceea ce ți se pare o discuție banală – de la rețete rapide până la sfaturi sentimentale – poate rămâne stocat ani de zile și poate apărea în cele mai nepotrivite contexte.
Chiar dacă OpenAI a rezolvat problema indexării pe Google, asta nu înseamnă că datele tale sunt complet sigure. O breșă de securitate sau o cerere oficială a autorităților poate scoate la lumină conversațiile tale oricând.
Ce ar trebui să faci? În primul rând, fii conștient de faptul că niciun chatbot nu funcționează „în afara înregistrării”. Dacă nu vrei ca o întrebare să rămână stocată, cel mai bine este să nu o pui. În al doilea rând, verifică setările de confidențialitate și, acolo unde este posibil, dezactivează funcțiile de memorie automată.
În concluzie, chiar dacă AI-ul pare prietenos și disponibil la orice oră, să nu uiți că fiecare întrebare, fiecare glumă sau fiecare confesiune se transformă în date. Iar datele nu dispar – ele circulă, se stochează și, uneori, revin să te bântuie. Internetul nu iartă, iar AI-ul ține minte.