Elon Musk a făcut din mașinile care „se conduc singure” promisiunea centrală a viitorului Tesla. De ani de zile spune că urmează „marea” revoluție, că FSD va fi rezolvat „la anul” și că Tesla va avea o flotă uriașă de robotaxiuri. În realitate, în 2025, serviciul de robotaxi Tesla funcționează foarte limitat, cu oameni supraveghetori în mașină, iar rivali precum Waymo au mii de vehicule complet autonome în operare.
Pornind de aici, tot mai mulți analiști pun aceeași întrebare ca articolul Electrek: Musk minte deliberat sau este, pur și simplu, rupt de realitate când vine vorba de „Full Self-Driving”?
Promisiunile lui Musk despre FSD și realitatea de pe șosea
Dacă te uiți în urmă, tiparul este clar: aproape în fiecare an din 2018 încoace, Musk a spus că Tesla va rezolva conducerea autonomă „până la final de an” sau „la anul”. Termenele au fost împinse constant, dar mesajul de bază a rămas neschimbat: „suntem foarte aproape”.
Între timp, ceea ce numește Tesla „Full Self-Driving (Supervised)” este, juridic și tehnic, un sistem de asistență de nivel 2: tu trebuie să ții mâinile pe volan, să fii atent în permanență și ești responsabil legal pentru tot ce face mașina. Autoritățile de reglementare din SUA investighează oficial FSD după rapoarte că mașinile au trecut pe roșu sau au intrat pe contrasens, inclusiv într-o anchetă care vizează aproximativ 2,9 milioane de vehicule.
În paralel, Musk ironizează Waymo, spunând că cele 2.500 de mașini complet autonome ale acestora sunt „numere de începător”, deși Tesla are în Austin doar câteva zeci de vehicule în regim de robotaxi și acestea operează în perimetru limitat, cu un angajat în mașină, cu degetul pe butonul de oprire.
Pentru tine, ca șofer sau potențial cumpărător, problema nu este doar că promisiunile sunt optimiste, ci că tonul lor poate crea o impresie falsă: ai tendința să crezi că mașina „se ocupă singură” de drum, când, în realitate, sistemul are nevoie disperată de tine ca plasă de siguranță.
Datele de siguranță, între marketing și realitate
Ca să susțină ideea că FSD este „mai sigur decât un șofer uman”, Tesla publică periodic rapoarte de siguranță cu kilometri parcurși între incidente. La prima vedere, graficele arată spectaculos: milioane de kilometri cu mai puține accidente decât media. Problema este însă modul în care sunt construite aceste statistici, criticat de mai mulți analiști și de publicații precum Electrek.
În rapoartele Tesla intră doar accidentele care declanșează airbaguri sau sisteme de reținere, deci multe tamponări ușoare sunt invizibile. Mai mult, Autopilot și FSD sunt folosite foarte mult pe autostradă, unde, oricum, rata accidentelor este mai mică decât în oraș. Compari astfel mere cu pere: un sistem folosit preponderent pe drumuri sigure cu media națională, care include drumuri urbane aglomerate și șoferi cu mașini foarte vechi.
Mai este și factorul „șoferului tipic Tesla”: venituri mai mari, mașini noi, interes pentru tehnologie – toate acestea corelează, statistic, cu un risc mai mic de accident. Când pui laolaltă aceste biasuri, datele Tesla nu mai sunt o dovadă clară că software-ul este, în sine, mai sigur decât oamenii, ci că FSD plus un șofer vigilent, pe drumuri bune, produce mai puține incidente decât media tuturor șoferilor.
În același timp, NHTSA investighează serios FSD după plângeri că sistemul ar fi trecut pe roșu sau ar fi încălcat marcajele, în cel puțin 58 de incidente, dintre care 14 cu accidente sau incendii și 23 cu răniți. Asta contrazice imaginea de „magie software” perfectă și adaugă presiune asupra discursului foarte optimist al lui Musk.
Minciună, autoamăgire sau strategie de business
Când pui cap la cap promisiunile repetate, realitatea din trafic și anchetele autorităților, ajungi inevitabil la întrebarea incomodă: Musk minte intenționat sau chiar crede, de fiecare dată, că „mai e foarte puțin”?
Cel mai probabil, răspunsul este undeva la mijloc. Mulți observatori cred că Musk are un optimism tehnologic sincer, dus la extrem: vede progresul intern, extrapolează agresiv și subestimează complexitatea lumii reale. Când realitatea îl contrazice, nu își corectează mesajul, ci ridică și mai sus ștacheta retorică, ca să păstreze aura de vizionar și să mențină entuziasmul investitorilor și al fanilor. Electrek descrie foarte direct acest amestec: „un pic delir, un pic disponibilitate de a trece linia și de a induce în eroare”.
Pentru tine, problema nu este diagnosticul psihologic al lui Musk, ci consecințele. Dacă iei de bune declarațiile lui și tratezi FSD ca pe un șofer în loc de un asistent, riști să lași garda jos exact în situațiile în care sistemul se încurcă: intersecții complicate, vreme rea, drumuri neclare.
De aceea, indiferent cât de spectaculos sună promisiunile, cel mai sănătos mod în care poți privi FSD în 2025 este simplu: un pilot automat avansat, nu un șofer. Ții volanul, urmărești drumul, ești pregătit să preiei controlul și îți iei deciziile bazându-te pe manual, pe condițiile reale și pe recomandările autorităților, nu pe tweeturi optimiste.
În timp, presiunea reglementatorilor, a proceselor în instanță și a concurenței (Waymo, Cruise, producătorii chinezi) va obliga probabil Tesla să-și tempereze marketingul și să-și alinieze discursul la realitatea tehnică. Până atunci, singura protecție reală pe care o ai este scepticismul informat: tratezi mașina ta ca pe o mașină cu ajutor digital, nu ca pe un robot șofer, oricât de mult ar insista Elon Musk contrariul.