Tesla, în atenția autorităților: Sistemul Full Self-Driving, pus sub semnul întrebării de noi incidente
Un nou incident în care un autovehicul Tesla echipat cu sistemul Full Self-Driving (FSD) a încercat să pătrundă într-un lac, a reaprins controversele legate de siguranța și funcționarea tehnologiei. Clipul video cu pricina, distribuit pe rețelele sociale, a generat reacții puternice, amplificând presiunea asupra companiei într-o perioadă în care aceasta este deja supusă unor investigații oficiale.
La suprafață, imaginea unei mașini care ignoră o barieră rutieră pentru a vira spre o apă este doar un alt exemplu al „greșelilor” FSD. Cu toate acestea, dincolo de aparențe, acest incident ridică semne serioase de întrebare asupra capacității sistemului de a interpreta corect mediul înconjurător. „Când o mașină confundă un traseu rutier valid cu o rampă spre lac, nu mai vorbim despre un mic compromis de confort, ci despre o eroare de interpretare a mediului care ridică întrebări serioase despre robustețea software-ului”, se arată în analiza cazului.
Problemele sistemului, mai grave decât simple erori
Așa cum subliniază publicațiile de specialitate, problema Tesla nu este doar că sistemul poate greși, ci că unele greșeli sunt de natură greu de acceptat pentru o tehnologie prezentată drept vârful de lance în domeniul conducerii autonome. Incidentul cu lacul nu este o excepție, fiind asociat cu alte evenimente grave documentate în ultimii ani. Acestea includ treceri pe culoarea roșie, ieșiri de pe carosabil sau schimbări de bandă în mod necorespunzător.
În același timp, compania a investit masiv în prezentarea unei imagini de progres continuu, bazată pe actualizări software frecvente și rețele neuronale avansate. În ciuda acestui fapt, incidentul cu lacul demonstrează că îmbunătățirea anumitor module nu elimină în mod automat vulnerabilitățile în fața unor situații elementare de orientare rutieră. De aici rezultă un paradox: sistemul impresionează în multe scenarii obișnuite, dar poate produce erori fundamentale în momente critice, numite de specialiști „edge cases”.
NHTSA investighează, reputația Tesla are de suferit
Reacția autorităților nu a întârziat să apară. În octombrie 2025, Administrația Națională pentru Siguranța Traficului pe Autostrăzi (NHTSA) din Statele Unite a demarat o investigație amplă, vizând aproximativ 2,88 milioane de vehicule Tesla echipate cu FSD. Ancheta vizează, în special, corelarea a 58 de incidente cu funcționarea sistemului. Acestea au inclus 14 accidente și 23 de persoane rănite.
Pentru Tesla, miza este una uriașă. Full Self-Driving nu este doar o funcție software, ci un element central în strategia companiei privind viitorul mobilității, a robotaxiurilor și a superiorității abordării bazate pe inteligența artificială. Un astfel de sistem, asociat cu incidente precum cel cu lacul, erodează încrederea utilizatorilor și intensifică presiunea autorităților.
În ciuda promisiunilor, experții menționează că FSD rămâne, în esență, un sistem de nivel 2, care necesită supraveghere umană constantă. Filozofia promovată de Elon Musk, axată pe avansarea rapidă și perfecționarea sistemului prin utilizare, a creat o tehnologie spectaculoasă, dar vulnerabilă în fața unor evenimente imprevizibile. În contextul actual, criticii atrag atenția că, în 2026, sistemul poate fi încă impresionant, dar insuficient de matur pentru promisiunile pe care le-a făcut cu ani în urmă.
În urma incidentului, NHTSA nu a emis încă o declarație publică referitoare la acțiunile pe care le va întreprinde în legătură cu cazul. Totodată, acțiunile Tesla și modul în care comunică gestionarea acestor incidente vor fi atent monitorizate de autorități.
Sursa: Playtech.ro