Tesla rozjechała dzieci. Fatalny test funkcji Full Self-Driving i kolejny duży problem Elona Muska
Tesla nie ma powodów do zadowolenia. Samochód tej firmy podczas testów trybu autonomicznej jazdy rozjechał dzieci biegnące na autobusu. Aż osiem razy.
Wspomniana seria testów została przeprowadzona przez grupę The Dawn Project wraz z ResistAustin i Tesla Takedown. Na samym początku trzeba zaznaczyć, że są to organizacje przeciwne działaniom firmy Elona Muska – ich eksperyment wygląda jednak na dobrze zaplanowany, a rezultaty? Cóż, te są po prostu zatrważające.
Fatalna dla Tesli demonstracja
Seria testów ujawniła bowiem poważne luki w działaniu systemu Full Self-Driving Tesli – Model Y aż osiem razy zignorował autobus szkolny z migającymi światłami i wysuniętym znakiem "stop", by następnie uderzyć w manekiny imitujące dzieci. Co warte podkreślenia: nie jest to nietypowa sytuacja. Tak wyposażone autobusy szkolne są w USA praktycznie normą, a po ich zatrzymaniu i oznaczeniu tego faktu poprzez wspomniane światła i wysuwany na boku, bardzo dobrze widoczny znak "stop" mają bezwzględny obowiązek zatrzymania się i ustąpienia pieszym pierwszeństwa.
Pełna autonomia, która nie zatrzyma się przed autobusem szkolnym z dźwięczącymi światłami i wjedzie w dzieci, musi zostać natychmiast zakazana. Nieodpowiedzialność Tesli podważa bezpieczeństwo publiczne.
Tę właśnie próbę Model Y firmy Tesla, wyposażona w system FSD, czyli Full Self-Driving, oblał aż ośmiokrotnie. Auto ani razu nie zatrzymało się przed zatrzymującym się, prawidłowo oznaczonym autobusem szkolnym, doprowadzając tym samym do symulowanego wypadku.
Ułomność Tesli względem konkurencji
Tesla oficjalnie określa FSD mianem systemu półautonomicznego – czyli takiego, który wymaga obecności czujnego kierowcy oraz reagowania przez niego na ostrzeżenia, włącznie z przejęciem kontroli nad pojazdem, gdy wymaga tego sytuacja. Innymi słowy funkcja ta ma charakter wspomagający, a nie samodzielny – trudno jednak nie odnieść wrażenia, że tego rodzaju twierdzenia służą jedynie zabezpieczeniu prawnemu, gdyż koniec końców wszystko i tak zależy od użytkownika. Czyli kierowcy, który musi polegać na dość ograniczonym w porównaniu do konkurencji samochodzie – no, przynajmniej jeśli chodzi o możliwości związane ze "świadomością" otoczenia.
System Tesli opiera się bowiem jedynie na kamerach i AI. Ze względu na zbyt wysokie koszty lata temu Elon Musk podjął decyzję, że jego samochody mogą obejść się bez użycia radaru czy lidaru – technologii stosowanych przez konkurencję jak Waymo, Cruise czy Zoox. Według przeciwników firmy właśnie te braki mogą doprowadzić do niebezpiecznych sytuacji i do braku wykrywania niektórych zagrożeń, co ujawniła dramatyczna demonstracja w Austin.
Nie pierwsze kontrowersje wokół FSD
To nie jest pierwszy przypadek, kiedy FSD Tesli znalazło się w ogniu krytyki. W kwietniu 2024 Model S na FSD spowodował wypadek, w wyniku którego zginął motocyklista w stanie Waszyngton. Dodatkowo Narodowa Administracja Bezpieczeństwa Ruchu Drogowego (NHTSA) prowadzi śledztwo po tragicznym zdarzeniu z pieszym z 2023 roku. A to nie koniec listy.
Eksperyment przeprowadzony w Austin nie wywołał jeszcze reakcji regulatora – NHTSA jeszcze nie odtworzyło scenariusza testu demonstracyjnego, co budzi obawy środowiska technologicznego i osób, które po prostu boją się o bezpieczeństwo na drogach. Ci ostatni zresztą – głosem organizacji patrzących Tesli na ręce – coraz częściej mówią o konieczności ujawnienia danych serwisowych i statystyk wypadków związanych z FSD. Tesla jednak te żądania póki co zwyczajnie ignoruje.
Grzegorz Karaś, dziennikarz pcformat.pl