Testy na dzieciach niekoniecznie podobają się YouTube
Autonomiczna jazda to temat, który wzbudza mnóstwo kontrowersji. Osobiście przypomina mi on informacje o katastrofach lotniczych – jest ich bardzo mało, lecz jeśli już do nich dochodzi, to żyje nimi cały świat. Podobnie jest z autami posiadającymi funkcję self-drivingu, bowiem zazwyczaj słyszy się o niej, gdy technologia przyszłości zawiedzie i doprowadzi np. do śmierci kierowcy.
Regularnie mamy do czynienia z przeprowadzanymi testami, które mają dowieść, że self-driving staje się coraz bardziej rozwinięty. Nie każdy materiał ukazujący tego typu próby jest jednak przyjmowany ciepło. Pewien czas temu światło dzienne ujrzał film zatytułowany „Does Tesla Full-Self Driving Beta really run over kids?”. Nie da się ukryć, dosyć kontrowersyjna nazwa.
Klip polegał na prowadzeniu Tesli Model 3 w kierunku dzieci stojących na drodze oraz przechodzących przez ulicę (pociechy należały do twórcy kanału Whole Mars Catalog). W każdym przypadku pojazd zatrzymał się przed ludźmi, co miało dowieść skuteczności funkcji FSD. Osoba przeprowadzająca test twierdzi, że w pełni ufa technologii – zwłaszcza iż kierowca także ma kontrolę nad autem i może zahamować w każdej chwili.
Does Tesla Full Self-Driving Beta really run over kids?
Thanks to @MinimalDuck and @_tadpark for your help on this! @elonmusk @RealDanODowdhttps://t.co/A1Pq1LkDyQ pic.twitter.com/bR19cVkWcL
— Whole Mars Catalog (@WholeMarsBlog) August 14, 2022
Sam klip powstał jako odpowiedź na szeroko zakrojoną kampanię ukazującą Teslę zderzającą się z manekinami imitującymi dzieci. Od razu pojawiła się dyskusja na temat potencjalnego ograniczenia systemu FSD. Nie zabrakło głosów zachęcających do stworzenia filmu z udziałem prawdziwych dzieci, aby udowodnić błędność oryginalnych wyników.
Klip od Whole Mars Catalog także wywołał szereg kontrowersji. Zareagowała nawet organizacja Highway Traffic Safety Administration, która wydała następujące oświadczenie:
Nikt nie powinien ryzykować swojego życia, ani życia nikogo innego, aby przetestować działanie technologii pojazdów. Konsumenci nigdy nie powinni próbować tworzyć własnych scenariuszy testowych lub wykorzystywać prawdziwych ludzi, a zwłaszcza dzieci, do testowania wydajności technologii pojazdów.
Jeśli zaś chodzi o suche fakty, to od 20 lipca 2021 do 21 maja 2022 roku pojazdy Tesli korzystające z Autopilota brały udział w 273 wypadkach – niektóre okazały się śmiertelne. NHTSA ma obecnie badać wybrane sytuacje powiązane ze zderzeniami z zaparkowanymi pojazdami ratunkowymi. Oczywiście należy też wspomnieć, iż system FSD nie jest obecnie idealny i staje się dostępny w wersji beta dla kierowców za dodatkową opłatą w wysokości 12 000 dolarów. Osoba musi najpierw przejść odpowiednie testy, a jej ręce muszą nieprzerwanie znajdować się na kierownicy podczas autonomicznej jazdy.
Źródło: The Verge, Bloomberg