Robotaksówka Waymo uderzyła w dziecko, ale firma mówi o... sukcesie? Kulisy incydentu z kalifornijskiego Santa Monica
Czy robotaksówki rzeczywiście są bezpieczniejsze od "ludzkich" kierowców? To pytanie zadaje sobie dziś Ameryka po incydencie w Santa Monica w Kalifornii. Autonomiczny pojazd giganta technologicznego Waymo potrącił dziecko w strefie szkolnej. Mimo braku poważnych obrażeń, wypadek ten wywołał natychmiastową reakcję władz federalnych
Waymo to amerykański lider wyścigu o autonomię, który dziś jest częścią holdingu Alphabet, właściciela m.in. Google i YouTube. Firma ta zarządza najbardziej zaawansowaną flotą bezzałogowych aut na całym świecie, próbując przekonać ludzi, że komputery potrafią wyeliminować ludzkie błędy i tym samym są bezpieczniejsze od tradycyjnych pojazdów prowadzonych przez człowieka. To, co wydarzyło się pod kalifornijską podstawówką, a także seria innych incydentów, każą nam jednak postawić te obietnice pod wielkim znakiem zapytania.
Dramat pod szkołą w Santa Monica
Do zdarzenia doszło w piątek, 23 stycznia 2026 roku, podczas porannego szczytu, gdy rodzice odwozili dzieci do Grant Elementary School. Z raportów wynika, że dziecko nagle wybiegło na jezdnię zza SUV-a stojącego na jezdni obok zaparkowanych poprawnie aut. Autonomiczny pojazd Waymo, poruszający się bez człowieka za kierownicą, nie zdołał uniknąć kontaktu, choć robotaksówka niemal natychmiast wykryła zagrożenie i rozpoczęła gwałtowne hamowanie.
W ciągu ułamków sekundy prędkość auta spadła z około 27 km/h do poziomu niespełna 10 km/h. Szczęśliwie, dzięki niskiej prędkości w momencie kontaktu, dziecko doznało jedynie lekkich obrażeń i o własnych siłach przeszło na chodnik. Pojazd, zgodnie z zaprogramowanymi procedurami, automatycznie wezwał służby ratunkowe pod numer 911 i pozostał na miejscu do czasu zakończenia czynności przez policję.
Federalne śledztwo na celowniku
Mimo braku tragicznych skutków, sprawa postawiła na nogi najważniejsze amerykańskie agencje bezpieczeństwa. NHTSA (Krajowa Administracja Bezpieczeństwa Ruchu Drogowego) oraz NTSB (Narodowa Rada Bezpieczeństwa Transportu) wszczęły oficjalne dochodzenia. Eksperci chcą sprawdzić, czy algorytmy Waymo zachowują należytą ostrożność w strefach szkolnych, gdzie obecność dzieci i nieprzewidywalne manewry innych aut są codziennością.
To nie pierwszy problem Waymo w ostatnim czasie. Firma zmaga się z falą krytyki po serii incydentów w Austin (Teksas), gdzie jej auta wielokrotnie nielegalnie wyprzedzały zatrzymane autobusy szkolne wysadzające uczniów. Mimo grudniowej aktualizacji oprogramowania, która miała naprawić ten błąd w ponad 3000 robotaksówkach, lokalne władze szkolne wciąż raportują kolejne naruszenia przepisów.
Waymo odpowiada: "Ludzie byliby gorsi"
Firma broni swojej technologii, prezentując dane z symulacji komputerowych. Według analizy Waymo, modelowy, „w pełni uważny ludzki kierowca” w identycznej sytuacji uderzyłby w dziecko z prędkością około 23 km/h – czyli ponad dwukrotnie większą niż robot. Alphabet argumentuje, że zdolność maszyny do błyskawicznego wykrycia przeszkody wychylającej się zza innego auta uratowała zdrowie dziecka.
– To znaczące zmniejszenie prędkości uderzenia jest dowodem na realne korzyści w zakresie bezpieczeństwa, jakie zapewnia system Waymo Driver – czytamy w oficjalnym oświadczeniu firmy.
Jaka jest przyszłość robotaksówek?
Incydent w Santa Monica oraz problemy z autobusami szkolnymi w Teksasie stawiają pod znakiem zapytania tempo ekspansji autonomicznych flot. Choć statystyki mogą przemawiać na korzyść maszyn, społeczna akceptacja dla błędów algorytmów – zwłaszcza gdy w grę wchodzi bezpieczeństwo dzieci – jest znacznie niższa niż w przypadku błędów ludzkich.