Elon mówi, że Teslas jeździł. Dane z wypadku Tesla próbowała ukryć się przed sądem, mówią inaczej

- Technologia - 6 sierpnia, 2025
Elon mówi, że Teslas jeździł. Dane z wypadku Tesla próbowała ukryć się przed sądem, mówią inaczej
26-letni redaktor technologiczny w Echo Biznesu, to energiczny i błyskotliwy dziennikarz…
wyświetleń 12mins 0 opinii
Elon mówi, że Teslas jeździł. Dane z wypadku Tesla próbowała ukryć się przed sądem, mówią inaczej

z nie wydaje się, że jest to trudne Wydział

Zaledwie kilka dni po tym, jak jury uznało, że Tesla jest częściowo odpowiedzialna w śmiertelnej katastrofie autopilota i nakazała firmie płacić ponad 200 milionów dolarówElon Musk zabrał się na Twittera z odważną proklamacją: „Teslas może same siebie prowadzić!”

Czas nie może być gorszy. Ponieważ dzięki niszczycielski artykuł Freda Lamberta Electreka To zagłębia się w transkrypcje próbne, wiemy teraz, jak daleko Tesla poszedł ukryć prawdę o tym, co wydarzyło się w tej katastrofie. Firma systematycznie wstrzymywała dowody, wprowadziła w błąd śledczych policji i aktywnie zasłaniała wysiłki, aby zrozumieć, w jaki sposób jej technologia się nie powiodła – zachowuje podejrzanie jak kryminalna przeszkoda sprawiedliwości, ale najwyraźniej nie ma żadnych konsekwencji przestępczych.

To nie jest tylko jeden proces. Chodzi o to, w jaki sposób zachowanie Tesli grozi podważeniem zaufania publicznego w technologii autonomicznej pojazdów w momencie, gdy to zaufanie jest najważniejsze.

Wyjaśnijmy: technologia samojezdania ma ogromny potencjał ratowania życia. Według ludzkich kierowców powoduje około 94% poważnych wypadków drogowych Dziesięcioletnie badanie przez National Highway Traffic Safety Administration. Nawet niedoskonałe systemy autonomiczne mogą radykalnie zmniejszyć tę opłatę, i nie powinniśmy ich utrzymywać do niemożliwego standardu doskonałości.

Ale oto problem: opóźnienie tego, co te systemy mogą zrobić – a następnie ukryć, gdy się nie udaje – całkowicie zatruwa publiczną akceptację technologii. Jeśli ludzie stracą zaufanie, ponieważ firmy takie jak Tesla złożyli obietnice, których nie mogliby zachować, moglibyśmy odrzucić technologię, która w przeciwnym razie mogłaby zaoszczędzić tysiące istnień ludzkich.

Przemysł lotniczy wymyślił to dziesięć lat temu. Kiedy samoloty się rozbiją, śledczy roi się od sceny, firmy w pełni współpracują z władzami, a cała branża uczy się na temat niepowodzeń. Ta przejrzystość sprawiła, że latanie jest wyjątkowo bezpieczne. Ale podejście Tesli w tej sprawie autopilota pokazuje dokładną przeciwną mentalność.

Historia Electreka, oparta na transkryptach próbnych z najnowszej sprawy, ujawnia wzór oszustwa, który jest naprawdę szokujący. Oto, co zrobił Tesla:

W ciągu trzech minut od śmiertelnej katastrofyModel S automatycznie przesłał pełną „migawkę kolizji” – Video, dane czujnika, wszystko – na serwery Tesli, a następnie usunęła lokalną kopię. Tesla była jedyną istotą z dostępem do krytycznych dowodów.

W ciągu około trzech minut od awarii Model S przesłał „migawkę kolizji” – Video, Can – Bus Streams, Data EDR itp. – na serwery Tesli, „Mothership”, i otrzymał potwierdzenie. Następnie pojazd usunął swoją lokalną kopię, co spowodowało, że Tesla jest jedynym podmiotem.

Kiedy śledczy policji próbowali uzyskać dane, prawnik Tesli dosłownie skoncentrował swój wniosek o dowody. Jak zeznał badacz zabójstwa:

„Powiedział, że to nie jest konieczne.„ Napisz do mnie list, a powiem ci, co mam włożyć w list ”.

Ale prawnik celowo stworzył list, aby uniknąć wysyłania rzeczywistych danych o awarii, zamiast tego dostarcza dzienniki informacyjno -rozrywkowe i instrukcje obsługi.

McCarthy specjalnie stworzył list do Ommit udostępniania migawki Colllision, który obejmuje dane dotyczące wideokata, EDR, puszka i autopilota.

Zamiast tego Tesla dostarczył policji dane informacyjno -rozrywkowe z dziennikami połączeń, kopią podręcznika właściciela, ale nie faktyczną telemetrią awaryjną z Autopilot ECU.

Tesla nigdy nie powiedziała, że miał już te dane od ponad miesiąca.

Kiedy policja sprowadziła komputer samochodu do centrum serwisowego Tesla w celu uzyskania pomocy w wyodrębnianiu danych, Technicy Tesli fałszywie twierdzili, że dane zostały „zepsute”– Nawet choć cały czas mieli kompletny zestaw danych przez cały czas.

Przez lata Tesla powiedziała sądom i powodom, że kluczowe dane o zderzeniu „nie istnieją”. Dopiero gdy eksperci kryminalistyczni w końcu uzyskali dostęp do komputera samochodu i znaleźli metadane udowodnione, że Tesla miała dane przez cały czas, firma w końcu przyznała, co zrobiła.

Jak donosi Electrek:

Producent samochodów musiał przyznać, że miał dane przez cały czas.

Podczas procesu pan Schreiber, adwokat powodów, twierdził, że Tesla wykorzystał dane do własnej analizy wewnętrznej katastrofy:

„Mieli nie tylko migawkę – wykorzystali ją we własnej analizie. Pokazuje zaangażowanie Autopilot. Pokazuje przyspieszenie i szybkość. To pokazuje ręce McGhee z koła”.

Jednak nie dał dostępu do policji ani rodziny ofiary, która próbowała zrozumieć, co stało się z ich córką.

Samo przeczytanie podsumowującego Electrea o harmonogramie jest przerażające i rodzi oczywiste pytania o to, dlaczego nie ma tutaj odpowiedzialności karnej:

  • Tesla miał dane na swoich serwerach w ciągu kilku minut od wypadku
  • Kiedy policja szukała danych, Tesla przekierowała je w kierunku innych danych
  • Kiedy policja szukała pomocy Tesli w wyodrębnianiu jej z komputera, Tesla fałszywie twierdziła, że jest „zepsuta”
  • Tesla wymyśliła funkcję „automatycznie-delete”, która nie istniała, aby wyjaśnić, dlaczego pierwotnie nie mogła znaleźć danych w komputerze
  • Kiedy powodowie poprosili o dane, Tesla powiedział, że nie istnieje
  • Tesla przyznał się do istnienia danych, które kiedyś przedstawiono dowody kryminalistyczne, że zostały one utworzone i przeniesione na jego serwery.

Kiedy dane o zderzeniu w końcu wyszły na jaw, pomalowało potępiający obraz. Podsumowanie analizy kryminalistycznej Electreka jest czymś:

  • Autopilot był aktywny
  • Autosteer kontrolował pojazd
  • Nie wykryto ręcznego hamowania lub zastąpienia sterowania
  • Było Brak zapisu ostrzeżenia „przejęcie natychmiast”pomimo zbliżania się do interfejsu T z pojazdem stacjonarnym na swojej drodze.
  • Moore znalazł pokazy dzienników Systemy Tesla były w stanie wydawać takie ostrzeżeniaAle nie W tym przypadku.
  • Dane map i wizji z ECU ujawniły:
  • Dane mapy z Autopilot ECU zawierały flagę, że obszar był a „Ograniczona strefa autosteerowa”.
  • Mimo to system pozwolił autopilotowi pozostać zaangażowanym Z pełną prędkością.

Ten ostatni punkt jest kluczowy. Tesla wiedział, że nie było to odpowiednie miejsce do działania autopilota, ale system nie odłączył się ani nie ostrzegał kierowcy. NTSB specjalnie ostrzegł Tesla, aby „włączyli zabezpieczenia systemu, które ograniczają stosowanie automatycznych systemów kontroli pojazdów do tych warunków, dla których zostały zaprojektowane”.

Tesla wydawała się ignorować to zalecenie.

Jury stwierdziło, że kierowca w tym przypadku nosi podstawowy Odpowiedzialność – przyznał się do rozproszenia uwagi i nie używa autopilota. Jury przypisało mu 67% winy. Ale uznali także Tesla 33% odpowiedzialności, a to ma znaczenie.

Jak zauważa Electrek:

Jednak nie ma również wątpliwości, że Autopilot był aktywny, nie zapobiegał awarii, mimo że Tesla twierdziła, że jest bezpieczniejsza niż ludzie, a Tesla została ostrzeżona, aby użyła lepszego ogrodu geo i monitorowania sterowników, aby zapobiec nadużywaniu systemu.

Ta sprawa (w przeciwieństwie do niektórych innych historii o pojazdach autonomicznych) nie dotyczy karania innowacji lub utrzymywania technologii w zakresie niemożliwych standardów. Chodzi o spółki holdingowe odpowiedzialne, gdy nadają swoje możliwości, a następnie aktywnie utrudniają wysiłki, aby uczyć się z niepowodzeń.

Zachowanie Tesli w tym przypadku – lata kłamstw, błędne ukierunkowanie policji, wstrzymanie krytycznych dowodów – reprezentuje wszystko, co nie tak podchodzą do bezpieczeństwa i odpowiedzialności. Jest to przeciwieństwo tego, czego potrzebujemy, aby budować zaufanie publiczne w pojazdach autonomicznych.

Technologia samodzielnego prowadzenia może w końcu uczynić nasze drogi bezpieczniejsze. Ale dostanie się tam wymaga firm, które są przejrzyste w zakresie ograniczeń ich systemów, współpracy z badaniami bezpieczeństwa i zaangażowani w ciągłe doskonalenie w oparciu o dane rzeczywiste.

Ukrywanie Tesli w tym przypadku pokazuje firmę bardziej zainteresowaną ochroną ceny akcji (największego źródła bogactwa Elona) niż ochroną życia. A tweet Muska twierdził, że „Teslas może jeździć” zaledwie kilka dni po tym, jak te niszczycielskie dowody na jawie pokazują, że nic się nie nauczył.

Jeśli chcemy, aby pojazdy autonomiczne spełniały swój potencjał ratujący życie, potrzebujemy firm, które działają bardziej jak linie lotnicze po badaniu awaryjnym (pełna przejrzystość, natychmiastowa współpraca, ulepszenia systemu) i mniej jak Tesla w tym przypadku (zatuszowania, przeszkoda i podwojenie niebezpiecznych roszczeń).

Sama technologia nie jest problemem. Kultura korporacyjna, która priorytetowo traktuje PR nad bezpieczeństwem, jest.

Złożone pod: pojazdy autonomiczneW AutopilotW Dane awariiW daneW Elon MuskW obciążenieW samozachowawstwoW przezroczystość

Firmy: Tesla

źródło

0 0 głosów
Article Rating
Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
Wszystkie
Follow by Email
LinkedIn
Share
Copy link
Adres URL został pomyślnie skopiowany!
0
Would love your thoughts, please comment.x