Wpis z mikrobloga

Mam nadzieję, że testy robotaxi #tesla odbędą się na parkingu pod fabryką, gdzie auto najwyżej wbije dwójkę, bo na ruchliwych ulicach, bez teleoperatorów z niskimi pingami i z refleksem jak Robert Kubica na Monzie jest ryzyko, że dojdzie do tragedii.

Wpuszczanie na ulice systemu, który jest czarną skrzynką nawet dla inżynierów-projektantów, bo opiera się na e2e neural network, to jak granie w ruletkę z autopilotem. Raz skręci, raz przywali w krawężnik

https://www.youtube.com/playlist?list=PLpJW3nBrmDt2PLPazUsZ_OIR8l4bZf4P2

#gielda
SmiecGnoj - Mam nadzieję, że testy robotaxi #tesla odbędą się na parkingu pod fabryką...
  • 27
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mam nadzieję, że testy robotaxi #tesla odbędą się na parkingu pod fabryką, gdzie auto najwyżej wbije dwójkę


@SmiecGnoj: Dwójki nigdy nie wbije bo Tesla ma tylko jeden bieg (jak zdecydowana większość EV). A filmik pokazuje... no cóż jakiś wypadek. Z jakiego samochodu nie wiadomo, nawet jeżeli była to Tesla to nie wiadomo czy włączony FSD - ot taki fake news że Tesla upada xD

Takie dobre udokumentowane filmy
kwanty - >Mam nadzieję, że testy robotaxi #tesla odbędą się na parkingu pod fabryką, ...
  • Odpowiedz
@kwanty: FSD jest bezpieczniejsze niż kiepski żywy kierowca w większości przypadków. A gdyby miały LIDAR byłoby jeszcze lepiej. I myślę że to nawet dobrze że są prace nad czymś takim, bo wiele osób nie lubi-nie potrafi-nie chce sprawnie jeździć a np. muszą jakoś dojeżdżać do pracy.

Natomiast wiem że prędzej czy później (z popularyzacją FSD prędzej) zdarzy się jakiś głośny wypadek. Nie wiem jaki - może jakaś rozpędzona Tesla wjedzie
  • Odpowiedz
@kwanty:

A filmik pokazuje... no cóż jakiś wypadek. Z jakiego samochodu nie wiadomo, nawet jeżeli była to Tesla to nie wiadomo czy włączony FSD


Jakbyś jeździł kiedykolwiek tym, o czym ciągle piszesz to nie było by zdziwienia xD
Sytuacja jest znana, i to manewr wykonany przez samochód.
  • Odpowiedz
@SmiecGnoj
1.Obecne FSD jest supervised, jak autopilot, czyli zawsze musisz miec rece na kierownicy. Gdyby kierowca miał to by nie wjechał w drzewo
2.Obecna sieć neuronowa jest za mała aby byla zauważalnie lepsza od człowieka. Potrafi zarówno zadziwić tym jak świetnie sobie radzi a takze tym jak głupio czasem sie zachowuje (dużo głupiej niz człowiek )
3. Na obecnym sprzęcie można dotrenować ta sieć pod teren an którym ma działać robotaxi,
  • Odpowiedz
@Atreyu:

FSD jest bezpieczniejsze niż kiepski żywy kierowca w większości przypadków. A gdyby miały LIDAR byłoby jeszcze lepiej.


Człowiek nie ma lidaru a jedynie 2 kiepskiej jakości kamery (oczy) i jakoś jeździ. Dlatego LIDAR nie jest potrzebny i absolutnie nie gwarantuje bezpieczeństwa. LIDAR to jest wyłącznie sensor 3D a co potem z tego zrobi automatyka i czy wjedzie w drzewo czy nie to już od tego nie zależy. Dwie kamery
  • Odpowiedz
zobaczymy czy jakos się to rozwinie, ale nie wygląda to dobrze


@SmiecGnoj: Dlatego wdrażanie FSD jest tak powolne. Każdy taki wpadek jest/będzie dokładnie analizowany. Tesla ma dokładną telemetrię i zapis każdego takiego zdarzenia - czarna skrzynka jak w samolocie.

Słyszałem, że w EU proponowali dość podobny sposób: obowiązek montowania czarnej skrzynki, wszystkie wypadki z FSD dokładnie sprawdzane, progresja w dopuszczaniu FSD do użytku (najpierw level 3, potem level 4, później
  • Odpowiedz
  • 0
@zibizz1:

„Obecna sieć neuronowa jest za mała, aby była zauważalnie lepsza od człowieka. Potrafi zarówno zadziwić, jak i głupio się zachować.”


To nie rozmiar sieci jest problemem, tylko podejście end-to-end, które zamienia FSD w czarną skrzynkę. Inżynierowie Tesli nie wiedzą, dlaczego auto czasem hamuje na środku drogi albo ignoruje pieszych, bo sieć „sama się uczy”. Brzmi fajnie, dopóki nie wjedzie w
  • Odpowiedz
  • 2
@kwanty:

Człowiek nie ma lidaru a jedynie 2 kiepskiej jakości kamery (oczy) i jakoś jeździ. Dlatego LIDAR nie jest potrzebny i absolutnie nie gwarantuje bezpieczeństwa


Niestety to uproszczenie godne broszury marketingowej Tesli, a nie
  • Odpowiedz
@SmiecGnoj To to nie jest takie do końca end-to-end. Te jest 100+ osobnych sieci neuronowych, które sa wyspecjalizowane w różnych zagadnieniach. Wyjście z jednej podawane jest na wejście innych. Pomiędzy można wpiąć "debuger" i zwizualizować to.

Z drugiej strony główna sieć cały czas jest zwiększana i po każdym zwiększeniu ilości parametrów wydać duży skok w jakości. Dlatego raczej wychodzi na to że ta metoda jest łatwiejsza tylko wymaga dużej mocy obliczeniowej
  • Odpowiedz
  • 3
@zibizz1: Nie chcę Cię urazić, ale Twoje zrozumienie machine learningu wydaje się na poziomie książek popularnonaukowych, a wygłaszasz tezy z odwagą godną inżyniera Tesli. Twoje argumenty są zbyt optymistyczne i mijają się z rzeczywistością.

Nawet jeśli FSD składa się z wielu sieci neuronowych to według ich prezentacji to wciąż jest to podejście e2e. Dane z kamer są przetwarzane bezpośrednio na decyzje kierowania, bez modułowych etapów, takich jak detekcja obiektów czy
  • Odpowiedz
@SmiecGnoj

Nie chcę Cię urazić, ale Twoje zrozumienie machine learningu wydaje się na poziomie książek popularnonaukowych, a wygłaszasz tezy z odwagą godną inżyniera Tesli. Twoje argumenty są zbyt optymistyczne i mijają się z rzeczywistością.


przyganiał kocioł garnkowi
  • Odpowiedz
Błąd. Stereowizja z dwóch kamer może estymować głębię, ale jest mniej precyzyjna i bardziej podatna na zakłócenia niż LIDAR.

LIDAR tworzy dokładną mapę 3D w czasie rzeczywistym, z rozdzielczością do kilku centymetrów, niezależnie od oświetlenia czy warunków pogodowych. Stereowizja to nie LIDAR, to jak porównać szkic ołówkiem do modelu 3D w CAD.


@SmiecGnoj: A człowiek ma dwojga oczu, z "minusami/plusami", cylindrami, jedzie bez okularów i odległości estymuje do... metrów a
  • Odpowiedz
  • 0
@zibizz1: Piszesz, że 130 sieci w FSD to modułowy system, który da się debugować.
Obejrzyj ze zrozumieniem nagranie z AI Day 2022 w którym mówią, że dane z kamer idą prosto na sterowanie.
Każda sieć to czarna skrzynka, wizualizacja wyjść nie tłumaczy, dlaczego FSD np. ignoruje pieszego.
Analiza wag to zgadywanka, nie rozwiązanie, w e2e z miliardami parametrów nie wiesz, co psujesz zmieniając dane.
dodanie danych może poprawić jeden przypadek, ale wywołać regresję w
  • Odpowiedz
  • 0
@kwanty:
Tak, skoro czlowiek z parą oczu potrafi jezdzić samochodem to wsadźmy Optimusa z jedną kamerą za kółko, niech się wychyla do martwej strefy jak kierowca. Są przecież sieci rozwiazujące problem "monocular depth estimation".

Bezpieczeństwo to redundancja, nie statystyczne bajki i poważne firmy to rozumieją.
Waymo pomimo tego, że jak sam VP oprogramowania AI Tesli powiedział kilka dni temu - jest kilka lat do przodu to nie podaje ciągle nierealistycznych prognoz tylko
  • Odpowiedz
Każda sieć to czarna skrzynka


@SmiecGnoj: Tak samo jak każdy mózg jest czarną skrzynką. Też masz miliardy wag/synaps i nie są "wytłumaczalne" a jednak pozwalamy ludziom jeździć.

Jesteś sceptycznie nastawiony - trochę na zasadzie (100 lat temu) motoryzacja spalinowa jest abominacją i jest niemożliwa bo przecież samochody nie jedzą owsa i nie rodzą się z kobyły a przecież do tej pory tylko taki napęd
  • Odpowiedz
@Atreyu @SmiecGnoj @PiotrFr

Można sobie samemu zinterpretować dane, ale mi to wygląda na błąd kierowcy. Zaśnięcie


@zibizz1: Dzięki za dane :-) Zestawiłem dwa wykresy (dopasowałem skalę czasu). Z tego niższego (Steering Torque (Nm) - Positive indicates clockwise steering input) wynika, że 2 sekundy przed odpaleniem poduszek kierownica została przekręcona w lewo. Zwróćcie uwagę że tam jest "steering input" czy to oznacza "input" z FSD czy raczej "input"
kwanty - @Atreyu @SmiecGnoj @PiotrFr 
Można sobie samemu zinterpretować dane, ale mi ...

źródło: obraz

Pobierz
  • Odpowiedz