Wpis z mikrobloga

Moje przemyślenia po Tesla AI Day, część druga - Tesla Bot

w tym wątku pobawię się w przewidywanie przyszłości. Naprawdę liczę na to, że kiedyś ktoś mi o tym wątku przypomni (jeżeli sam bym o nim kiedyś zapomniał):

Tesla i Elon naprawdę opracują komercyjnie dostępnego Tesla Bota, który będzie dostępne dla "przeciętnego Kowalskiego" i jako pierwsi wdrożą roboty na dużą skalę.

Trochę ciężko mi przewidywać, kiedy konkretne rzeczy się staną (tutaj mogę się sporo pomylić), ale mam duże przekonanie co do rzeczy, które w mojej ocenie wydarzą się w między czasie.

Tesla opracuje prototyp do końca 2022 roku. Hardware powinien być w większości gotowy (ale słabszy niż docelowy), ale software jeszcze nie do końca. Tesla rozpocznie pracę nad systemem produkcji.

W tym samym roku (ale raczej 2 lata później), zależnie od spacex, Tesla wyśle testowe 2-3 roboty na Marsa Testowym Starshipem, razem ze Starlinkami, za pomocą którym na bieżąco będzie im wgrywać nowe oprogramowanie.

W 2023-24... Tesla zacznie testować pierwsze komercyjne wdrożenia w "realnym świecie", a nie jakichś opustoszałych magazynach.

Najbardziej oczywistym dla mnie zastosowaniem dla robotów Tesli.. będzie rozwiązanie problemu "ostatniego metra" w dostawie dowarów, tj. dostarczenie komuś paczki pod drzwi.

Tesla wykorzysta swoje Robo Taxówki ... i zacznie w nich wozić swoje roboty, które będą pełnić rolę kurierów. Będą jeździć Modelem Y, który przy okazji dostanie ficzer znany z Modelu X, czyli automatycznie otwierane drzwi. Ewentualnie, te auta w ogóle mogą nie mieć drzwi od strony kierowcy-robota (best part is no part)

Owi Tesla kurierzy będą na początku działać tylko na przedmieściach i będą unikać wchodzenia po schodach, ale będą potrafiły wejść na trawnik i podrzucić komuś paczkę pod drzwi. To jest jedno z najprostszych zadań, które jest komercyjnie przydatne, dobrze się skaluje, w której prędkość robota nie robi dużej różnicy, w której roboty mogą być wykorzystywane 24 godziny na dobrę... i co bardzo ważne, podczas których wykonywania roboty będą miały styczność z prawdziwym i otwartym światem.

Tesla będzie potrzebować przede wszystkim DANYCH, dlatego będzie chciała "narazić" swoje roboty na interakcje z nieznanym do końca otoczeniem. Robot będzie miał okazję przeprowadzić interakcje z innymi ludźmi, ucząc się ich zachowań, sensu ich wypowiedzi itd. Natomiast nawet najbardziej podstawową komunikację będzie w stanie bez problemu załatwić już na początku, w stylu: "oto twoja paczka, złóż podpis tutaj", "przyłóż kartę by zapłacić", etc.

Tesla w ten sposób wyprzedzi Boston Dynamics i wszelkie inne firmy jeżeli chodzi o dostępność danych treningowych.

W między czasie, Tesla będzie pracowała nad opracowaniem "inteligęcji" dla swojego robota. Roboty Tesli będą musiały się nauczyć rozmawiać z ludźmi... dlatego, wszystkie obecne Tesle.... krok po kroku, będą coraz bardziej przypominać inteligentnego Kitta, samochód z dobrze znanego nam filmu "Knight Rider/Nieustraszony".

Samochód nauczy się z nami rozmawiać, tak samo jak roboty.

Do 2030 roku, Tesla powinna wypuścić komercyjną wersję robota, dostępnego dla "każdego", w cenie 10k USD. Tę cenę Tesla osiagnie dzięki planowanej skali. Początkowo będą celować w produkcje 1 miliona robotów rocznie.

Do tego roku, na Marsie powinno być już z kilkaset, może tysiąc robotów. Każdy będzie chciał mieć własnego w domu/garażu. Największy ficzer: roboty dostają stale nowe aktualizację, więc twój robot "jutro" będzie umiał więcej niż "dzisiaj".

#tesla #elonmusk #spacex #gielda
  • 16
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

BTW, twój robot... będzie chodził do pracy w nocy. Tesla np. podpisze kontrakt na sprzątanie dużych miast, albo coś podobnego. Godzina 22:00 i twój robot wyjdzie z miotłą i workiem... i będzie zbierał śmieci, itd :) Czysto będzie w końcu wszędzie :)
  • Odpowiedz
via Wykop Mobilny (Android)
  • 8
@anonimowy_programista: mi się wydaje że ten bot to takie odwrócenie uwagi od faktu, że autonomiczna jazda jeszcze nie jest opanowana. Krok wydaje się logiczny, ale od pomysłu do jego realizacji bardzo długa droga więc podchodzę do tego sceptycznie szczególnie w okresie następnych 10 lat.

Żeby nie było jeśli ktokolwiek ma to zrobić to tylko Tesla ale chyba raczej w dość długim horyzoncie czasowym...
  • Odpowiedz
@JC97: @anonimowy_programista:

Ech, w przypadku Tesli takie długofalowe plany zawsze rodzą we mnie sceptyczność.


Musicie sobie pewną manipulację którą Musk zawsze robi a czasami nazywa się ją Elon Standard Time (EST, ETC, etc...). Musk prawie zawsze podaje, że te przełomowe technologie opracuje w rok (autonomię w Tesli, neuralink, tesla-bot, etc...). To jest informacja dla ludzi, żeby się tym jarali :-) Ludzie bardzo słabo interesują się czymś w perspektywie dłuższej niż rok dlatego żeby utrzymać zainteresowanie musi mówić że będzie
kwanty - @JC97: @anonimowyprogramista: 

 Ech, w przypadku Tesli takie długofalowe p...

źródło: comment_1629794256om87nmTcf7jOPVknMtuemv.jpg

Pobierz
  • Odpowiedz
Po co wydają tyle kasy, żeby być tylko 1.5x szybszy od Nvidia GPU.


@kwanty: wydaje mi się, że przegapiłeś jedną zasadniczą rzecz. Nie chodzi tylko o to ile operacji na sekundę może zostać policzonych... ale też to, czy to są operacje zależne od siebie czy nie. Chodzi o Bandwidth i opóźnienia w komunikacji pomiędzy wszystkimi nodami. Gdyby wszystkie operacje mogły zostać wykonane niezależnie.. wówczas, można było by postawic milioard GPU od Nvidi... i miałbyś to policzone miliard razy szybciej niż jakbyś liczył te operacje na 1 GPU.

Co innego, gdy jedna operacja wymaga wyniku z tysięcy innych node'ów. Główna innowacja Tesli to przepustowość i mniejsze opóźnienia, nie sama moc
  • Odpowiedz
Do 2030 roku, Tesla powinna wypuścić komercyjną wersję robota, dostępnego dla "każdego", w cenie 10k USD.


@anonimowy_programista: xDDD Do 2030 to będzie dobrze jak ogarną finalną w pełni sprawną wersje FSD, bo okazało się że problem jest dużo bardziej złożony niż się spodziewali(kto by pomyślał) i podobnie będzie z "Tesla botem".
  • Odpowiedz
via Wykop Mobilny (Android)
  • 1
@anonimowy_programista: Plan na rozwój SI na bazie kolejnych danych jest spoko, ale chyba nikt nie przewidział że może nie da się tego wykonać.
Wszystkie algorytmy używane dzisiaj jedynie papugują słowa i zachowania na bazie nauczonych, a to może nie wystarczyć.
Do tego Elon chce żeby te roboty jeździły samochodami, gdzie samochody nadal same nie jeżdżą, a od dawna miały.
Powinniśmy już dawno zbudować sieć szynową do paczkomatów, co by rozwiązało
  • Odpowiedz
Już widzę jak w Polsce sytuacja od 6:55 (obserwować górny, superszerokokątny obraz!) kończy się wyprzedzeniem i zajechaniem drogi przez białe auto i wyjściem dresa z gazrurką.


@bialy100k: Tu ewidentnie fuckup. Mógł wcześniej wyjechać ale długo się "wahał" a jak już komuś tak zajechał to mógł użyć tego słynnego przyspieszenia i odjechać szybciej. No ale niech rzuci kamień (człowiek) ten kto chociaż raz tak nie zrobił...

Te algorytmy nie mają być
  • Odpowiedz
@anonimowy_programista:

wydaje mi się, że przegapiłeś jedną zasadniczą rzecz. Nie chodzi tylko o to ile operacji na sekundę może zostać policzonych... ale też to, czy to są operacje zależne od siebie czy nie. Chodzi o Bandwidth i opóźnienia w komunikacji pomiędzy wszystkimi nodami. Gdyby wszystkie operacje mogły zostać wykonane niezależnie.. wówczas, można było by postawic milioard GPU od Nvidi... i miałbyś to policzone miliard razy szybciej niż jakbyś liczył te operacje na 1 GPU.


Nie wydaje mi się, żeby NVidia tego nie wiedziała ;-) W superkomputerach używających akceleratorów AI od NVidia używa się dedykowanych połączeń pomiędzy GPU, które są co najmniej 10x szybsze niż PCIe
  • Odpowiedz
dlatego, wszystkie obecne Tesle.... krok po kroku, będą coraz bardziej przypominać inteligentnego Kitta, samochód z dobrze znanego nam filmu "Knight Rider/Nieustraszony".

Samochód nauczy się z nami rozmawiać, tak samo jak roboty.


@anonimowy_programista: Naturalne sterowanie głosowe będzie rozwijane przez Teslę też po to, żeby je zaimplementować na załogowym Starshipie – statek jest ogromny, więc w sytuacjach różnych emergency błędem byłoby oczekiwać, że każdy specjalista misji musi dostać się do jakiegoś panelu
  • Odpowiedz