Inżynieria wsteczna tego co widzi Autopilot Tesli na podstawie części danych z wersji deweloperskiej AP 2.5, nie najnowsze oprogramowanie więc tylko przednie kamery w użyciu. Obszar danych na filmikach ograniczony do 60m aby nie zaśmiecać widoku. Opis od osób które to rozgryzły: https://old.reddit.com/r/teslamotors/comments/9irh2a/seeing_the_world_in_autopilot_part_deux/

Filmik z Paryża: https://youtu.be/_1MHGUC_BzQ

Artykuł: https://electrek.co/2018/09/25/tesla-autopilot-sees-drive-paris/

“So keep in mind our visualizations are not what Tesla devs see out of their car footage and we do not fully understand
anon-anon - Inżynieria wsteczna tego co widzi Autopilot Tesli na podstawie części dan...
Dodałem znalezisko o stworzeniu udanego modelu sztucznej synapsy która symuluje pracę komórek ludzkiego mózgu

https://www.wykop.pl/link/4522085/naukowcy-stworzyli-urzadzenie-synaptyczne-symulujace-funkcje-ludzkiego-mozgu/

oraz w poważanych robot którego AI nauczyła rozpoznawać przedmioty których nie ma w oryginalnym algorytmu
Zapraszam do dyskusji czy za jakieś 100 lat nie stworzymy technologiczną osobliwość?

#sztucznainteligencja #ai #programowanie #robotyka #neurobiologia #liganauki #gruparatowaniapoziomu #mikroreklama
@RFpNeFeFiFcL: zacznijmy od tego, że w AI nie ma czegoś takiego jak przedmioty w algorytmie. Algorytmy AI nie działają semantycznie. Dla nich nie istnieją przedmioty tylko dane wejściowe. Przedmioty (a właściwie podzbiory) są w zbiorze uczącym i klasyfikator uczy się je rozróżniać. To, że klasyfikator rozpoznaje przy okazji co innego jest konsekwencją geometrii. Jeśli np. użyjemy k-środkowego klastrowania, może się okazać, że dla przyjętych parametrów algorytmu stworzą się inne klastry niż