Tesla zaprezentowała prototyp Tesla bota.

Tak jak się spodziewałem, jego motoryka na ten moment jest co najwyżej podstawowa. Chodzi, ale bardziej powoli drepcze ostrożnie. Podejrzewam, że najmniejsza przeszkodą to beton.

Nie ma w tym nic dziwnego. Prace nad, nim rozpoczęto zaledwie ponad rok temu. Postęp do tego momentu firmy niemającej kompletnie doświadczenia z robotyka jest naprawdę imponująca. Jeżeli w takim tempie będą go rozwijali, a cena, jaką zapowiedział Musk, czyli ok. 20k
cyberpunkbtc - Tesla zaprezentowała prototyp Tesla bota.

Tak jak się spodziewałem,...
#anonimowemirkowyznania
#syntezatormowy #syntezamowy #deeplearning #programowanie

Przepraszam, że z anonima ale nie mam konta. Mam takie pytanie. Czy istnieje już na rynku taki program, który jest syntezatorem własnej mowy? Przykładowo napiszę jakiś tekst, a ten program to przeczyta moim własnym głosem? Szukałem na internecie i niby coś podobnego znalazłem, ale chyba tylko po angielsku. Czy po polsku już są takie syntezatory? A jeśli sam bym chciał czymś takim się zająć to jaki język
Mozilla/TTS , który bazuje na chociażby na Tacotron, którego używał gość co zrobił generowanie textu głosami z Gothica i jakość tego była bardzo dobra, ale to zależało od głosu. Czasami dla postaci która miała tylko kilka linii dialogowych głos był lepszy niż dla bezimiennego który miał ich tysiące. Chyba po prostu przetrenowanie nastąpiło. Narzędzie było dostępne w necie jako API ale kilka miesięcy temu usunęli bo Polscy artyści się burzyli że ich
@msea940: Wchodzenie w DL od strony DL i informatyki to według mnie średni pomysł - w większości przypadków oczywiście. Popyt na inżynierów surowego ML/DL jest niezwykle mały i raczej mocno się nie będzie zmieniać. Lepiej iść w inną branże która Cię interesuje i równolegle rozwijać umiejętności w DL. Może to być np. matematyka, analiza obrazów, AiR, finanse czy medycyna. W 99% przypadków znajomość ML/DL to tylko dodatkowe (lecz bardzo cenne) narzędzie
@Bejro: aktualnie poszedłem na UŁ na analize danych, na analityka się dostać dużo łatwiej i dużo więcej ich potrzebują, a skillset często musisz mieć podobny (python, excel, sql, jakiś ML może) także chce złapać pracę w pierwszym roku a potem się ewentualnie przebranżowić
via Wykop Mobilny (Android)
  • 0
@kajtom: topaz video enhance próbowałem i niestety nie daje rady, ale to być może wina mojego starego komputera. Twarze wychodziły nienaturalne, jakieś powyginane.
@#!$%@?: kilka lat temu jako student dorwałem prace przy sprzątaniu świeżo wyhodowanego hotelu ze SPA w Czechach. Kierownik bardzo chwalił się czujką ruchu w kiblu i że to takie inteligentne. Wszedłem z nim w polemikę na ten temat i poprosiłem żeby wyobraził sobie sytuację, gdzie ktoś sra dłużej jak minutę, gaśnie mu światło i musi zacząć tańczyć na kiblu... Rozwiązaniem jest np. zastosowanie blokady wyłączenia światła poprzez mikrokontroler po zamknięciu drzwi od
Udało mi się wreszcie lepiej zrozumieć jak efektywnie uczyć sieci typu GAN do generowania obrazów, więc postanowiłem podzielić się spostrzeżeniami i może oszczędzić komuś sporo czasu. Jak wiadomo ta architektura jest prawdopodobnie najtrudniejsza do debugowania a proces uczenia długi - no ale właśnie niekoniecznie. Jak się okazuje jednoczasowa propagacja wsteczna dla generatora i obu lossów dyskryminatora jest bardzo nieskuteczna. Lepiej rozbić to uczenie na 3 niezależne części - no ale wtedy czas
Bejro - Udało mi się wreszcie lepiej zrozumieć jak efektywnie uczyć sieci typu GAN do...

źródło: comment_1655938289GU2WRP43WYMF7A3scu6EUP.jpg

Pobierz
@Bejro: Nie byłem konkretny. Chodziło mi o WGAN-GP (tutaj nie clipujemy wag tylko mamy penalty na gradiencie, przez co zachowany jest warunek 1-Lipschitzowosci) który ma znacznie stabilniejszy proces uczenia od tego standardowego lossu który przytaczas. W praktyce tez nie stosuje sie częstszego treningu krytyka od generatora. Idea WGAN jest to, ze ta funkcja kosztu ma bardziej informacyjne gradienty przez co generator nawet jak się bardzo myli to może się poprawić (niemożliwe
@ejsap_kupno: Hinge loss jest bardzo podobny do crossentropy z logitów więc to takie cofnięcie się do czegoś co działało od funkcji W. Generalnie WGAN-GP wciąż robi to samo co WGAN ale w inny (lepszy) sposób. Jeśli używamy dyskryminatora z dużym dropoutem na tym samym wygenerowanym batchu to wirtualnie próbkujemy większy rozkład i zwiększamy generalizację - a to coś innego niż zapobieganie zanikaniu gradientów w WGANach.
Hej! Potrzebuje pomocy speców od #machinelearning #deeplearning #ai #ml
Mam do zrobienia projekcik na zaliczenie, i są to dla mnie totalnie nowe tematy - zaimplementowanie ai w grach. Zacząłem robić reinforcement learning, na podstawie tutoriala snake'a (https://www.youtube.com/watch?v=PJl4iabBEz0&list=PLqnslRFeH2UrDh7vUmJ60YrmWd64mTTKV&index=2). I mam sobie stany do uczenia modelu i w snaku to wygląda tak ze mam:

state [dangerstraight, dangerright, dabgerleft, direction left, direction right, direction up, direction down, food left, food right, food up, food
TheRickestRick - Hej! Potrzebuje pomocy speców od #machinelearning #deeplearning #ai ...

źródło: comment_1651335526WsxlTtN58sYwypjrnKYKN8.jpg

Pobierz
@TheRickestRick

Ale ja mam grę ze zdjęcia (forbidden cave) i przy mojej postaci chyba nie będzie kierunku tak?

jeśli w forbidden cave np. wciśnięcie strzałki lewo sprawia, że postać przemieszcza się jednorazowo, o taką samą odległość w lewo bez względu na to, w którą stronę była wcześniej zwrócona, to tak
@TheRickestRick Powinno być wszystko to, co może mieć wpływ na efekt podjęcia akcji, czyli na przykład obstacle_left, bo jeśli będąc na pozycji widocznej na screenie klikniesz strzałkę w lewo to zakładam, że nic się nie stanie. Pewnie jakiś wpływ ma też drabinka, więc również ladder_up
Witam was Mirki, mam pilne pytanie.
Czy kategoria "melanocytic nevi" ze zbioru danych HAM10000 to ta sama kategoria, albo podkategoria podobnej zmiany skórnej "Nevus" ze zbioru danych ISIC2020?
Pytam, ponieważ próbuję stworzyć klasyfikator rozróżniający różne zmiany skórne i się zastanawiam, czy rozdzielanie "melanocytic nevi" i "Nevus" na dwie kategorie ma sens. Po dodaniu ósmej kategorii(Nevus), do modelu parametr "accuracy" mocno spadł. Bez kategorii "Nevus" po jednym przejściu(1 epochs, 150 steps) klasyfikator uzyskiwał
@masterix: Dzięki, zachęciłeś mnie aby wrzucić tutaj później ten projekt. Zamierzam we flasku dopisać do tego jakiś prosty interfejs i udostępnić w darmowej domenie, więc podeślę linka tutaj. Aktualnie mam spory problem z niezbalansowanymi danymi. W klasie liczącej najwięcej danych jest ich 6000 a w najmniejszej 100, co trochę psuje cały model. Poczytałem gdzieś, że dostosowanie wag mogło by w tej sytuacji pomóc. Ale nie pomaga. Zastosowałem tutaj automatyczne obliczenie wag,
#machinelearning #deeplearning #webscraping #datascience #prawo
Mirki, czy wiecie jak obecnie w Polsce wygląda dokładnie prawo autorskie w kontekście gromadzenia treści na potrzeby naukowe? Mam konkretnie na myśli czy tworząc bazę danych obrazów (i ją nieodpłatnie udostępniając) w celu przetrenowania sieci nie łamię prawa? Czy na potrzeby akademickie jest to legalne? Co jeżeli bym gromadził zdjęcia z wyszukiwarek? Badał ktoś ostatnio taką kwestię?