@felixos: Kinect generalnie był pierwszym takim urządzeniem i jest dość mało precyzyjny, ma opóźnienie itp.. RealSense jest moim zdaniem bardziej dopracowany (miałem okazję się pobawić). No i obsługuje więcej odległości i jest bardziej mobilny. Czy to przekona ludzi do grania na tym to nie wiem.
Ale MS zawsze twierdził, że gry to tylko jedno z zastosowań Kinecta. Pod tym względem to Kinect w ogóle się nie przyjął poza grami. I tu
Bawią mnie te wszystkie futurystyczne interfejsy oparte na ruchu dłoni. Jak uda się rozwiązać problem dokładności odczytu, to dalej jest problem bo machanie jest po prostu meczące. Wyobraża sobie ktoś machać kilka godzin dłońmi przed ekranem? Drobne rozwiązania coś jak ostatnio chyba w bmw tj. gesty do pogłaszania muzyki, podkręcania klimy spoko, ale jako normalny interfejs do pracy jak to często jest pokazywane na tych promovideo? Moim zdaniem nierealne.
@Radus: Moim zdaniem to może być zawsze dodatkowy, wspierający interfejs. Ja dziś używam laptopa z ekranem dotykowym i często pojedyncze akcje robię palcem na ekranie, pomimo, że touchpad mniej męczy. Po prostu tak szybciej niż przesuwać kursor. No i niektóre konkretne aplikacje mi wygodniej akurat dotykiem obsłużyć.
W ten sam sposób mogę sobie czasem machnąć ręką, żeby przełączyć zakładkę - stare interfejsy zostają, dochodzi nowy, czasem wygodniejszy, czasem nie.
Komentarze (14)
najlepsze
źródło: comment_Zw7wjFDzt7oEVGHshIH1OUqxLMnZThR6.jpg
PobierzAle MS zawsze twierdził, że gry to tylko jedno z zastosowań Kinecta. Pod tym względem to Kinect w ogóle się nie przyjął poza grami. I tu
W ten sam sposób mogę sobie czasem machnąć ręką, żeby przełączyć zakładkę - stare interfejsy zostają, dochodzi nowy, czasem wygodniejszy, czasem nie.
Tak dokładnie to pozwala na określenie odległości między kamerą, a obiektem (odległość między obiektami można sobie później wyliczyć).