@KokosChannel: ja to wiem że jestem karaluchem, i że firma ma wywalone na mnie. Czy ja tam jestem czy nie, nic się nie zmieni. Firma istniała zanim ja przyszedłem, i będzie istnieć jak odejdę.
@WielkiNos wogole Giertrych to jest świetny fikol. Większość ludzi już nie pamięta betonu z LPR a teraz robią z niego obrońcę praw człowieka i wybitnego radcę prawnego
Naukowcy z Uniwersytetu Floryda Atlantic przeprowadzili pionierskie badanie mające na celu stworzenie systemu, który może w czasie rzeczywistym rozpoznawać gesty języka migowego (amerykańskiego ASL, bo język migowy nie jest uniwersalny). Użyli oni MediaPipe do śledzenia ruchu dłoni oraz modelu YOLOv8 do stworzenia systemu rozpoznawania gestów. Jest to podejście, które nie było wcześniej stosowane w badaniach. Ich metoda osiągnęła imponującą dokładność na poziomie 98%(!) Badanie ma ogromny potencjał praktyczny. Może pomóc: → Poprawić komunikację dla
Zaplusuj ten wpis, aby być wołanym do wpisów spod tagu #codzienneainews
Aby nie być dalej wołanym - odplusuj ten wpis. Aby ponownie dopisać się do listy - zaplusuj ten wpis. Przy każdym wołaniu będę na bieżąco pobierał aktualną listę plusujących.
Kalendarz adwentowy OpenAI: dzień 9. → O1 jest teraz dostępne przez API wraz z poniższymi feature'ami: - Function calling (połączenie z zewnętrznymi danymi). - Developer messages (instrukcje dotyczące stylu/tonu). - Analiza obrazów i parametr reasoning_effort (kontrola nad czasem odpowiedzi).
Bonus: Udostępnione zostały checkpointy modelu BiMediX2. Jest to multimodalny model medyczny stworzony przez badaczy z Uniwersytetu im. Mohammeda bin Zayeda. Zbudowano go na bazie Llama 3.1 i potrafi on interpretować obrazy medyczne (RTG, CT, MRI). W celu rozszerzenia dostępu do opieki zdrowotnej dla ponad 400 milionów arabskojęzycznych użytkowników został on zintegrowany jako chatbot na platformie Telegram.
BiMediX2 zdobył nagrodę na Llama Impact Innovation Awards i był prezentowany na 79. Zgromadzeniu
źródło: Messenger_creation_4D3021A4-1E22-4359-AA88-E3D34AC5E1F7
Pobierz