◢ #ainews
Cześć! Zapraszam na dziewiąte zestawienie najciekawszych linków ze świata sztucznej inteligencji ( )

1. Powstał najdokładniejszy jak do tej pory skan fragmentu ludzkiego mózgu
https://ai.googleblog.com/2021/06/a-browsable-petascale-reconstruction-of.html
INFO: Naukowcy z Google i Harvardu zeskanowali fragment mózgu o wielkości zaledwie 1mm. Skan został wykonany przy pomocy mikroskopu elektronowego z rozdzielczością 4nm. Całość zawiera 130 milionów synaps, kilkadziesiąt tysięcy neuronów i zajmuje aż 1,4 petabajta! Z pewnością jest
bp-lukasz - ◢ #ainews ◣
Cześć! Zapraszam na dziewiąte zestawienie najciekawszych lin...

źródło: comment_1623311265bz4umpRftZZubnwxWRjKbP.jpg

Pobierz
◢ #ainews
Zapraszam na ósme zestawienie AiNews. Ostatnie przerosło moje oczekiwania co do liczby plusów i nowych obserwatorów - dzięki za zaufanie!

1. Flawless AI Demo - czyli przeniesienie dubbingu w filmach na wyższy poziom
https://www.youtube.com/watch?v=QIfS7FXs-54
INFO: Trzymam mocno kciuki za ten projekt. Polecam obejrzeć to krótkie demo, bo efekty według mnie są fenomenalne!

2. MuZero. Mistrzostwo w Szachach, Go, Shogi i Atari Bez Znania Zasad
https://www.deepmind.com/blog/article/muzero-mastering-go-chess-shogi-and-atari-without-rules
INFO: Pomimo, że AlphaGo
bp-lukasz - ◢ #ainews ◣
Zapraszam na ósme zestawienie AiNews. Ostatnie przerosło moj...

źródło: comment_1622793319BhFBgrFZA3FYc343byULuV.jpg

Pobierz
sytuacja jest taka: dwa serwery, każdy z nich ma 8x GPU od Nvidii (dwa nvlink, po jednym na serwer), każdy serwer na debianie. Da się to zwritualizować by 16 GPU było widoczne jako jeden zasób? Wiem że są rzeczy typu Bright Cluster Manager, chociaż to jest raczej scheduler, a ja chciałbym mieć skrypty używające wielu GPU w tym samym czasie. Ktoś działał w tym temacie? Sprzęty są do #machinelearning NIE są do
http://www.rocksclusters.org/ ?


@PiesLat2230: używam rocks cluster os od chyba 2015 lub wcześniej do wirtualizacji klastra obliczeniowego (bazującego na CPU)), gdzie można przekierunkować procesy na różne maszyny. Ale to nie znaczy że zasoby sprzętowe z wielu maszyn są widoczne z jednego miejsca. Z mojego doświadczenia Rocks jest do czegoś innego, bo bazując na HPC wymaga dedykowanych skryptów i nie pozwala z maszyny A sięgać bezpośrednio do sprzętu maszyny B (poza CPU, czyli
  • Odpowiedz
@yras8: Twój model przyjmuje jakieś dane i zgaduje dla nich jakiś wynik. Funkcja kosztu mierzy, jak daleko jest ten zgadywany wynik od prawdziwego wyniku. Minimalizując tę odległość zmieniamy parametru modelu w taki sposób, że zgaduje on wyniki coraz bliżej prawdziwych.
  • Odpowiedz
Cześć #machinelearning. Mam zbiór około 80 tys. notatek - średnio każda ma stronę A4. Chciałbym analizować czy coś jest fake newsem czy nie, korzystając z modelu BERT do #nlp. I mam pytanie czy dobrze rozumiem jak to miałoby działać: tokenizuje notatke, dodaje te tokeny specjalne cls i sep, zamieniam to na wektory wrzucam w berta i dostaje w outpucie tez wektory. To dopiero muszę wsadzić do np. modelu regresji logistycznej?
◢ #ainews
Zapraszam na siódme zestawienie AiNews. Cieszę się, że zbiera się coraz większe grono zainteresowanych ( ͡ ͜ʖ ͡)

1. High-performance Speech Recognition With No Supervision
https://ai.facebook.com/blog/wav2vec-unsupervised-speech-recognition-without-supervision
INFO: wav2vec-u to nowy algorytm NLP od Facebooka, który dzięki wykorzystaniu mechanizmu klastrowania elementów wypowiedzi potrafi nauczyć się każdego języka. Najciekawsze jest to, że jest to uczenie bez nadzoru. Innymi słowy algorytm może nauczyć się każdego języka, wystarczy
bp-lukasz - ◢ #ainews ◣
Zapraszam na siódme zestawienie AiNews. Cieszę się, że zbier...

źródło: comment_1622102952mdBHISFzsz26k3dFAXAPr5.jpg

Pobierz
@antarhei: Jak dla mnie właśnie takie posty powinny być coraz częściej. Serce rośnie jak widzę ludzi, którzy ambitnie dążą do czegoś, zamiast wygłaszać następne powody dlaczego jest źle
  • Odpowiedz
Dlaczego aby zastosowaćalgorytmy uczenia maszynowego dane muszą mieć rozkład normalny? Wgl tego nie czaje.


@yras8: Raczej nie muszą. Estymator to statystyka służąca do szacowania wartości parametru jakiegoś rozkładu/modelu. Rozkład normalny daje ci tylko to, że wiedząc, że dane mają rozkład normalny możesz określić jaki rozkład będzie miał estymator parametru.

Innymi słowy: Chcesz określić wartość jakiegoś parametru w populacji (np. średni wzrost Polaków), a masz tylko jakąś próbkę tej populacji (wzrost stu
  • Odpowiedz
@askorek: normalizacja, a rozklad normalny to dwi rozne rzeczy.


@xstempolx: No właśnie. Normalizacja, czy standardyzacja w pewnym sensie sprowadza ci dane do takiej samej "jednostki", np do odchylenia standardowego w przypadku tej drugiej.

Tak naprawdę ten rozkład normalny nawet w przypadku statystyki jest przereklamowany. To może miało sens w erze przed komputerami gdzie wyznaczenie przedziałów ufności było utrudnione. Dlatego trzeba było sprowadzić rozkład do jakieś wyspecyfikowanych rozkładów typu rozakład t-Studenta
  • Odpowiedz
◢ #ainews
Zapraszam na szóste zestawienie ainews! Dzięki za bardzo pozytywny odbiór poprzedniego zestawienia. Następna dawka AI przed wami. Plusiki mile widziane :)

1. Interfejs Mózg-Komputer
https://dzienniknaukowy.pl/nowe-technologie/nowy-interfejs-mozg-komputer-zamienia-mysli-na-tekst?utm_source=FB_Dziennik_Naukowy
INFO: Pisanie 90 znaków na minutę… myślami. Być może jest to pierwszy krok do budowania komputerów zintegrowanych z mózgiem, ale na pewno jest to duży krok dla niepełnosprawnych do łatwiejszego komunikowania się.

2. LaMDA
https://blog.google/technology/ai/lamda/
INFO: Prosto z półki technologicznych nowinek od Google. LaMDA
bp-lukasz - ◢ #ainews ◣
Zapraszam na szóste zestawienie ainews! Dzięki za bardzo poz...

źródło: comment_1621494809YvaiR2HaldBRWR42XqFjXF.jpg

Pobierz
Może coś źle patrzę ale link z outlierami prowadzi do artykułu z punktu wyżej.
Poza tym, kolejna super porcja wiedzy. Chcemy więcej! ;))
  • Odpowiedz