Mircy, ostatnio gdzies zasłyszałem termin "normalizacja względem wariancji", ogólnie chodzi o sieci neuronowe, gdzie do modelu wchodzi n-zrodel, kazde jako feature vectory juz wyekstraktowane z pewnych danych, nastepnie wszystkie te wektory z n zrodel sa konkatenowe i po tym polaczeniu zeby przeprowadzic na nich wlasnie wspomniana "normalizacje wzgledem wariancji". Nie jestem pewny o co dokladnie moze chodzic? Czy chodzi po prostu o standaryzacje Z-score Normalization? Czy o cos moze innego?

Wie ktos
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Cześć, z racji tego, że sporo czasu poświęcam na przegląd literatury związanej ze sztuczną inteligencją pomyślałem, że warto byłoby dzielić się moimi znaleziskami. Chciałem stworzyć coś na kształt #unknownews, ale z dziedziny #ai.
W tygodniowych odstępach będę publikował takie zes†awienia ciekawych materiałów, które znalazłem. Dzięki temu nie dość, że wy będziecie na bieżąco, to ja jeszcze będę miał motywację do ugruntowania mojej wiedzy :)

--------------------------------------------------------------------------------------------------------------
1. Neuralink - Małpa
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Panowie z ML, BD. Załóżmy że będziemy mieć bazę odpowiedzi na pytania odnośnie zakażenia koronawirusem:
data zakażenia + informacje o aktywności z tygodnia poprzedzającego.
Tj.
- czy dana osoba robiła zakupy w sklepie wielkopowierzchniowym,
- czy uczestniczyła w mszy,
- czy była na siłowni,
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@yras8: Twoim modelem jest prosta, tj. funkcja opisana za pomocą y = w0 + w1x1 + w2x2. Decyzję podejmujesz na podstawie tego, czy punkt jest powyżej, czy poniżej tej prostej - a zatem zadana prosta jest granicą decyzyjną.

Jak dowiedzieć się, czy punkt leży powyżej czy poniżej prostej? Dla uproszczenia weźmy y = 3x + 1 i sprawdźmy punkt (x=2, y=6):
3x + 1 = 3 * 2 + 1 = 6
  • Odpowiedz
W telefonie masz pełno czujników z których można zbierać dane w czasie rzeczywistym. Na podstawie tych danych z pomocą uczenia maszynowego można stworzyć model do klasyfikacji czynności jakie wykonuje w danej chwili użytkownik telefonu (leży, idzie, biegnie, wspina się po schodach, itd).
  • Odpowiedz
wczoraj spojrzałem na Rocm i widzę że AMD niezłą lipę odstawia i widać braki hajsu w dziale R&D odpowiedzialnym za soft.

Okazuje się że RDNA jest nie wspierane RDNA 2 także. Jest obietnica że będą ale bez dat. Tylko stare gcn i nowa CDNA. Niezły strzał w kolano.
Tymczasem nvidia ma ml począwszy od nvidia jetson nano przez karty dekstop po centra danych z tych ich profesjonalnymi kartami. I skutecznie wypromowaną cude(tak
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Czy jest już za późno na naukę w obszarze IT, który zgłębia obecnie miliony studentów na całym świecie? Odpowiedź jest prosta - NIE. Sprawdź, dlaczego ML i AI to nadal gry warte świeczki

https://bulldogjob.pl/news/1562-czy-juz-za-pozno-na-nauke-ai

#sztucznainteligencja #machinelearning #datascience
#naukaprogramowania #programowanie #informatyka #nauka
Bulldogjob - Czy jest już za późno na naukę w obszarze IT, który zgłębia obecnie mili...

źródło: comment_1617885577AItjTyOqCGX4NqlIrJVgQT.jpg

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Google opisuje BERT-a jako jedną z największych zmian algorytmicznych w historii wyszukiwania! Algorytm jest już wdrażany na całym świecie. Dowiedz się więcej na jego temat

https://bulldogjob.pl/articles/1280-bert-czyli-jak-bohater-ulicy-sezamkowej-zmienia-wyszukiwarki

#internet #google #informatyka #machinelearning #sztucznainteligencja
Bulldogjob - Google opisuje BERT-a jako jedną z największych zmian algorytmicznych w ...

źródło: comment_1617803663BokOXpGLIzmTUNHCfpsW3t.jpg

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach