Wpis z mikrobloga

@piotrek-5: Tak, na przykład dużo poważnych algorytmów uczenia maszynowego z tego korzysta. Wektory własne z danych wskazują jak bardzo pewne aspekty są "istotne" w porównaniu z innymi. Dobrze poczytać o PCA :)
  • Odpowiedz
@piotrek-5: W algorytmice jeszcze używa się ich do na przykład algorytmów rozpoznawania twarzy. Istnieje takie pojęcie jak eigenface (twarz własna? xD), która to pozwala na stworzenie zrozumienia czym jest twarz dla komputera.
  • Odpowiedz
@SwordPL: tak, słyszałem coś o tym, chodziło mi jednak bardziej o takie stricte matematyczne zastosowania :P ale faktycznie, ciężko nie wspomnieć o PCA w tym temacie.
  • Odpowiedz
@SwordPL: a mówiąc "matematyczne zastosowania" mam na myśli jak tą całą koncepcję wektorów wkłasnych interpretuje geometrycznie, ewentualnie czy ich znajomość pomaga w obliczeniach (oprócz już wyżej wymienionego potęgowania).
  • Odpowiedz
@piotrek-5: Wartości własne są ważne, bo twierdzenie spektralne - operator samosprzężony rozkłada się na kombinację liniową rzutów na podprzestrzenie własne. Czyli (z różnymi założeniami i uogólnieniami również w wersji nieskończeniewymiarowej) inne sformułowanie faktu z algebry liniowej, że macierz hermitowska się diagonalizuje. A samo to "potęgowanie" również ma dość głęboko idące konsekwencje, przede wszystkim możliwość zdefiniowania funkcji analitycznej od operatora i ludzie od algebr operatorów dość ostro z tego korzystają:) W szczególności
  • Odpowiedz
@tyrytyty: Też się z tego uczyłem, ale uważałbym z tą książką. Niektórzy mówią, że jest to "Linear algebra done wrong", gdyż pojęcie wyznacznika wprowadzone jest tam dopiero na samym końcu. Ogólnie książka nie jest trudna o ile dość dobrze orientujesz się w dowodzeniu twierdzeń na powiedzmy sobie, poziomie kursu wprowadzenia do matematyki na jakich kolwiek sensownych studiach matematycznych. Może styl pisania Axlera Ci się nie podoba? Polecam sprawdzić też "Finite dimensional
  • Odpowiedz