Wpadła mi w ręce książka "Algorytmy + struktury danych = programy" pana Wirtha z 1976 roku. Pytanie czy jest sens to czytać? Czy tak stara książka o programowaniu może się jeszcze przydać w rozwoju kariery programisty? #programowanie #algorytmy #datascience #bigdata
@cevilo: Oj tam, oj tam, jak ktoś chce to może przeczytać i pewnie się nawet czegoś nauczy, ale to nie zmienia faktu, że w tym samym czasie można przeczytać coś nowszego i zdobyć dużo więcej, dużo bardziej aktualnej wiedzy.
A czy twierdzenie pitagorsa straciło swój sens przez to, że jest stare?
@andrew1985: Jest duża różnica pomiędzy matematyką, której reguły nie zmieniają się w czasie, a informatyką gdzie wiedza z roku 2000 to zabytek. Równie dobrze możesz sobie czytać o budowie silników parowych w lokomotywach jak cię to interesuje, ale nie licz że pomoże ci to w pracy jako mechanik samochodowy.
@atestowanie2: Ty naprawdę nie wiesz o czym piszesz :) Jesteś ignorantem:) Podpowiedź, czy przez lata zmieniła się złożoność algorytmów sortowania? Czy może zmienił się algorytm sortowania bąbelkowego?
@cevilo: Złożoność algorytmów ani algorytmy sortowania się nie zmieniły, ale rozmiar pamięci i prędkość komputerów zmieniła się kilkanaście tysięcy razy. Dlatego czytanie o różnych problemach jakie istniały ponad 40 lat temu przy sortowaniu kilkuset elementów jest moim zdaniem stratą czasu. Zdecydowanie lepiej przeczytać o aktualnie występujących problemach przy przetwarzaniu miliardów elementów (być może wielowątkowo albo w chmurze) bo to są problemy, z którymi obecnie się spotkamy w pracy. Takie jest moje
@atestowanie2: Tia zmienilo sie, ale zmienila sie tez ignorancja ludzi, ktorzy nie potrafia programowac i pisza potworki, zjadajace mnustwo zasobow i dzialajace wolniej niz to samo dzialalo na c=64... Tak jest jesli sie ignoruje algorytmy, ze nie umie sie pozniej dobrac wlasciwego rozwiazania.
@atestowanie2: Hahaha, nie pogrążaj się :) A co jak trzeba miliardy rekordów posortować? Umiesz skorzystać z bibliotek, składać kawałki kodu z gotowców, nie masz pojęcia jak to działa w środku, więc taka płyciutka wiedza.
@cevilo: No cóż - twoim zdaniem ignorancja to nie czytanie książki z 76 roku, a moim zdaniem ignorancja to myślenie, że algorytmy i struktury danych nie zmieniły się od 40 lat. Takie życie, ile ludzi tyle opinii.
@atestowanie2: podstawy sie nie zmienily i sa stosowane do dzis... Dzis mozna lepiej wykorzystac te algorytmy, dodatkowo, czasami (jesli nie piszemy na jakis embeded, choc czasem i tam), mozemy wybrac algorytmy przetwarzajace rownoregle dane. Jednak sama teoria sie nie zmienila, ale wlasnie dlatego zarzucaja Tobie ignorancje, bo tego nie wiesz, albo nie rozumiesz... To co sie zmienia, to jezyki programowania i algorytmy uzyte w kompilatorach/interpreterach, by mogly dawac efektywniejsze wyniki mimo
Hej postanowiłem coś napisać od siebie. Wg mnie, uczenie się, poznawanie algorytmów jest rzeczą rozwijającą bardzo holistycznie programistę. Są argumenty, że algorytmy rzadko wykorzystuje się w pracy, aczkolwiek nie słucham takich ludzi, bo to żaden logiczny argument. Implementowanie różnych algorytmów w językach programowania np. w Javie, nie tyle co uczy myślenia, ale również rozwija wyobraźnię, dokładność, skupienie, logiczne myślenie, poszerza wiedzę z
@cevilo: Zmieniły się, 40 lat temu nie było procesorów wielowątkowych, nie było instrukcji SIMD, nie można było wykorzystywać karty graficznej do obliczeń, dane nie były przechowywane w chmurze, czas wykonywanie poszczególnych instrukcji na procesorze był stały, a procesory nie miały pamięci cache. Jeżeli czytasz książkę z roku 76 to nie dowiesz się o tym co obecnie jest w każdym laptopie za 1000 złotych. Poświęcisz
@atestowanie2: Robert Sedgewick, Kevin Wayne - Algorithms - 4th edition, ta książka jest kompletna z zakresu podstaw nowszej algorytmiki dla programistów
@d1l4x: Zalezy przy czym pracujesz, mi zdaza sie wykorzystywac dosc czesto...Ale czesto pisze cos blisko sprzetu dodatkowo nierzadko wymaga to dosc mocnych optymalizacji.
@atestowanie2: chipset karty graficznej to taki inny procesor. O przetwarzaniu rownoleglym pisalem, o zrownolegleniu algorytmow pisano i 40 lat temu... Tyle, ze wtedy wykorzystywano to w inny sposob.
@andrew1985: Jest duża różnica pomiędzy matematyką, której reguły nie zmieniają się w czasie, a informatyką gdzie wiedza z roku 2000 to zabytek. Równie dobrze możesz sobie czytać o budowie silników parowych w lokomotywach jak cię to interesuje, ale nie licz że pomoże ci to w pracy jako mechanik samochodowy.
@cevilo: Skoro tak sądzisz( ͡°
Jesteś ignorantem:) Podpowiedź, czy przez lata zmieniła się złożoność algorytmów sortowania? Czy może zmienił się algorytm sortowania bąbelkowego?
Hej postanowiłem coś napisać od siebie. Wg mnie, uczenie się, poznawanie algorytmów jest rzeczą rozwijającą bardzo holistycznie programistę.
Są argumenty, że algorytmy rzadko wykorzystuje się w pracy, aczkolwiek nie słucham takich ludzi, bo to żaden logiczny argument.
Implementowanie różnych algorytmów w językach programowania np. w Javie, nie tyle co uczy myślenia, ale również rozwija wyobraźnię, dokładność, skupienie, logiczne myślenie, poszerza wiedzę z
@cevilo: Zmieniły się, 40 lat temu nie było procesorów wielowątkowych, nie było instrukcji SIMD, nie można było wykorzystywać karty graficznej do obliczeń, dane nie były przechowywane w chmurze, czas wykonywanie poszczególnych instrukcji na procesorze był stały, a procesory nie miały pamięci cache. Jeżeli czytasz książkę z roku 76 to nie dowiesz się o tym co obecnie jest w każdym laptopie za 1000 złotych. Poświęcisz