Wpis z mikrobloga

Uważam, że będziemy w najbliższym czasie doświadczać "końca historii" w IT. Brzmi to mocno, ale chodzi mi o perspektywę stricte szarego wyrobnika IT. Myślę, że na horyzoncie już właściwie nie ma nowinek technologicznych, które jakoś znacząco zmienią pracę programisty (poza ofc AI, które tylko ułatwi robotę).

W temacie takiej chmury obliczeniowej, procesowania rozproszonego raczej wszystko zostało już wymyślone. Podobnie np. konteneryzacja. Rozwój zjawisk które zmieniły prace w IT na przestrzeni 5-10 lat wyraźnie przystopował od strony technicznej i jak już ktoś ogarnie te tematy to tak naprawdę styka na dobre.

Fascynaci takiego Rusta powiedzą, że to świetny język i można przepisać np. Javę na Rusta. Tylko to jest IMO wymyślanie koła na nowo w sytuacji, gdzie gros systemów jest już good enough, a do takiego Rusta trzeba by było jeszcze znaleźć ludzi. Przykład - robiłem jako data engineer i choć Python jest pod spodem badziewnym językiem, to wszelkie biblioteki do procesowania danych napisane w Javie/Scali i tak się podpina pod API zamiast developować w natywnym języku, bo Pythona zna każdy.

Całość ma to też uzasadnienie ekonomiczne. Na giełdach widzimy, że spółki technologiczne big tech ze wzrostowych przekształcają się w spółki value. Wysokie stopy procentowe zniechęcają do inwestycji w rozwój technologiczny.

Zapraszam do dyskusji

#programista15k #pracait #informatyka
  • 20
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@kawalerka15k: AI z rynku nie wykosi informatyków bo ma mocno ograniczone możliwości.

W każdym razie tak ;-) cała dziedzina "dorosła" i jakieś nowinki będą pojawiać się juz rzadziej. Teraz chyba znów rynek pójdzie w kierunku hardware a nie software i moim zdaniem zacznie to zmierzać znów w kierunku czegoś jak okulary Google, i ogólnie rozwiązań wearable (np. elektroniczne ubrania, naszywki na ubrania itp. rozszerzające rzeczywistość).
  • Odpowiedz
@kawalerka15k: To koniec IT, pracy nie ma i nie będzie dla nowych ludzi. Powinno się stworzyć specjalne instytucje zachęcające zdolnych, mądrych ludzi do kariery w medycynie i prawie, a pozostałych wysyłać do pracy fizycznej. Tam jest przyszłość, którą AI zmieni w ostatnim etapie, jeśli w ogóle
  • Odpowiedz
@kawalerka15k: jest mnóstwo rzeczy do zrobienia. Moje typy na przyszłość:
* badziewne systemy do budowania. W idealnym świecie chciałbym używać czegoś takiego jak Bazel czy Pants. Możliwe, że to podejście będzie lepsze w przyszłości a przez to popularniejsze
* chmura jest zbyt skomplikowana. Cały czas wychodzą nowe narzędzia do IaC jak i nowe platformy zbudowane na tych starych, które upraszczają życie
* rozwój narzędzi AI pomagających w klepaniu kodu. Jak
  • Odpowiedz
@Saly: zawsze będą rzeczy do roboty, ale nie będzie już takiej zmiany paradygmatu. Te rzeczy co piszesz się dzieją, ale to w zasadzie szlifowanie tego co już jest. Programista mający skillset z wczesnych lat 2010 nie znajdzie teraz pracy, myślę, że w 2030 już nie będzie takiej przepaści między wczesnym 2020 i to się będzie rozbijać o detale.
  • Odpowiedz
zawsze będą rzeczy do roboty, ale nie będzie już takiej zmiany paradygmatu.


@kawalerka15k: SI to już jest zmiana paradygmatu. W dalszej kolejności komputery kwantowe to także zmiana paradygmatu. Cyborgizacja to też zmiana paradygmatu, bo oprócz mocy obliczeniowej pod skórą będzie jeszcze moc fizyczna. Trzy zmiany paradygmatów to ma być koniec historii??
  • Odpowiedz
@kawalerka15k: przypominam, że pewien Pan o nazwisku Fukuyama, także ogłosił koniec historii. I podobnie jak Ty, mylił się. Rozwój AI, jeszcze większe Big Data, hardware, robotyka i wiele innych obszarów sprawia, że kolejne 15 lat it będzie jeszcze bardziej fascynujące niż poprzednie.
  • Odpowiedz
W dalszej kolejności komputery kwantowe to także zmiana paradygmatu


@eU2MO: w jakim sensie? Mieliśmy podobną rewolucję swego czasu (CPU -> GPU) i co z tego? 99.9% programistów nie dotyka kodu GPU, bo albo GPU nie pasuje do zadania (kwantowe są pod tym względem jeszcze gorsze) albo wszystko jest już napisane w bibliotece.
  • Odpowiedz
@Saly: W takim sensie, że komputery kwantowe przesuwają granice obliczalności. Jeśli P != NP, to dzisiejsze komputery nie mają szans złamać np. szyfrowania opierającego się na faktoryzacji iloczynu dwóch wielkich liczb pierwszych. W przypadku komputerów kwantowych, zmiana paradygmatu polegałaby na tym, że wszystkie takie szyfrowania idą się j... We wszystkich bankach, na wszystkich stronach używających HTTPS, we wszystkich SSH.
  • Odpowiedz
@JamesJoyce: @eU2MO no tak, ale to już nie będzie nic typu musisz nauczyć się chmury, kontenerów, jakichś nowych frameworków jako programista Java bo inaczej wypadasz z rynku.

Rozwój AI = bez zmian w pracy programisty. Przyspieszy co najwyżej jego robotę.
Jeszcze większe big data = będziesz robić to samo tylko na większych zasobach.
Hardware i robotyka podobnie. Co najwyżej może embedded trochę wróci do łask.
  • Odpowiedz
no tak, ale to już nie będzie nic typu musisz nauczyć się chmury, kontenerów, jakichś nowych frameworków jako programista Java bo inaczej wypadasz z rynku.


@kawalerka15k: Masz na myśli, że komputery kwantowe, gdy zlikwidują obecny typ szyfrowania, to będzie sytuacja znacznie ważniejsza niż np. nowy typ chmury? Tak, zgadzam się z tym, dlatego napisałem, że to nowy paradygmat. Przypominam twoje słowa: " Myślę, że na horyzoncie już właściwie nie ma
  • Odpowiedz
@eU2MO: jakkolwiek to nie zabrzmi - takiego klepacza Javy to za bardzo nie ruszy na rynku xD ktoś klepnie bibliotekę pod obsługę nowych typów szyfrowania i siemanko. Mówimy w poście o perspektywie szarego wyrobnika/jego pozycji na rynku.
  • Odpowiedz
@kawalerka15k: Tak, ale z dokładnością do okresu przejściowego. Szyfrowanie odporne na moc komputerów kwantowych to szyfrowanie kwantowe. Ok, będzie pewnie jakaś biblioteka do tego, ale takie szyfrowanie wymaga nowego sprzętu. Jak myślisz, ile lat trzeba będzie na wymianę wszystkich komputerów, telefonów komórkowych i tabletów na świecie? W międzyczasie ktokolwiek z komputerem kwantowym może mieć dostęp do naszych pieniędzy chronionych przez stare szyfrowanie. Nawet zwykłych klepaczy Javy to ruszy.
  • Odpowiedz
@kawalerka15k: na szczęście mylisz się kumplu. Pierwsze z brzegu przykłady.

Rozwój AI: zobacz ile powstało już frameworków, llam, ragów itd,
BigData: emergentne własności llmów itd,
Hardware i robotyka: marzenie Kurzweila, mózg w chmurze
  • Odpowiedz
Przykład - robiłem jako data engineer i choć Python jest pod spodem badziewnym językiem, to wszelkie biblioteki do procesowania danych napisane w Javie/Scali i tak się podpina pod API zamiast developować w natywnym języku, bo Pythona zna każdy.


@kawalerka15k: Ale to jest efekt skokowego zapotrzebowania na rozwiązania z tej dziedziny, a nie da się skokowo zwiększyć liczby devów Scali, bo jest zbyt trudna dla przeciętnego kodoklepa. A w Javie są
  • Odpowiedz
@Xianxi: W porównaniu z innymi językami? Skomplikowany system typów i ich inferencja, jednoczesna funkcyjność i obiektowość (i to w "pełnej wersji", nie ograniczonej jak np. w Kotlinie C# czy Rustcie), w dwójce implicity (ale to akurat efekt błędów projektowych, bug a nie ficzer), dla kogoś kto się przestawiał z Javy 7 nawet podstawowa "otoczka" funkcyjna (mapy, flatmapy, niemutowalne struktury danych) oraz składnia były mocno problematyczne, model aktorów jako podstawowy typ
  • Odpowiedz
  • 0
@blehblehbleh: Dzięki za wyczerpującą odpowiedź :) Aż sobie sprawdzę dokładniej, bo po pobieżnym przejrzeniu jakiegoś oficjalnego tutoriala nie wyglądało na mega trudne, ale może to dlatego, że w różnych dziwnych rzeczach pisałem.
  • Odpowiedz