Wpis z mikrobloga

@iluvmypickle: Ja zawsze proponuję automatykę i robotykę jako alternatywę. Roboty dużo, automotive ciągle się kręci, bo jak co 2-3 lata nie zrobisz faceliftingu, czy nowego modelu to wypadasz z rynku. Mała szansa na automatyzację twojej pracy ... bo hej, to ty jesteś automatykiem, AI za ciebie ręcznej robótki nie zrobi. Kasa? Na B2B spokojnie powyżej kwoty w hasztagu. Trochę mniej robotycy, trochę więcej PLCkowcy. Minusy? Delegacje, wyjazdy, mało homo-office. Zależy
  • Odpowiedz
@markhausen no i dlatego duzo ludzi sie w to nie pcha, bo zycie na walizkach, rodzine znasz ze zdjecia. Ludzie wolą teraz zyc po pracy. Ale wiadomo to wszystko zalezy od ludzi.
  • Odpowiedz
@iluvmypickle: Nie przesadzaj, niedługo będzie 10k brutto średniej pensji w Polsce, a ludzie z IT będą zarabiać wtedy minimalną? Przecież jak w takim układzie ludzie z IT uciekną do Lidli i Biedronek na kasę (by lepiej zarabiać), to kto będzie robił i utrzymywał systemy informatyczne?
  • Odpowiedz
@eU2MO: nie każdy chce na kasę w biedronce, jest wiele ludzi co wolałby siedzieć w domu albo w biurze z kawką za kasę która pozwoli przeżyć zamiast siedzieć na kasie w biedrze i użerać się z ludźmi
  • Odpowiedz
@przegrywam_przez_miasto: "We found that when people get help from CriticGPT to review ChatGPT code they outperform those without help 60% of the time.". Ludzie, którzy trenują ChatGPT przy pomocy CriticGPT, mają w 60% przypadków lepsze wyniki niż ludzie bez takiej pomocy. Czyli w 40% przypadków wyniki nie są lepsze. Więc ponawiam pytanie: jeśli AI zdarzy się halucynacja, to kto będzie nadzorował tę AI?
  • Odpowiedz
@eU2MO inne AI na innym silniku

po drugie to skąd w ogóle pomysł o jakimś nadzorze? Za każdym adminem siedzi ktoś ciągle za plecami i parzy przez ramię co klika?

Po drugie oczywiście że ludzie również będą zatrudniani, tylko że będzie to 1/10 obecnego zapotrzebowania.
  • Odpowiedz
Inne AI na innym silniku nic nie da, bo rozchodzi się tu o tzw. zdrowy rozsądek. Już były podawane przykłady decyzji podjętych przez AI, które były np. zwolnieniami dużej części kadr. Na szczęście ludzcy (nomen omen) nadzorcy zastopowali takie decyzje, które się okazywały wtedy nietrafione (delikatnie mówiąc). Przykładowy link.

Skąd pomysł o nadzorze? Patrz ostatni link. W analogii dałeś ludzkiego admina, który ma jakiś zdrowy rozsądek (którego z kolei AI nie
  • Odpowiedz
@eU2MO ludzie też popełniają błędy.
Jak admin się nie wyśpi czy jakikolwiek inny powód to popełnia błąd i jest fuck up.
Wdrożył zła konfigurację i trzeba cofnąć system do poprzedniej. Cofa i analizuje co poszło nie tak.
AI też mogłoby postępować tak samo.
Piszesz tak jakby ludzie byli nieomylni, a błędy ludzi zdarzają się ciągle.
  • Odpowiedz
@przegrywam_przez_miasto: Zgadzam się, admin może zrobić fuckup, ale sedno w tym skąd on wie później, że zrobił fuckup. Według mnie, wie on o tym, bo ma zdrowy rozsądek. A tego AI nie ma. Jak AI halucynuje, to niemal bez ograniczeń. Nie jak omylni ludzie, którzy skądś wiedzą, że są omylni.

Postępowanie AI nie jest deterministyczne. To maszyna statystyczna. I może się zamyśleć (a dokładniej: halucynować).

Co do zawodów wymagających fizycznych
  • Odpowiedz