Czy Sztuczna Inteligencja zwolni nas z pracy? Te zawody są zagrożone
![Czy Sztuczna Inteligencja zwolni nas z pracy? Te zawody są zagrożone](https://wykop.pl/cdn/c3397993/3bb27b9f42e0ecb1deaae6560684f0314e34d0410eeb83142eb259186f919dde,w300h194.jpg)
Eksperci są zgodni, że już teraz algorytmy doprowadzą do likwidacji 3 proc. miejsc pracy. Za dekadę takich zagrożonych „etatów” może być 10 razy więcej.
![salon24_pl](https://wykop.pl/cdn/c3397992/salon24_pl_5SLZ41Jvz4,q52.jpg)
- #
- #
- #
- #
- #
- #
- 143
- Odpowiedz
Eksperci są zgodni, że już teraz algorytmy doprowadzą do likwidacji 3 proc. miejsc pracy. Za dekadę takich zagrożonych „etatów” może być 10 razy więcej.
Komentarze (143)
najlepsze
Chat GPT działa jak bardziej jak agregator treści, a nie myślący twór. Nie jest w stanie w większości przypadków ogarnąć, czy to, co pisze ma cokolwiek wspólnego z rzeczywistością (poza obliczeniami matematycznymi itp.). Opiera się na wyborze najbardziej prawdopodobnej odp. Jeśli zwrócisz mu uwagę, że palnął głupotę, to sięga po kolejną odp., która w hierarchii prawdopodobieństwa była nieco niżej. To tak w dużym skrócie / uproszczeniu.
Został nauczony ogromem danych, co sprawia z początku wrażenie, że to prawdziwe SI, ale wystarczy dać mu problem, który nie istnieje w jego bazie i polegnie. Oczywiście nie da po sobie tego łatwo poznać, bo #!$%@? go buta.
Żeby nie było, że tylko psioczę na niego. Do generowania prostego kodu typu miganie LEDem, wyświetlanie wyrazów na wyświetlaczu na Arduino, stworzenie encji itp. się przyda, ale logiki biznesowej nie ogarnie ani teraz ani za 10 lat.
Jako chat bot też się przyda, bo dobrze mu idzie pisanie w danym języku.
W internecie sporo filmów pokazujących, że kod, który generuje, zawiera sporo błędów. Po mniejszych lub większych poprawkach człowieka, kod może działać, ale czy to o to chodzi, by wypominać mu 5 razy, gdzie zrobił błąd i będzie on poprawiał, aż w końcu przypadkiem zadziała?
W zasadzie to generator, nie agregator. Ma to nawet w nazwie - literka G ;) Wewnętrznie operuje na indeksach słownika, z którego losuje kolejny token zgodnie z zadanym prawdopodobieństwem, na podstawie tokenów wygenerowanych wcześniej (lub zawartych w pytaniu). Nie musi nic rozumieć i faktycznie nic nie rozumie
@TypowyZakolak: Ta legendarna empatia
"szybciej dzieci bo musimy z materiałem nadążyć, no co ja poradzę że nic nie rozumiesz z materiału",
"szybciej mi mam następnego pacjenta",
A zatem, w pierwszej kolejności: pracownicy call center; "redaktorzy" serwisów takich jak onet piszący słabe kalki z serwisów zagranicznych; pracownicy helpdesk; zdalni recepcjoniści; osoby prowadzące zdalne kursy i szkolenia na niskim poziomie zaawansowania; akwizytorzy; referendarze i asystenci wszelkiej maści; biurwy o niskim poziomie wtajemniczenia; code monkeys; etc.
Pierwsze co robię gdy dzwonię na infolinię i słyszę jakiegoś #!$%@? bota to mówię "połącz z konsultantem". Myślę, że robi tak większość ludzi (a przynajmniej tych, którzy wiedzą, że gadają z gówno botem bo jest spora rzesza tych, którzy o tym nie wiedzą i to też jest problem) więc nawet i takie stanowiska nie są w dłuższej perspektywie zagrożone.
@werfogd: Ten niedospany maszynista w przypadku nieznanego problemu potrafi podjąć właściwą decyzję. Algorytmy, AI i temu podobne tego nie potrafią. One mogą się przydać w wynajdowaniu zależności których nie dostrzeże człowiek (pod warunkiem, że zostały nauczone odpowiednimi danymi) ale nie w planowaniu wychodzącym poza schemat.
Próbowałem za jego pomocą napisac nawet średnio skomplikowane programy. Nie da rady, dosyć szybko zaczyna się gubić. Zapraszam za 5-10 lat.
Przestańcie siac sensację i oszukiwać ludzi.
Zakop za sianie paniki i mówienie nieprawdy.