Wpis z mikrobloga

Trochę niepokojąca teoria: Prędkość ucieczki od Bullshitowych miejsc pracy. Niżej tłumaczenie:

# Prędkość ucieczki od Bullshitowych miejsc pracy

Nie spekulując tutaj, jak bardzo jest to prawdopodobne, załóżmy, że GPT-4 (lub jakiś inny LLM lub AI) przyspieszy, usprawni albo udoskonali całkiem sporo aspektów pracy. Co się wtedy stanie?

Dylemat Samo i Bena: W zakresie, w jakim gospodarka jest zdominowana przez prace-dla-samej-pracy (bzdurne / bullshitowe), zautomatyzowanie ich nie zadziała, ponieważ powstanie więcej bezsensownych miejsc pracy, a każda zautomatyzowana prawdziwa praca zostanie zastąpiona nową bezsensowną pracą.

Weźmy pod uwagę zadania domowe. ChatGPT pozwala uczniom pominąć tą pracę. System reaguje, modyfikując warunki, aby zmusić uczniów do powrotu do pracy. Szkoły w Nowym Jorku zakazały używania ChatGPT.

Rozważmy bzdurną pracę biurową. Wysyłasz e-maile, dzwonisz, bierzesz udział w spotkaniach i nawiązujesz kontakty, aby wspierać zmagania między menedżerami, wypełniasz papierkową robotę i sygnalizujesz swoją klasę społeczną, aby klienci i partnerzy czuli się docenieni. Zostałeś zatrudniony częściowo po to, aby wypełnić czyjś budżet. ChatGPT pozwala ci szybciej komponować maile. Oni (kim są "oni"?) przypiszą Cię do większej ilości meetingów i każą Ci wykonywać więcej rozmów telefonicznych oraz podbiją wymogi związane z papierkową robotą.

Sensem istnienia bzdurnej pracy jest bycie bzdurną pracą.

Istnieje teoria, iż jeśli zautomatyzujesz bzdurną pracę, zostanie ona natychmiast zastąpiona przez coś jeszcze bardziej dziwacznego i niewytłumaczalnego.

Jest też inna teoria, która mówi, że to już się stało.

Automatyzacja prawdziwej pracy może nawet zastąpić ją bzdurną pracą.

Ten argument ma zastosowanie także poza automatyzacją. Jest to kompletna Maltuzjańska pułapka ekonomiczna: Nic nie jest w stanie zwiększyć realnej produktywności.

Bullshit wszystko pochłonie.

Ostatecznie.

# Dwa modele wzrostu bullshitu

1. Prawo Bullshitu Samo: Bullshit szybko się rozprzestrzenia, aby wypełnić dostępny luz.

2. Prawo Marginalnego Bullshitu: Istnieje stały nacisk na rzecz marginalnie większej ilości bzdur. Opór jest odwrotnie proporcjonalny do ilości luzu.

W obu przypadkach brak luzu ostatecznie doprowadza do załamania systemu. W drugim modelu zwiększona produktywność kupuje czas i może to robić w nieskończoność.

Zauważ, jak bardzo dobrze ludzie czują się ze wzrostem gospodarczym. Jest to mocny dowód na istnienie opóźnień bullshitu oraz na zdolność wzrostu i dobrych czasów do prześcigania problemów.

# Teoria Prędkości Ucieczki

Z pierwotnej pułapki Maltuzjańskiej (bogactwo per capita na stałym poziomie, bo każdy wzrost ekonomiczny tylko zwiększał populację) uciekliśmy dzięki rewolucji przemysłowej, zwiększając możliwości produkcyjne szybciej, niż mogła rosnąć populacja. Wystarczająca prędkość zmian zmieniła podstawowe warunki do tego stopnia, że w większości miejsc powinniśmy się bardziej martwić spadkiem populacji niż jej wzrostem.

Rozważmy ten sam scenariusz dla potencjalnej rewolucji AI spowodowanej przez GPT-4.

Załóżmy, że GPT-4 pozwala na częściową lub całkowitą automatyzację dużego odsetka istniejących bzdurnych miejsc pracy. Co się stanie?Mój model mówi, że zależy to od szybkości adaptacji.

# Przerzucanie bullshitu łopatą

Czy postęp może wyprzedzić tempo wzrostu bullshitu?

Stopniowa zmiana na przestrzeni dziesięcioleci prawdopodobnie zostałaby zjedzona przez stopniowe zaostrzanie się wymagań i regulacji. Zmiana, która następuje z dnia na dzień jest bardziej interesująca. [Patrz: COVID i praca zdalna]

Jak szybko wymagania dot. bullshitu mogą się dostosować? Koszmarem byłaby odpowiedź "błyskawicznie". Znane jest kontrowersyjne twierdzenie, że NRC [państwowa komisja regulacji energetyki jądrowej] zdefiniowała "bezpieczną" elektrownię jądrową jako taką, która nie jest tańsza od elektrowni konwencjonalnych. Taniej oznacza, że można sobie pozwolić na większe bezpieczeństwo, co zwiększa koszty, dopóki energetyka jądrowa nie straci przewagi nad konwencjonalną. Postęp technologiczny jest bezużyteczny.

Większość regulacji prawnych nie jest taka. Załóżmy, że Urząd Skarbowy żąda 100 stron papierkowej roboty na pracownika. Kiedyś zajmowało to 10 godzin. Teraz z GPT-4, powiedzmy na zasadzie eksperymentu myślowego, że zajmuje to 1 godzinę.

W dłuższej perspektywie może to być 500 stron bardziej skomplikowanej papierkowej roboty, która nawet mimo pomocy GPT-4 zajmuje 10 godzin. Nie jest jednak tak łatwo lub szybko wymyślić 400 dodatkowych stron. Założyłbym, że zajęłoby to co najmniej dekadę. Prawdopodobnie musiałoby to poczekać na powszechną adaptację narzędzi AI, albo pogrzebać tych bez nich.

Tymczasem wychodzi GPT-5. Zyski się kumulują. Wydaje się wysoce prawdopodobne, że może to wyprzedzić potwora papierkowej roboty.

Dotyczy to generalnie miejsc, gdzie potrzebny jest określony wymóg techniczny - papierkowa robota. Miejsc, gdzie zadanie jest dobrze określone i oceniane na zasadzie zaliczenia/niezaliczenia. Tak, poprzeczka może być i będzie podniesiona. Nie, jeśli AI rozwiąże problem w całości, wymagania władzy nie mogą być i nie będą podniesione wystarczająco wysoko lub szybko, aby dotrzymać kroku.

# Wymiana Bullshitu

Jeśli Bullshit ma dotrzymać kroku postępowi, mamy opcje:

1. Zakazać lub uregulować AI lub użytkowanie AI.

2. Znaleźć inne wymogi Bullshitu, których AI nie może zautomatyzować.

3. Nałożyć relatywne wymagania dotyczące bullshitu, jak w przypadku energetyki jądrowej.

Opcja 1 nie wydaje się obiecująca. Całościowy dostęp do AI prawdopodobnie nie będzie możliwy do skontrolowania.

Opcja 3 sprawdza się w niektórych sytuacjach, a w innych nie, jak rozważono poniżej.

Opcja 2 wydaje się obiecująca. Prawdopodobnie praca będzie musiała być z obecnością na miejscu. Telefony nie zadziałają.

Nowe bzdurne zadania z osobistym kontaktem twarzą w twarz mogłyby zastąpić stare bzdurne zadania. To zapewni, że bzdury są realizowane, bzdurne miejsca pracy są utrzymywane, kosztowne sygnały są mierzone i celowo nałożone tarcie jest zachowane.

Spodziewam się, że będzie to coraz częściej podstawowy sposób, w jaki będziemy stawiać względne wymagania dotyczące bzdur. Kiedy istnieje relatywny wymóg, rzeczy nie mogą się poprawić. Uczynienie dóbr pozycyjnych ogółem bardziej efektywnymi nie działa.

To samo dotyczy celowego narzucania kosztów. Koszty nałożone na człowieka wymagające fizycznej obecności są znacznie trudniejsze do przekazania do zapłacenia przez AI.

W związku z tym takie koszty zmierzają bardziej bezpośrednio w kierunku czystych zbędnych strat społecznych.

Kiedy coś nie jest konkurencyjne, intencjonalne lub pozycyjne, nie spodziewałbym się, że wymagania będą rosły wystarczająco szybko, aby nadążyć. Tam, gdzie zostanie podjęta taka próba, różnica między bzdurnymi okaleczonymi a uwolnionymi wersjami będzie bardzo duża. Wymagany byłby przymus prawny, który może nie zadziałać. Jeśli ucieczka zostanie osiągnięta choć na chwilę, trudno będzie zamknąć tego dżina z powrotem w butelce.

Jedną z taktyk będzie ograniczenie wykorzystania AI do powielania pracy osób posiadających licencję na jej wykonanie. Będzie to częściowo skuteczne w hamowaniu takiej działalności, ale praca profesjonalistów nadal będzie przyspieszać, kurczenie się puli takich profesjonalistów będzie w najlepszym razie powolnym procesem, i trudno jest ograniczyć ludzi wykonujących pracę dla siebie, gdy AI to umożliwia.

Praktyczność, wiarygodność i historia stojąca za regulacjami - to wszystko ma znaczenie. Powiedzenie, że "ludzie wolą wchodzić w interakcje z ludźmi" nie jest wystarczające, o czym dobrze wiedzą osoby dzwoniące do pomocy technicznej. Tylko elitarne usługi i konkurencyjność mogą osiągnąć taki poziom nieefektywności.

# Zdawanie vs Wygrywanie

Coraz łatwiej będzie zaliczyć klasę bądź zadanie, które AI może pomóc zautomatyzować, chyba że barierę do zaliczenia można podnieść poprzez wprowadzenie nowo wymaganych bzdur w sposób, który się przyklei.

Zauważ, że główną rzeczą, jaką musisz zrobić, aby zdać w szkole, jest pojawienie się i obserwowanie, jak twoje życie upływa z minuty na minutę. Spodziewaj się więcej tego, w większej ilości miejsc.

Nie będzie łatwiej być przodownikiem w klasie. Być najlepszym.

Harvard będzie przyjmował taką samą liczbę studentów. Jeśli zdolność kandydatów do prezentowania się dobrze jest podkręcona dla wszystkich, to co się stanie? Niektóre aspekty zostaną odsiane, czyniąc inne ważniejszymi, wymagającymi więcej wyścigów Czerwonej Królowej. Pozostałe aspekty będą miały standardy, które pójdą w górę, aby zniwelować nową technologię.

Czy to sprawi, że uczniowie zainwestują więcej czy mniej czasu w cały proces? Jeśli zwrot z czasu w niektórych miejscach maleje, mniej czasu inwestuje się w te miejsca. Wówczas pozostają oczywiste pochłaniacze czasu, jak np. większa liczba godzin wolontariatu, które zjedzą wszelkie luzy. Moim zdaniem nie dojdzie do dużej zmiany.

A co z lokalnym uniwersytetem? Co, jeśli troską jest "czy jesteś wystarczająco dobry?", a nie "czy jesteś najlepszy?". Jeśli zajmuje mniej czasu ludzkiego, aby zbliżyć się do zaoferowania najlepszej aplikacji, którą można zaoferować, może to być rzeczywiście wysoce poprawiające dobrobyt. Oczekiwania i wymagania wobec studentów wzrosną, ale nie na tyle, by nadążyć.

Uczęszczanie na lokalny uniwersytet może stać się gorsze. Jeśli tym, czego nie da się podrobić, jest fizyczny czas spędzony w klasie, takie wymagania będą coraz bardziej upierdliwe i coraz częściej weryfikowane.

To samo dotyczy bzdurnych prac. Dla tych, którzy utknęli w takich pracach, dziewięćdziesiąt procent życia może zostać stracone na to by fizycznie w nich przebywać. Ułatwiając zbytnio pracę zdalną, ryzykuje się, że przestanie ona spełniać swoje prawdziwe zadanie.

Wszystko sprowadza się do: Jeśli rzeczywiście się wydarzą, czy opisane powyżej zmiany mogą nastąpić wystarczająco szybko, zanim zostaną uznane za absurdalne, alternatywne modele staną się zbyt rozwinięte i zaaklimatyzowane, by można je było wyłączyć, a wzrost stanie się samowystarczalny?

Jeśli to wszystko stanie się w takim tempie, jak twierdzą optymiści, to odpowiedź jest jednoznacznie twierdząca. Czy w to wierzę? Moja główna odpowiedź jak dotąd, oparta na moich własnych doświadczeniach i modelach, brzmi nie. Jestem głęboko sceptyczny, zwłaszcza wobec ich prędkości.

Mimo to nie mogę wykluczyć, że rozwój będzie wystarczająco szybki. Zobaczymy.

#technologia #ekonomia #programowanie #machinelearning #sztucznainteligencja #gruparatowaniapoziomu #gpt3
  • 4
@Sinity:
Każdy kto celowo będzie ograniczał wydajność utrzymywaniem na siłę bullshit jobs i bezsensownych czynności wystawi się konkurencji na odstrzał. W skali państw, przedsiębiorstw dużych i małych, pojedynczych ludzi.

Przykład z uczniami uchylającymi się od pracy domowej można bardzo łatwo odwrócić. Bo praca domowa sama w sobie jest reliktem niewydajnej szkoły w której czasu nauczyciela brakuje dla każdego ucznia. Gdyby tylko pomnożyć czas nauczyciela, np. takiego nauczyciela który będzie cierpliwie słuchał
@Sinity moim zdaniem autor trochę zapomina o innych czynnikach gospodarki. Sama ekonomia mu duży wpływ na bullshit jobs, ostatnie lata ujemnych stóp procentowych i darmowej kasy spowodowały, że powstało wiele gówno firm które to nikogo nikomu nie są potrzebne, ale odpowiednim osobom dają zarobić.
Po rozpoczęciu zacieśniania widać , że w USA na rynku IT zaczęło się robić duszniej a będzie to się tylko nasilać.
w związku z tym samo AI może
@Sinity: Dzięki za ciekawy wpis, ale w czym tłumaczysz? Już po kilku akapitach musiałem skoczyć do oryginału i tylko wspomagałem się twoim tłumaczeniem, bo tam znowu jest jednak trochę trudniejszego słownictwa. Oraz spoglądałem co wytłuszczyłeś.