Miałem w pracy ostatnio sideproject. Był on prosty: sprawdzić jak łatwo będzie postawić llma, który generowałby kod w syntaxie toola bi o nazwie QlikSense. Oczywiście Qlik posiada coś takiego, ale firma nie zgadza się ani używać ani płacić za to Qlikowi dodatkowego hajsu. Postawiłem LLame2 na gpu cloudowym azure i zrobiłem troche webscrappingu kodu po forach qlikowych, żeby finetunować ten model kodem z qlika, który swoją drogą LLama znała, i radziła sobie poprawnie w prostych rzeczach.
Po pewnym czasie zespół deployowy przeniósł to na jakiś mockupowy layout do testowania. Kilku bi devów testowało. Twierdzili, że chatgpt lepiej sobie radzi (co jest oczywiste, bo z pewnością posiada znacznie więcej danych qlikowych, niż moje scrappingi) ale, że jest ok do prostych i średnio zaawansowanych rzeczy. Z pewnością przyspieszy pracę. Więc wdrażamy. Wdrażamy? Oczywiście, że nie. Oto co się stało dalej:
- Przeszliśmy do korpospotkań najpierw z managerami od danych używanych w daszbordach. Kompletnie się nie zgodzili na używanie i przechowywanie ich danych do dalszych treningów. - Legal wydarł się na nas, że jakim prawem to hostujemy wgl. gdziekolwiek (nie było tam żadnych danych firmowych, więc zbyliśmy ich śmiechem) i że firma nie posiada jeszcze procedur dla pracy z lmmmi na produkcji z danymi firmowymi (chociaż sam postawiłem tam już z 3). Procedury mogą być za kilka lat. - Na końcu it się na nas wydarło, że nie posiada infry do deployu prodkcyjnego tego narzędzia i będzie mieć może za 3-4 lata po ustaleniu budżetów - Projekt poszedł do folderu On Hold -Kurtyna
Pomimo, że managerowie wyższego szczebla z it chcieli tego rozwiązania, i rozwiązanie zostało stworzone, to pewnie minie kilka ładnych lat, zanim będzie w użyciu.
@JamesJoyce: mały nitpick - web scraping, nie scrapping. Nie złomujesz, tylko "wyskrobujesz" dane z internetu :) A poza tym to typical korpo biurokracja xD
@JamesJoyce: Produkcja półkowników ma również swoje zalety: 1. Zrobiłeś, co chciałeś 2. Masz za to zapłacone 3. Uruchomiłeś międzywydziałową współpracę potwierdzoną tuzinem dokumentów 4. Masz kolejny projekt, który możesz w przyszłości wskrzesić i rozwinąć 5. Nie musisz się teraz przejmować utrzymaniem, nie gniewaj się, lekko upośledzonej Lamy :)
Miałem w pracy ostatnio projekt poboczny. Był on prosty: sprawdzić jak łatwo będzie postawić model generujący kod, który generowałby kod w składni narzędzia analitycznego o nazwie QlikSense. Oczywiście Qlik posiada coś takiego, ale firma nie zgadza się ani używać ani płacić za to Qlikowi dodatkowego pieniędzy. Postawiłem Model Generatywny o nazwie LLama2 na chmurze obliczeniowej i procesorach graficznych firmy Azure i zrobiłem trochę pobierania kodu ze stron internetowych po forach Qlikowych, żeby dostroić ten model kodem z Qlika, który swoją drogą model znał, i radził sobie poprawnie w prostych rzeczach.
Po pewnym czasie zespół wdrażający przeniósł to na jakiś wzorcowy układ do testowania. Kilku analityków biznesowych testowało. Twierdzili, że ChatGPT lepiej sobie radzi (co jest oczywiste, bo z pewnością posiada znacznie więcej danych Qlikowych, niż moje pobieranie kodu) ale, że jest ok do prostych i średnio zaawansowanych rzeczy. Z pewnością przyspieszy pracę. Więc wdrażamy. Wdrażamy? Oczywiście, że nie. Oto co się stało
@pa6lo: To prawda. Nie mam żadnych problemów z tym, jak potoczył się ten miesięczny projekt. Jednak fascynuje mnie to, jak wiele hajsu można spalić w korpo.
Jednak fascynuje mnie to, jak wiele hajsu można spalić w korpo.
@JamesJoyce: Część osób widząc jak marnowane są pieniądze w firmach traci poczucie, że ich praca cokolwiek znaczy i szybciej się wypalają w zawodzie albo zupełnie tracą motywację.
@fasola_i_groch prawie 6. Wiem, że tak jest, ale jednak sporo rzeczy postawiłem na produkcji. W gruncie rzeczy, jak pisał @1001001 jest to rozczarowujące.
#powodz #polska #beka #heheszki Wyobrazcie sobie, ze w tym chlewie obsranym gownie. Straz ma jeszcze takie wozy xD. Brakuje jeszcze koni a z tyłu sprzęt strazacki
Miałem w pracy ostatnio sideproject. Był on prosty: sprawdzić jak łatwo będzie postawić llma, który generowałby kod w syntaxie toola bi o nazwie QlikSense. Oczywiście Qlik posiada coś takiego, ale firma nie zgadza się ani używać ani płacić za to Qlikowi dodatkowego hajsu. Postawiłem LLame2 na gpu cloudowym azure i zrobiłem troche webscrappingu kodu po forach qlikowych, żeby finetunować ten model kodem z qlika, który swoją drogą LLama znała, i radziła sobie poprawnie w prostych rzeczach.
Po pewnym czasie zespół deployowy przeniósł to na jakiś mockupowy layout do testowania. Kilku bi devów testowało. Twierdzili, że chatgpt lepiej sobie radzi (co jest oczywiste, bo z pewnością posiada znacznie więcej danych qlikowych, niż moje scrappingi) ale, że jest ok do prostych i średnio zaawansowanych rzeczy. Z pewnością przyspieszy pracę. Więc wdrażamy. Wdrażamy? Oczywiście, że nie. Oto co się stało dalej:
- Przeszliśmy do korpospotkań najpierw z managerami od danych używanych w daszbordach. Kompletnie się nie zgodzili na używanie i przechowywanie ich danych do dalszych treningów.
- Legal wydarł się na nas, że jakim prawem to hostujemy wgl. gdziekolwiek (nie było tam żadnych danych firmowych, więc zbyliśmy ich śmiechem) i że firma nie posiada jeszcze procedur dla pracy z lmmmi na produkcji z danymi firmowymi (chociaż sam postawiłem tam już z 3). Procedury mogą być za kilka lat.
- Na końcu it się na nas wydarło, że nie posiada infry do deployu prodkcyjnego tego narzędzia i będzie mieć może za 3-4 lata po ustaleniu budżetów
- Projekt poszedł do folderu On Hold
-Kurtyna
Pomimo, że managerowie wyższego szczebla z it chcieli tego rozwiązania, i rozwiązanie zostało stworzone, to pewnie minie kilka ładnych lat, zanim będzie w użyciu.
A poza tym to typical korpo biurokracja xD
1. Zrobiłeś, co chciałeś
2. Masz za to zapłacone
3. Uruchomiłeś międzywydziałową współpracę potwierdzoną tuzinem dokumentów
4. Masz kolejny projekt, który możesz w przyszłości wskrzesić i rozwinąć
5. Nie musisz się teraz przejmować utrzymaniem, nie gniewaj się, lekko upośledzonej Lamy :)
Miałem w pracy ostatnio projekt poboczny. Był on prosty: sprawdzić jak łatwo będzie postawić model generujący kod, który generowałby kod w składni narzędzia analitycznego o nazwie QlikSense. Oczywiście Qlik posiada coś takiego, ale firma nie zgadza się ani używać ani płacić za to Qlikowi dodatkowego pieniędzy. Postawiłem Model Generatywny o nazwie LLama2 na chmurze obliczeniowej i procesorach graficznych firmy Azure i zrobiłem trochę pobierania kodu ze stron internetowych po forach Qlikowych, żeby dostroić ten model kodem z Qlika, który swoją drogą model znał, i radził sobie poprawnie w prostych rzeczach.
Po pewnym czasie zespół wdrażający przeniósł to na jakiś wzorcowy układ do testowania. Kilku analityków biznesowych testowało. Twierdzili, że ChatGPT lepiej sobie radzi (co jest oczywiste, bo z pewnością posiada znacznie więcej danych Qlikowych, niż moje pobieranie kodu) ale, że jest ok do prostych i średnio zaawansowanych rzeczy. Z pewnością przyspieszy pracę. Więc wdrażamy. Wdrażamy? Oczywiście, że nie. Oto co się stało
@JamesJoyce: Część osób widząc jak marnowane są pieniądze w firmach traci poczucie, że ich praca cokolwiek znaczy i szybciej się wypalają w zawodzie albo zupełnie tracą motywację.