✨️ Obserwuj #mirkoanonim
Mirki mam pytanie o przyszłość i stan rynku IT, uczę się w kierunku analizy danych chce iść w kierunku DA/BI stack: sql, power bi, podstawy pythona. Potem w chciałbym do tego dołożyć clouda i iść w kierunku data engineering/cloud engineering. Na jednej z grupek juniorskich jakaś babka pisała że zapotrzebowanie na juniorów w analizie danych będzie spadać bo do Power Bi wchodzi copilot. No i pytanie do Was czy mieszkając w dużym mieście znajdę jeszcze robotę w tej działce czy już za późno? Jak wygląda zapotrzebowanie na tym rynku oraz ilość chętnych? Też jest taki młyn jak we frontendzie? Szczerze mówiąc rozpoczynając naukę do DA to myślałem że to kierunek z dużymi perspektywami rozwoju no bo jednak ilość danych produkowana przez ludzi stale rośnie. Będę wdzięczny za fajną dyskusję.
#powerbi #businessintelligence #analizadanych #bigdata #analityk15k #dataanalyst #analityk #programista15k #datascience #sql #dataengineering #excel #pracait

Jak tam po ogłoszeniach? Co do samego PowerBI, to chyba w końcu jakaś fajna paczka updateow, ktora powinna znacznie ułatwić prace. W końcu będzie można szybko przetestować jakieś miarki robocze podczas ich tworzenia i myślę, że co-pilot do pisania DAXow też może być fajna pomoca. Było jakieś info kiedy ten update wejdzie konkretnie?

Natomiast nie wierzę w ten co-pilot do tworzenia samych raportów, ludzie z biznesu często sami nie wiedza czego chca
  • 0
@przecietnyczlowiek: niestety obecnie na projekcie nie mam Power BI Admina a nie chce mi sie wbijac ticketa czy by mogli mi wlaczyc do testow xD własnie widziałem gdzieś ze ta opcja w czerwcu/lipcu ma byc GA i tak wiec rozumiem, że wszędzie będzie właczone ale własnie czy to oznacze, że workpsace, któym obecnie stoi na Premium Capacity, dostanie nagle jakies nowe super moce z Fabric? xD
  • Odpowiedz
@przecietnyczlowiek: mnie to się marzy guzik do wyłączania interakcji ze wszystkimi innymi wizualkami, albo, żeby było można sprawdzić na które elementy działa bookmark... albo chociaż, żeby header icons można było ustawić na wyłączone, a maintain lawyer order włączone z defaultu.

A tak najbardziej to już bym chciał, żeby edytowanie datasetu tabular editorem i incremental refresh na serwisie nie blokował możliwości pobierania datasetu.
  • Odpowiedz
#powerbi
Siemano, znacie jakis sposob zeby elegancko wyexportowac przypisane osoby do RLS permission. Chcialbym potestowac przypisane role, porblem w tym ze jest ich kolo 4000 i srednio mi sie chce isc emailem jeden po drugim?
  • 0
@Kracha
Niestety biznesowe wymaganie. Chca miec wylistowane wszystkich uzytkownikow uwaga 5000 i do jakiego dzialu/departamentu/itp maja dostepy. Na prozno tlumaczyc tym ze uzywalem dynamicznego rls i wszystko bylo opisane w pliku wsadowym i przy kazdym mailu uzytkownika byl opis. Maja byc testy i chooj xd
  • Odpowiedz
@Filipino7: W takim razie dalej czegoś nie rozumiem. Jeśli używałeś dynamicznego RLS'a, mam tu na myśli z wykorzystaniem "user #!$%@? name" (haszuje jak piszę nierozłącznie), to znaczy, że musisz mieć listę userów w tabelce po stronie modelu na podstawie której określona została logika RLS'a. I na podstawie tej tabelki powinieneś być w stanie wyciągnąć do czego dany user ma dostęp.
  • Odpowiedz
Czy są tu jakieś PowerBi-owe świry? Siedzę nad tym już kilka godzin i nie mam pojęcia jak to zrobić:

Na początku zaznaczę, że jestem dość początkujący, więc nie bijcie proszę.

Mam kilka kolumn w których wartości to Yes i No. Dla każdej stworzyłem miarę, która zlicza ilości wierszy z wartością No. Chciałem z tego stworzyć wykres słupkowy i uporządkować go sobie po liczbie wartości, ale sortowanie nie działa. Próbowałem już różnych rzeczy, między innymi stworzenia miary, która sumarycznie zlicza wiersze "No" i wyświetlenie wartości dla każdej z kolumn, ale wychodzą jakieś dziwactwa

Jakieś
  • Odpowiedz
#biedanonim
Jeśli ktoś ma jakiekolwiek pomysly to proszę aby się nimi podzielił.

Obecnie w moim teamie (nie jest to dzial BI) raportujemy używając tylko excela. Pojawiło się wymaganie biznesowe, któremu sprostać mozna tylko przy użyciu power pivot (zakladajac, ze dalej bazujemy na excelu) a w power pivot jak wiadomo jest DAX.

Mam już wystarczającą wiedzę i umiejętności z zakresu modelowania
@mirko_anonim
Większą interaktywność i lepsze funkcjonalności raportu oraz bogatsze wizualizacje.
Możliwość zaimplementowania row level security i dystrybucja raportów do użytkowników na innym poziomie widoczności danych.
Użytkownicy mogą sami subskrybować raporty i otrzymywać je na maila.
Brak limitów na ilość wierszy w tabeli źródłowej. Łatwiejsze utrzymanie i rozwój narzędzia.
  • Odpowiedz
✨️ Obserwuj #mirkoanonim
Cześć, wpis dodaje anonimowo bo mam tu kilka osób z roboty które znają moje konto.
Uczę się od kilku miesięcy w kierunku analizy danych głównie tłukę zadanka z SQL'a i Power Bi. Dodatkowo ogarnąłem sobie podstawy pythona, azure, zrobiłem certy PL-900 i SC-900.
Mój plan jest taki żeby teraz zebrać ładnie do kupy moje wszystkie projekty, dashboardy i wysyłać CV na pozycje analityka danych czy też BI deva. Liczę na to, że dostanę jakieś zadanka do domu i na nich bym się mógł wykazać żeby od razu startować na pozycję juniora a nie staż. Czy to w ogóle możliwe czy jednak się muszę liczyć ze stażem? Dodam że mam 30 lat i do tej pory pracowałem w energetyce przy projektowaniu sieci, studia skończyłem na AGHu ale nie był to kierunek informatyczny tylko pokrewny.
Generalnie po wejściu na stanowisko analityka chce celować w naukę Pythona i pójście w kiierunku data engineera, czy taka droga jest rozsądna?
No i w sumie ostatnie pytanie trochę przewijające się na grupkach powiązanych z IT ale zwykle zadawane w kontekście programistów. Czy uważacie, że wchodzenie w branżę "data" jako DA czy też DE ma perspektywy przy rozwijającym się AI?
Trzy tygodnie temu, chcąc zmienić pracę wysłałem ok. 40 cv. Czas odpowiedzi różny, od jednego-dwóch dni do 2-3 tygodni. Wydaje mi się, że nastąpiły pewne zmiany w porównaniu do ostatniego czasu, kiedy gdzieś aplikowałem (ok 2 lata temu), przynajmniej w moim stacku, związanym z danymi (data engineering, bi i ai).

Z reguły jest więcej etapów rekrutacji i jest ona trudniejsza. Miałem rozmowy, które trwały np. 1,5h i na których zadano kilkadziesiąt pytań.
@JamesJoyce: Jestem Senior Data Engineer i nigdy nie wysłałem więcej niż 3 CV. Wysłanie 40. to dla mnie abstrakcja. Bardziej zajmujesz się BI niż DE i pewnie Tableau a nie chmury i przetwarzanie rozproszone. Jesteś BI i tyle.
  • Odpowiedz
Cześć,
uczę sie #powerbi (jakies kursy porobiłem) i utknąłem na takim problemie:
Mam bardzo dużą Tabelę, którą filtruje po 2 kolumnach i na podstawie wyniku tego filtrowania chce stworzyc kolejna tabelę, z która porobie kolejne rzeczy operacje na duzej trwaja za dlugo). I nie wiem jak ja stworzyc.
TabelaA - [filtry]--> TabelaB -[kolejne operacje-> wyswietlany wynik (tabela)
Może ktos naprowadzic mnie na ściezke jak to zrobić?

ewntualnie -
Jest tu ktoś kto ogarnia Deneba? Zacząłem sobie robić jakaś tam customowa wizualke ale utknąłem w pewnym miejscu i nie wiem jak to zrobić. W skrócie chodzi o to że na przykład na swoim wykresie chciałbym dodać layer z jakimiś kropkami w ustalonych punktach, np dla y= 1,2,4, żeby dla każdej kategorii na osi x pojawila się kropka na wykresie
#powerbi dodam jeszcze #javascript bo chyba ten vega-lite
  • Odpowiedz
Czy u was w firmach przy utrzymywaniu/tworzeniu raportu macie podział na środowiska dev/test/prod? Utrzymujemy w pracy dość duży raport z którego codziennie korzysta kilkadsiesiąt osób. Jest to mój pierwszy projekt w pbi ale dość mocno mnie zdziwiło że nie ma podziału na środowiska i wszystkie zmiany są robione w jednym workspace. Jak to jest u was i czy dzielenie tego ma sens? #powerbi #analizadanych
@rickrickrick: obecnie masz deployment pipelines, więc jeśli jest licencja premium, albo capacity to dlaczego z tego nie korzystać. Dostajesz idealny podział na dev/test/prod zautomatyzowany w serwisie. Ja się różnie spotykałem, niektóre raporty to zmiany na żywca, ale takie bardziej złożone to widziałem u mnie tylko test/prod.
  • Odpowiedz
@rickrickrick:
Dużo zależy od dojrzałości organizacji i działu BI w którym pracujesz oraz ważności samego narzędzia dla biznesu. Często jest tak, że firmy które nie wypracowały sobie jeszcze odpowiednich praktyk i procesów rozbijania narzędzi raportowych zostawiają ten temat samemu sobie i często kończy się tak, że CI/CD praktycznie nie istnieje. Ktoś zrobi rozwiązane na jednym środowisku, będzie je utrzymywał/rozbudowywał, przyjdą kolejni, przejmą zobaczą jak jest i tak zostawią.

Zwykle kolejnym krokiem, jak raport jest ważniejszy i strach na pałe wszystko zmieniać na prodzie, jest dorzucenie środowiska dev/UAT osobnego, ale to ciągle zalążki porządnego procesu.

Moim zdaniem takie minimum CI/CD to, jak wspomniał @cohontes, używanie wbudowanych deployment pipelines - super proste narzędzie, nie wymagające praktycznie żadnego wysiłku na stworzenie procesu i przy raportach które służą większej grupie osób korzystanie z tego powinno być standardem. Docelowo DEv jest dla Ciebie, tam wrzucasz wszelkie zmiany, testujesz nowe możliwości etc., potem leci na UAT gdzie zmiany są udostępnione użytkownikom i po
  • Odpowiedz
Cześć Mirki, proszę o radę.
Obecnie jestem w trakcie studiów, kończę licencjat z ekonomii, jednak chciałbym swoją przyszłość związać z analizą danych. Pracuję w księgowości, lubię pracować z danymi stąd ta decyzja. Excela znam perfect, do tego trochę VBA, Power Query, SQL na poziomie basic ale wciąż się uczę, to samo Python, również szkolę się w Power BI. W moim mieście na uczelni prywatnej otworzyli nowy kierunek studiów podyplomowych "Analiza danych". Studia
@jasha: czyli mówisz, że w 16h gówno zdziałasz, a potem twierdzisz, że lepiej poznać gówno, za które to jeszcze płacisz circa 10k rocznie xD. To co w 16 h ci wyłożą to równie dobrze masz w dokumentacji i też poznasz narzędzie. A jak nie dadzą ci żadnej konkretnej wiedzy, ponad to co samemu można przyswoić w przystępnej formie, to zwyczajna strata kasy
  • Odpowiedz
siema mirki, macie jakieś rady w jaki sposób najlepiej pracować z wieloma plikami excelowymi w PowerQuery? Robię sobie prosty dashboard demograficzny korzystając z danych GUSowskich i moim źródłem danych są excele - jeden excel na jeden powiat, wychodzi więc jakieś 380 plików xlsx. Ta liczba nie jest raczej problemem jeśli chodzi o transformacje, bo wszystkie mają identyczny układ, więc ich przerobienie jest bardzo proste i przyjemne, problem w tym, że kiedy chce
diego_gonzales - siema mirki, macie jakieś rady w jaki sposób najlepiej pracować z wi...

źródło: oświeżanie_pq

Pobierz
@diego_gonzales: Konsolidacja to jeden trop, ale do samego procesu tworzenia zapytań najlepiej przyciąć źródła do jakiejś niewielkiej próbki i na niej zbudować model, a później tylko przywrócić pierwotne źródło. Czasem upierdliwe jest stworzenie materiału uwzględniającego wszystkie niuanse pełnych danych, ale trzeba pamiętać, że wtedy każda najmniejsza modyfikacja kwerendy odbywa się w locie i ostatecznie oszczędza się masę czasu i nerwów.
  • Odpowiedz
@Metylo @przecietnyczlowiek: @yelonec darmowe materiały tworzone i udostępniane przez koleżankę są tak tragicznie słabej jakości, że czasem czytanie tego boli (ostatnia roadmapa nauki to był chyba szczyt wszystkiego - widzę ze teraz została skasowana i cała radosna twórczość zastąpiona grafiką "Naucz się excela, sql, power BI, zrob raport i pracuj" xD ), a ich tematyka w większości przypomina jakiś kołczowy scam i w żadnym razie nie ma żadnej
  • Odpowiedz
@Metylo: @Niemamwiedzy @przecietnyczlowiek @yelonec @Sad_poyato @cohontes @vateras131 Jak wchodziłem do branży BI to ją na początku śledziłem bo myślałem że to jakieś fajne miejsce w PL gdzie będzie aktualna wiedza, trendy, info o aktualizacjach np. w PBI, jakieś ciekawostki itp. Babka co jakiś czas robi live czy to sama czy z jakimiś rekrutywkami i nagania ludzi na wejście do branży. Zapisałem się z ciekawości
karmazynowy20 - @Metylo: @Niemamwiedzy @przecietnyczlowiek @yelonec @Sad_poyato @coho...

źródło: pbiblog2

Pobierz
  • Odpowiedz
Cześć,
w korpro którym pracuje pojawiła się interesująca mnie oferta pracy (pic rel). Niby Data Analyst, ale z opisu jednak PBI Developer ( ʖ̯), w każdym razie chciałbym się dowiedzieć czego tak na prawdę musiałbym się nauczyć, żeby aplikować i być może ktoś byłby w stanie przybliżyć jak mniej więcej wygląda taka praca?
W tej chwili pracuje na stanowisku junior analityk danych i nawiązując do wymagań w ogłoszeniu tak opisałbym swoje obecne umiejętności:
-Excel, z tego czuje się najmocniej i raczej się nie obawiam, Pivoty, PowerQuery, bardziej skomplikowane formuły, trochę VBA jak jest potrzeba itd.
-SQL (nie miałem styczności z Databrics - nie wiem co to), uczyłem się dosyć dawno temu i z racji, że nie używam w ogóle w obecnej pracy to wiele zapomniałem, ale tak na szybko z tego co pamiętam to proste zapytania z joinami/where/having, jakieś agregacje sum/min/max/avg, stworzenie temp table i działanie na niej. Co jeszcze? Na pewno musiałbym odświeżyć pamięć.
-PowerBI, w tej chwili w pracy używam go głównie do generowania danych z różnych modelów danych, czy to przez stronkę w przeglądarce czy przez wersje desktopową. Często robię sobie kopię jakiegoś modelu danych i wrzucam do tabeli interesujące mnie miary, ale jednak ja ich nie tworzę, nie wiem jak się znalazły w tym modelu i w jaki sposób zaciągają danę z różnych systemów ERP. Moje jedyne doświadczenie z tworzeniem modelu danych/raportu w PowerBI to było zaciąganie danych z excela i zrobienie jakiegoś dashboarda. Z DAX-a również
Pojzon - Cześć,
w korpro którym pracuje pojawiła się interesująca mnie oferta pracy (...

źródło: analityk

Pobierz
-SQL (nie miałem styczności z Databrics - nie wiem co to), uczyłem się dosyć dawno temu i z racji, że nie używam w ogóle w obecnej pracy to wiele zapomniałem, ale tak na szybko z tego co pamiętam to proste zapytania z joinami/where/having, jakieś agregacje sum/min/max/avg, stworzenie temp table i działanie na niej. Co jeszcze? Na pewno musiałbym odświeżyć pamięć.


@Pojzon: poczytaj o databricks. z samego SQL'a to rozważ takie zadania:
-stworzenie tabelki
-załadowanie do niej danych z drugiej tabelki ze zmienionymi polami (np. pomnożenia jednego pola przez drugie, zrobienie lookupu (joina) do drugiej tabelki) (polecenie insert into select from)
-querowanie danych select from where group
  • Odpowiedz
  • 0
Zapomniałem dodać, że mam również darmowy dostęp do kursów na udemy - być może ktoś coś poleci?
  • Odpowiedz
@LucaJune: tak naprawdę zależy co tam robisz tym notebooku. Ale generalnie chodzi o to, żeby to było w miarę logicznie podzielone. Żeby jasno było widać twój ETL/ELT flow i np. jeden notebook odpowiadał jednemu outputowi docelowemu (np. przetworzonej tabeli) Np. jeżeli masz jeden notebook w którym ładujesz 5 tabelek (wymiarów np.) po kolei no to trochę to jest źle. Lepiej zrobić to odzielnie bo np. wtedy w pipelinach jesteś w
  • Odpowiedz
@LucaJune: nie wiem jaki wolumen danych, nie wiem czy to spark notebook czy sql notebook. No jeśli zapisywanie do adls2 trwa długo to musisz sprawdzić jaki masz storage ustawiony, może cold tier? I czy ten sam region przede wszystkim co synapse. No i czy dane są popartycjonowanie jakoś sprytnie i w jakim formacie. Jeden duży .csv to zły pomysł. Powinno być wiele parquetów. Ale zbyt wiele małych plików to również
  • Odpowiedz
@rickrickrick: Pewnie podstawy sql, baz danych, relacje, trochę power query itd. Generalnie wpisz w google top100 power bi interview questions i to co tam będzie, było na znacznej części rozmów, w których uczestniczyłem.
  • Odpowiedz
@zibizz1: kontrahent z USA w razie czego podpisze co bede chcial bo ma #!$%@? na jakas urzednicza grazyne z polski i woli zebym wiecej zarabial :) Rownie dobrze moge pisac kod na pelen etat a na fakturze i w umowie bedzie cokolwiek co sie lapie na 8.5%
  • Odpowiedz
Szukam porady od osób pracujących w controllingu. Otóż, jestem analitykiem finansowym/kontrolerem z 6 letnim stażem w branży (FMCG, produkcja), który chciałby wreszcie trafić na w miarę poukładaną firmę z teamem profesjonalistów w dziale, którzy znają się na rzeczy i chętnie dzielą się wiedzą. Wiem, że brzmi to jak bajka, jednak uważam że takie firmy to nie jednorożce i faktycznie istnieją. Przecież można pracować na narzędziach, które wnoszą więcej niż sam excel, którym