Wpis z mikrobloga

Siema, jutro mam pierwszą ever rozmowe techniczną na Big Data Dev'a. Macie jakieś porady, może pytania jakie występują ? Stack wymagany: Scala, Spark, Flink, Hadoop ( ogólnikowo bo nie wiem czy chodzi o hadoop czy o hadoop + frameworki) ale pewnie tak. Generalnie #!$%@? interview questions z google itp ale stack jest tak ogromny że przyswojenie tak dużej ilości wiedzy bez miesięcy praktyki jest ciężkie więc jedynie jak mogę odpowiedać to chyba teoria bo praktyka leży xd
#bigdata #pracait
  • 29
@programistalvlhard: Stack bardzo standardowy. Przede wszystkim powiedz jakie masz doświadczenie i czy interview jest na jakiś konkretny level(junior, mid, senior). Rekrutowałem na takie stanowisko przez ponad pół roku więc pewnie mogę jakoś pomóc. Jak ogłoszenie jest publiczne to też możesz podesłać, może uda się coś wywnioskować z opisu albo znam firmę i coś podpowiem.
Ja zawsze sprawdzałem zrozumienie środowiska hadoopowego, tzn czy wiesz jak ze sobą współpracują poszczególne elementy. Tzn musisz wiedzieć że na najniższym poziomie nie ma czegos takiego jak hadoop, jest tylko hdfs, yarn, hive, hbase itp. Warto wiedziec czym sie rozni hive od hiveserver2 od mestastore i na jakiej zasadzie dziala integracja spark-hive(spark ma wlasny ewaluator do query hiveowych i bazuje na danych z metastora). Nigdy nie pytałem o API sparka ani kolekcji
@Krever: eh to można powiedzieć że pozamiatane :P Niestety ale przy zmianie stacka z PL/SQL nie jest to takie proste ogarnąć tonę informacji o wszystkich elementach hadoopa a dodatkowo jeszcze ogarnąć na dobrym poziomie np scalę i spark'a. No ale spróbuję to przynajmniej będę wiedzieć jakie pytania zadają na interview ( ͡° ͜ʖ ͡°)