Aktywne Wpisy
Kopyto96 +220
Ten typ to fenomen xD Wrzuca kilkanaście filmów w miesiącu, za każde lekko ponad milion wyświetleń, zbija pewnie grube siano przy takiej ilości i monetyzacji, a po prostu recenzuje obiektywnie żarcie. I to z reguły takie proste żarcie. I to jest proszę Państwa NISZA. On się w nią wbił.
Tak, nisza, bo po prostu każdy już się zdążył sprzedać i jeździ wypolerować berło za hajs xD Czyli nagrać, jakie to super jedzenie
Tak, nisza, bo po prostu każdy już się zdążył sprzedać i jeździ wypolerować berło za hajs xD Czyli nagrać, jakie to super jedzenie
daeun +60
Tatuaż jest fajny. Tak. Gdy masz naście lat, fiu-bździu w glowie, a Twoje życie to głównie impreski w towarzystwie YOLO koleżanek. XD
Pózniej przychodzi etap stabilizacji, z biegiem lat stajesz sie żoną, pozniej matką i dorabiasz się wnuków. Wtedy zaczynasz zauważać że ten czaderski motyw wilka, który był taki COOL w 2002 roku srednio już pasuje Tobie jako babci i kobiecie na stanowisku.
Zaczynasz wiec, podobnie jak Ewelina Lisowska, mysleć nad laserowym
Pózniej przychodzi etap stabilizacji, z biegiem lat stajesz sie żoną, pozniej matką i dorabiasz się wnuków. Wtedy zaczynasz zauważać że ten czaderski motyw wilka, który był taki COOL w 2002 roku srednio już pasuje Tobie jako babci i kobiecie na stanowisku.
Zaczynasz wiec, podobnie jak Ewelina Lisowska, mysleć nad laserowym
W dużym skrócie „information content” mówi nam jak zmieniła się nasza wiedza po zajściu pewnego zdarzenia. Im mniejsze prawdopodobieństwo tego zdarzenia (oznaczone jako p), tym więcej informacji dostaliśmy. Z matematycznego punktu widzenia information content (oznaczony jako h) jest równy h = log2(1 / p). na przykład jeśli p jest równe 0.9, to h wynosi około 0.15 bita (bit jest tutaj jednostką informacji, tak samo jak kilogram jest jednostką masy, nie oznacza zer i jedynek).
Drugim bardzo ważnym pojęciem jest „source entropy” (oznaczone jako H). To średnia wartość informacji jaką możemy uzyskać z jednego lub więcej zdarzenia. A więc im wyższa entropia tym lepiej. Aby ją obliczyć po prostu mnożymy information content każdego zdarzenia przez prawdopodobieństwo jego prawdopodobieństwo, a później wszystko dodajemy. Jeśli więc mamy dwa zdarzenia A i B, z prawdopodobieństwami 0.1 i 0.9, wtedy H jest równe około 0.47 bita.
Teraz przechodzimy to clue tego wpisu – zadanie domowe!
1) Kiedy entropia jest największa?
2) Na stole jest 12 pozornie identycznych różowych piłek. Jedna z tych piłek jest albo cięższa, albo lżejsza niż 11 pozostałych. Naszym zadaniem jest znalezienie jej znalezienie. Do dyspozycji mamy oczywiście tylko oldschoolową wagę szalkową ( ͡° ͜ʖ ͡°) W najlepszym z możliwych przypadków, ile ważeń potrzebujemy, żeby znaleźć tę piłkę?
3) Czy strategia do rozwiązania problemu z piłkami sprawdza się w każdym z możliwych przypadków?
Jak zwykle, jeśli macie jakieś pytania, walcie śmiało.
#telcozwykopem – tag do obserwowania / czarnolistowania.
#technologia #telekomunikacja #radiokomunikacja #lte #5g i trochę #matematyka
Edit: Jeśli w przeciągu 24 godzin nikt nie poda prawidłowej odpowiedzi, to sam dodam wytłumaczenie problemu i zawołam wszystkich plusujących ten wpis.
Miały być 24 godziny a minął prawie tydzień (╯︵╰,) Bardzo za to przepraszam.
Wracając jednak do pytań
1) Entropia jest największa, kiedy prawdopodobieństwo wszystkich możliwych zdarzeń jest identyczne.
2) Entropia mówi nam ile informacji dostajemy. Sztuczka więc polega na tym, żeby dobrać ważenia tak, aby entropia była jak największa (stąd poprzednie pytanie). Przy odrobinie szczęścia, potrzebujemy tylko trzy ważenia aby znaleźć problematyczną
Seria wykładów, która tłumaczy czym jest entropia i z której zajumałem pytanie z piłką.