Wpis z mikrobloga

@Golomp:
Z całym szacunkiem, ale Wikipedia jest słabym źródłem informacji. Popatrz sobie jeszcze na przypis i zobacz, że właśnie uznałeś za prawdziwą informacje pochodzącą z jakiejś stronki, gdzie się zadaje pytania.
  • Odpowiedz
Z całym szacunkiem, ale Wikipedia jest słabym źródłem informacji.


@Domara: Ja wiem, że w wielu przypadkach tak jest, ale kwestionujesz, że predrostek mega to 1000000 a giga to 1000x więcej?
  • Odpowiedz
@djmatthaeus:
@wicherson:
@Golomp:
@plnk:
Tu chodzi o spójność układu SI.
Kilo - tysiąc
Mega - milion
Giga - miliard
Do krytej jednostki miary użyty jest przedrostek, nie ma znaczenia.
Fakt, historycznie do określenia ilości danych zwykło się używać potęg dwójki ale właśnie dlatego, że robiło to bałagan w SI, zestandaryzowano i wprowadzono te oznaczenia typu: KiB, MiB, GiB i są one co raz powszechniej stosowane. Oczywiście nie przez
  • Odpowiedz
@szpongiel: Spory wkład do GB vs GiB wprowadza w tej dziedzinie informatyczny król przestrzegania standardów czyli Microsoft.

Jakoś FOSS jest bardziej skłonne do używania GiB zamiast GB jako 1024, jak i w ogóle innych poprawnych, choć niekoniecznie powszechnie stosowanych rzeczy/standardów.
  • Odpowiedz
@Gorion103: MS stosuje opis JEDEC (organizacja związana z pamięciami).
Nie myl k z K. Przed chwilą zapisalem milion bajtów na dysk i pokazał mi 976KB czyli prawidłowo wg terminologii JEDEC.
Wszyscy wiedzą, że w komputerach KB, MB, GB to jednostki pochodzące z potęgi 2, to producenci dysków mieszają pisząc 500GB zamiast napisac 500GB (=500*1000 0000 000 bytes).
Przeciętny człek nie wie co to KiB czy MiB (to drugie skojarzą z filmem).
  • Odpowiedz
@Golomp: Czytanie ze zrozumieniem. Gimbaza ukończona?

W informatyce przedrostek mega zwykle oznacza liczbę 1 048 576 i jest wynikiem działania 1024 · 1024 = 220, w odróżnieniu od układu SI, gdzie 1000 · 1000 = 106 = 1 000 000.
  • Odpowiedz