Wpis z mikrobloga

@mizantrol: Float jest niedokładnym typem danych. Wynika to z tego, że po przecinku możesz mieć w liczbach nieskończenie wiele cyfr, a komputer ma ograniczoną pamięć. Trzeba było pójść na kompromis, więc float zawsze jest kodowany za pomocą takiej samej ilości znaków (tzn. jest to ciąg zer i jedynek) i im więcej cyfr po przecinku mamy do zapisania, tym mniej dokładny wynik możemy uzyskać. Stąd biorą się takie kwiatki typu 0.000000000001 niedokładności