и decimal.
если всё делать в компьюте... да
В видеокартах всё и очень сильно завязано на float?
зачем?
Мне не нравится двоичная природа float. В своём проекте я использую decimal, вместо float. Потом буду осваивать openGL, и задался вопросом, а можно ли там тоже не использовать float.
Недвоичные системы счисления в компьютере не нужны
Да, но операции над целые числами не дают ошибку округления или погрешность, как с float.
каждому, кто псит на флоаты, рекомендую поработать с численным кодом с fixed-point numbers
Это как? А что они делают когда результат нецелый и не помещается в отведенную память?
Дают и порой покруче чем у флоатов, у флоатов прикол в том, что у них погрешность зависит от значения числа, больше число, выше неточность, а отличии от целых у которых погрешность всегда одинаковая
Расскажи как ты представишь 1/3 в decimal. Точно.
Если хранить как делитель и делимое, тогда запросто).
Это уже не fixed
Вполне себе рабочий вариант, только когда начнешь sin/cos считать, то обнаружишь что все функции только во флоат. (Соррян, чутка некропостинг)
Ага. Поэтому и написал потом, что начнёся боль, когда понадобятся математические и тригонометрические функции.
Блин, я помню в книге одной товарищ для оптимизации как-то два числа объединял в другой тип и делал операции >>x & 100600... чтобы их преобразовывать, поэтому думаю можно
Обсуждают сегодня