и т.д. htons есть только для 16 или 32 битных чисел. На стаковерфлоу написано что 8 бит не надо переводить. Так мне надо переводить порядок байт или нет?
1 байт не надо переводить)
например 15 в uint16 little endian это 0x0F 0x00 в uint16 big endian 0x00 0x0F в uint8 0x0F тут никакой вариации быть не может
Допустим я хочу отправить на сервер строку. Строка: "Hello!". Я кодирую длину строки 6 в двух байтах(uint16). И каждый символ в виде ascii(по 1 байту, uint8_t). Нужно переводить байты? Скорее всего да.
тебе нужно переводить длину строки, но не саму строку.
смысл конвертации между little endian/big endian в том, что разные архитектуры процессоров кодируют байты чисел в разном порядке. Если ты отправляешь массив uint16_t, то тебе нужно переводить каждое число в какой-то портабельный формат. Например используя фунцию htons (host to network short), конвертирует uint16_t из формата используемого твоим процессором в network byte order (big endian). При этом порядок элементов в массиве никак менять не нужно. Тоже самое, если ты передаёшь массив байт - порядок элементов менять не нужно.
А если я отправляю 4 + 3 + 7 + 2 + 16 + 8 + 3 + 5 бит?(6 байт, но числа разделены на биты. К примеру в 1 байте может быть 2 числа до 127)
если ты одними лишь побитовыми операциями пакуешь числа в массив байт, то конвертить ничего не надо.
конвертация нужна ТОЛЬКО если ты полагаешься на байтовую репрезентацию uint16/32/64_t. в плане, если ты делаешь uint16_t val = 1234; send(fd, &val, sizeof(val), 0); то байты которые отправятся зависят от имплементации C. если ты делаешь uint16_t val = 1234; uint8_t packed_val[2] = { val, // 8 least significant bits of val val >> 8, // 8 most significant bits of val }; send(fd, packed_val, sizeof(packed_val), 0); то байты которые отправятся НЕ зависят от имплементации, и этот код будет работать одинаково на любой системе. (В данном примере они пакуются в little endian, потому что менее значимый бит лежит на меньшем индексе)
Обсуждают сегодня