в частности пишут про включение производительного режима электропитания в Windows. Подскажите, есть что-то подобное в Linux системах (для примера возьмем Ubuntu Server)? Может для Ubuntu есть какой-то чек-лист, что нужно проверить чтобы не натыкаться на элементарные грабли?
в новой 22 есть прямо в графике сверху справа схема электропитания в старых sudo systemctl disable ondemand с последующим рестартом железки
Спасибо, изучу. Интересует оптимизация как виртуальных машин так и контейнеров работающих под управлением Proxmox.
Вы лучше изучите какая виртуализация изначально быстрее, это точно не proxmox)
Если не стоит задача по live-миграции виртуалок между нодами, то для максимальной производительности ставьте тип процессора у виртуалки host. Если таки требуется миграция без остановки, то смотрите какой самый старый процессор из всех участвующих в кластере нод, и выставляйте его. Но тогда будет некоторая деградация производительности из-за неиспользования всех фич новых процессоров.
Строго говоря, proxmox это не про виртуализацию. При использовании виртуальных машин и выставлении типа процессора host, падение производительнсти от голого железа будет на уровне статпогрешности, если запускать контейнеры, то там вообще исполнение bare-metal. Да, если оставлять тип процессора по-умолчанию, то все будет медленно и печально, ибо тогда проц заявляется как некий Pentium4, со всеми вытекающими.
Давно за этой поделкой не слежу, они уже научились привязывать виртуальные ядра к физическим 1 к 1?
Ну в контейнере LXC в принципе физические используются.
Возможно я какие-то не правильные замеры сделал, но в моем тесте изменение типа процессора вообще не повлияло на результаты замеров.
Так частота и базовый набор команд и там и там одинаковый, с чего бы у теста, который нарисован чтобы запускаться на всем x86 вдруг вылезла разница? Вот на прикладных задачах разница возникает, когда вместо исполнения одной команды CPU ядро генерит исключение и выполняется уже эквивалент из множества других команд. Просто сравните в выводе lscpu секцию flags: host: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes6 4 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch cpuid_fault invpcid_single ssbd ibrs ibpb stibp tpr_shadow vnmi flexpriority ept vpid e pt_ad fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm mpx rdseed adx smap clflushopt intel_pt xsaveopt xsavec xgetbv1 xsaves dtherm ida arat pln pts hwp hwp_notify hwp_act_window hwp_epp md_clear flush_l1d arch_capabilities виртуалка: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx lm constant_tsc nopl xtopology cpuid tsc_known_freq pni cx16 x2apic hypervisor lahf_lm cpuid_fault
Обсуждают сегодня