куда смотреть и как разбираться.
Бенчмаркаю свой код (естественно с -O2). Есть бенчмарк, в котором только запись интов в память с какими-то ифами. На маке (и с apple clang, и с gcc) выполняется меньше наносекунды. На виртуалке с linux (также и clang, и gcc) ровно для этого же кода стабильно выдают результат около 70000 нс. Посмотрел на виртуалке на strace -r -T исполняемого файла. Вижу два последовательных сисколла:
0.000297 clock_gettime(CLOCK_THREAD_CPUTIME_ID, {tv_sec=0, tv_nsec=89691223}) = 0 <0.000021>
0.701938 clock_gettime(CLOCK_THREAD_CPUTIME_ID, {tv_sec=0, tv_nsec=791423182}) = 0 <0.000047>
После = в <> написано время выполнения самого сисколла. Слева в начале строки временные метки относительно прошлого сисколла (если я правильно интерпретирую флаг -r у strace). Т.е. получается какая-то дорогая работа без сисколлов происходит между двумя этими вызовами. Как-то можно затрекать, что конкретно происходит? В какую сторону можно посмотреть? Мб это кешмиссы какие или ещё что.
похоже что код бенчмарка вызывает нечто вроде rdtsc, в результате чего проваливается в супервизор, это считай как сискол (а то и целых два, если в гостевой оси запрос счётчика тоже через сискол)
Обсуждают сегодня