процессора алгоритмов?
Сейчас поясню всю суть.
Я программирую матричные панели с большим кол-вом панелей на stm32. Там делаю бегущую строку и всякие надписи. Использую библиотеку adafruit gfx, но она не оптимизирована, там ужасные алгоритмы используются.
Чтобы не мучиться на stm32 c отладкой и оптимизацией кода, написал стимуляцию дисплеев на Qt.
Перевел все методы этой библиотеки на Qt и теперь рисует точь в точь.
Сделал бегущую строку и вычисляю время выполнения рисования бегущей строки с помощью QElapsedTimer. Наносекунды переводил в милисекунды
Все отлично. Показывало мне 0-9 милисекунд в зависмости где находится текст (за экраном, в начале и т.д.)
Все оставил работать, ушел на 5 минут. Прихожу, вижу тесты показывают 0-2 милисекунды. Не понял в чем дело. Закрыл программу, запустил заново и теперь опять показывает тот же диапазон 0-2. Оптизация в компиляторе не стоит, код не менял, ничего не трогал.
Пример программы, чтоб вы понимали
не понял проблемы,текст рисуется быстрее?
По примеру программы не совсем понятно в чем проблема, что за 0-9 миллисекунд
у этих таймеров гранулярность миллисекунд 10-50. нужно использовать что-нибудь более внешнее и точное
Обсуждают сегодня