оценки сложности алгоритма? Проблема в следующем есть большой массив для которого есть достаточно сложный алгоритм фильтрации и сортировки в несколько рекурсивных проходов, и несколько вариантов как это можно реализовать, надо найти оптимальный. Понятно что можно просто бенчмарком определить скорость выполнения и подобрать наименьшее. Но может есть какие нибудь решение которые не просто время помериют а количество итераций заранее прочитают?
Что мешает вручную инкрементить атомарный счётчик на каждой итерации?
Тут проблема ещё в том что каждый раз массив разный и в зависимости от содержимого можно и за один проход посчитать а можно и за 20. Там идёт сопоставление элементов массива и определенному критерию. Ладно попробую в ручную посчитать ну или генерировать множество вариантов и счётчиком промерять и искать среднее значение. Эх пойду ещё посмотрю какие алгоритмы есть мож я чето упускаю))
Ну, у тебя даже qsort за одинаковую О нотацию не выполняется на разных данных
сейчас углубляюсь в алгоритмы и структуры, прям сильно, я даже не представляю как библиотекой можно посчитать сложность алгоритма, учитывая, что кол-во входных данных может варироваться🧐
Обсуждают сегодня