замерялись разные показатели через 6 недель, 3 месяца и 6 месяцев.
Моя задача узнать есть ли стат значимая разница между 2 выборами (пили лекарство, не пили), а также эффект влияния времени.
Я прочла, что для этих целей используется two-way Repeated Measures ANOVA. Но в этом тесте присутствует предположение о нормальности распределения данных. В моем же случае распределение left skewed. Могу ли я использовать при таких данных для сравнения Friedman's test?
Буду благодарна за ваше внимание к вопросу и ответы)
Всем отличного дня!
Да, можно, он как Анова работает. Фридман как раз непараметрический и ему не нужна нормальность
Спасибо за ответ!
Я видел у вас там какой-то вопрос был про тип данных — там главное что порядковые величины типа «от 1 до 10», или обычные недискретные данные. А так асампшены стандартные: группы взяты случайно, есть хотябы какой-то приличный минимум наблюдений,
Да, вопрос был, ответ нашла сама, поэтому удалила. Спасибо)
Я бы использовал анову все-таки. Анова весьма устойчива к нарушениям нормальности, на практике фридмана/краскал-уоллеса редко использую и там тупо нельзя сделать многофакторных дизайнов. В крайнем случае, можно преобразовать переменную
А как же классическая теория? :)))
А что классическая теория? Благодаря цпт отклонения от нормальности в исходном распределении не так страшны. Да и в жизни не бывает чистых нормальных распределений
только нормальность распределения остатков, а не данных
А если данных немного?
Ну вот в этом случае разве что. Но это смотря сколько немного, если, например, меньше пяти, то непараметрика дает нулевую мощность, а параметрика худо-бедно может применяться, пусть и с низкой мощностью
С другой стороны, при больших выборках непараметрика несильно уступает параметрике. Например, у критерия Уилкоксона-Манна-Уитни асимптотическая мощность по Питману около 0.96 (у t-критерия 1)
Вообще, мне кажется, что хорошая практика — провести сразу оба и сравнить результаты. Обычно они практически идентичны, но если нет, то стоит внимательнее исследовать выбросы, например.
Вот кстати, хороший вопрос, нужно ли делать поправку при использовании нескольких тестов на одном наборе данных. Например, если мы используем 10 критериев нормальности вместо какого-то одного
Вообще, тесты нормальность, мне кажется, ничего не дают. Они не ловят отклонения на маленьких выборках и ловят на больших, а нам нужно наоборот
Всегда можно альфу скорректировать ;)
А как это здесь решает проблему? Мне кажется, если уж оценивать нормальность, то стоит использовать оценку размера эффекта в тесте на нормальность (хотя не знаю как).
Контролирует ошибку второго рода. Просто на малых выборках она у критериев нормальности слишком большая при alpha = 0.05. Если увеличить до 0.1-0.2, можно найти компромисс
Как бы тогда рассчитать эту поправку? Интуитивно кажется, что можно использовать анализ мощности, используя предполагаемый размер эффекта, размер выборки и стат мощность, но какой взять размер эффекта для нормальности? Можно прикинуть по граничным значениям эксцесса, например, но такой практике не встречал. Хотя навскидку выглядит разумно
С эффектом в критериях согласия обычно всё неясно, так как лишь часть их имеет отношение к чему-то осязаемому — к эксцессу или асимметрии, например. Но как рассчитать его для того же Шапиро-Уилка, не очень понятно. Всё-таки подобные критерии больше про непосредственную проверку гипотезы, нежели про reporting effect size. Рассчитать поправку точно тоже сложно, так как альтернативных распределений бесконечно много. Но просто, например, для <10 наблюдений против практически любой альтернативы мощность будет не выше 50%, и соответственно ошибка второго рода будет как минимум 50%, что в десять раз больше ошибки первого рода. То есть, неизвестно, какая должна быть альфа, чтобы она была примерно равна бете, но очевидно, что уже точно больше 5%
Стандартно используют для беты 20%. Это не очень устоявшийся стандарт, но в своей области и около чаще всего встречаю именно такие значения
Обсуждают сегодня