датасетов (скажем, до 10 тыс. строк) через dplyr/data.table, а не через всякие примочки в Excel? Сегодня мой босс сделал сводными таблицами за минуту то, с чем я колупался час с лишним. У меня сложилось впечатление, что тот же data.table в такой ситуации — никому не нужный мозготрах, тормозящий рабочий процесс, а преимущество в скорости на таких массивах роли не играет
повторяемость, транслируемость, прозрачность, масштабируемость
В случае, если вы ультрамастер сводных таблиц и не нужна повторяемость, то стоит пользоваться ими, иначе, конечно, dplyr/data.table.
А записать макрос в Excel для повторяемости?
Я как-то в ночи недавно поленился в R 2 таблички по 7 строк сджойнить и решил обойтись с помощью Excel. В итоге чуть в Роскомнадзор кривые данные не отправил. Хорошо, что по утру вгляделся.
Опять же, если вы будете работать исключительно в Excel, вообще никак не выходя за рамки Excel, то почему бы и не работать в нём. Правда, могут быть ошибки в данных, сломанные даты и прочее.
Вы хотели насолить Роскомнадзору просто
Наоборот, начальнику свою работоспособность продемонстрировать -- дело было заполночь.
Я считаю, что весьма неплохо знаю excel. Во всяком случае как-то врукопашную там делал метод Ньютона))) в целом excel - это глючная и непрозрачная история... ну и для сводных таблиц используйте лучше rpivotTable - очень достойный пакет
О, спасибо, даже не знал, что такое есть. Надо будет глянуть
Похожий вопрос себе задавал в контексте SPSS и производства кучи больших таблиц с разнообразными срезами и стат тестами, да и ещё на взвешенных данных.
Я работаю на работе, где нужно из экселевских таблиц производить по триста страниц всяких статистических таблиц. Пока что наслаждаюсь тем, что пишу чистые функции, соединяю их в цепочки, на что убиваю пару дней, а потом за джва часа соединяю это всё и генерирую через Rmarkdown + flextable сотни страниц табличек.
Обсуждают сегодня