Оптимизировать запросы и скорость сервера, если речь о данных от 3 млн строк
Там просто много таблиц Строк даже миллиона нет
Включить галку в настройках "разрешить параллельную загрузку источников" Оптимизировать запросы и модель
А откуда цифра, и как "скорость сервера" поможет, если у тебя облако? (Все в прем?)
Смотрите запросы (чиоиуже посоветовали) Смотрите связи в модели Смотрите расчеты в модели Смотрите типы данных Засуньте все в потоки Настройте инкремент (Еще и дальше варианты есть, но лень)
Данные из СУБД тянете? Много преобразований в pq?
А можно скан этой галки пжл. не нашел почему в pq Excel или там её нет?
"Смотрите связи в модели Смотрите расчеты в модели Смотрите типы данных" как они влияют на обновление? это по идее в последнюю секунду делается.
Поменять операции в pq на SQL запрос. Все остальное - так себе
только всё на вьюхи пусть не меняет. а то повесит и сервер еще вместо PQ. если надо делать сереъезные трансформации для того, чтобы получить таблицы в моделе, то Data Factory прям очень хорошо с этим справляется. кстати, если очень много таблиц, то я бы и интернет соединение проверил. насколько канал забит во время обновления. я поднял себе интернет с 50Мбит до 1Гбит и обновления прям очень быстро начали залетать.
У меня все проблемы исчезли, после того, как я шаги в PQ заменил на SQL запрос. Я не делаю вьюхи, я вставляю текст запроса в поле запроса PQ. Если забыть, что у меня много источников, всё работает. Даже учитывая, что я тяну из DL, а не DWH
Вы попробуйте создать в модели связь 1 к *, а потом в PQ в табличку-справочник на стороне 1 закинуть дубликат, и попробовать обновить отчëт. В DataFlow преобразования PQ изолированы от связей и вычисляемых столбцов в DAX, а в стандартном pbix после отработки преобразований и сжатий PQ проверяются все связи, рассчитываются вычисляемые столбцы, и по-моему ещë раз отрабатывает алгоритм сжатия вычисляемых DAX столбцов.
Опосредовпнно через расчеты, например
Обсуждают сегодня