аналитики и хотел бы понять в правильном направление двигаюсь или нет:
Существует приложение, которое подключенно к сервису трекинга данных(событий), через этот сервис по API можно получать данные.
колво таблиц: будет 101 штука (отдельно каждая в CSV)
Объем всех таблиц за один день: порядка 100Гб
Структура таблиц всегда будет меняться
С данными нужно будет работать как в сыром виде для создание инсайтов, машшиного обучение в целом глубоки анализ
Так же данные нужно будет структурировать и отображать в Power BI
—-
Я решил сделать так:
1) С помощью Python сделал небольшой скриптик, который получает по АПИ данные с сервиса
2) Создал БД Postgres 11 в облаке Гугл
3) Создал две схемы (core_data - это исходники, analyst - препарированные данные, таблицы с индексами партиями и тд)
4) Python создает новую таблицу формата как получил CSV и загружает в нее данные
Потом с этой таблице определяет нужны колонки и загружает в core_date (архив)
5) В БД созданы view и процедуры, которые предназначены для очистки данных и создания нормализации таблиц и экспорта их в +/- реляционной структуре в схему analyst
6) Python запускает эти процедуры
7) в БД в схеме analyst формирую view matview для PowerBI
8) PowerBi через ODBC подключаю к этим вьюхам
Какие могут быть подводные камни?
заранее благодарен!
> Какие могут быть подводные камни? При вливании очередных 100 гигов в день кончатся деньги, место не растянется и база упадёт.
Обсуждают сегодня