барьер и перейти на большие данные? Интересует больше дата инжиниринг. Есть задача организовать дата лейк, витрину, делать по данным базовые операции. Пока без машинного обучения. Как бы так чтобы не больно 🙈
Всё очень зависит от вводных и от текущего состояния вашей аналитической архитектуры. Если с нуля, в смысле не на текущей работе собираетесь что-то делать, то почитайте книжку "Потоковая обработка данных". Даст общее представление какой путь проделывают данные. Также почитайте про лямбда-архитектуру и вот это всё. Ну и хотя бы про нормализацию данных, релиционки. Дата инженер больше программист, нежели аналитик, на мой дилетантский взгляд. Считается, что важный язык для ди - Scala (потому что Spark и Databricks). В принципе не важно, кмк, на чём писать (scala/python/r). Можно на любом. Но вот штуки для оркестрации и шедулирвоания (Airflow, Prefect, Dagster) написаны на питоне и таски для них надо писать на питоне. Важен SQL. Это язык трансформации данных. Без этого никуда. К вашей теме возвращаясь. Если данные уже лежат в БД и над ними просто надо поколдовать (ELT, а не ETL проесс), присмотритесь к инструменту DBT. Я его начал у нас использовать, уже 4 больших отчёта в PBI завязаны на витрины, которые созданы этим инструментом, все очень довольны. Если просто - это создание пайплайнов трансформации данных. Причём всё сохранёнными sql скриптами. В комплекте логирование, документирование и куча всяких очень полезных вещей. Очень рекомендую))
Спасибо большое )
Сугубо личное мнение, но вы не с той стороны запрягаете. Биг дата - довольно расплывчатое понятие, никто толком не знает, с какого момента данные становятся биг. Вопрос в том, какие данные у вас есть сейчас и какие задачи вам надо решать... И почему их не получается решить с имеющимися инструментами
Обсуждают сегодня