А какие нибудь преимущества в распределённой обработке больших данных он даёт? Или он чисто для более удобного написания кода?
Генеральные совокупности вообще существуют в реальности?
Какие есть общие принципы насчёт того, как правильно делать Data Engineering в проектах? Какой есть опыт на этот счёт?
Да, самого главного то мы и не обсудили. Допустим, мы умеем валидировать Data Drift, но как повышать устойчивость модели к нему? У меня в задачах обработки изображений лучше ...
Зачем ML инженеру обязательно опыт в продажах?
И что имелось ввиду под профильным образованием?