интересен, сейас все делаю в доккере, создан кластер hadoop, с yarn hdfs и все нужно инфрой, все это живет в 64 гб. В принципе хватает, но есть желание переехать в облака, у какого провайлеоа моднл получить всегда свежие версии spark ? Или имеет смысл арендовать виритуалки ?
Накликай к8с менеджед в облаке и там любой спарк гоняй
Вобщем строить свою инфру самому ?
Кубестл - это "своя инфра"? 🤔
В кубее поднять хадуп и все все все ...
А, не. Ходуп можно в aws emr. Но именно хдфс я в таком режиме не пользовался там. Юзал емр исключительно для спарка
Манагед кубер с виртуалками на выбор
Хадуп нинужон, S3 за него
Тоже тема. Наверно так и слелаю, прокачаюсь в спарк он кубер и с внешним шафл сервисом.
Можно и без него, мы чёт забили поднимать, так полтора года на шафлтрекере и живём
Я специально усложнил задачу.
Обсуждают сегодня