Просто данных очень много. Предположим датасет это какой-нибудь ивент стрим и ты хочешь через GraphQL структурированно запрашивать из таблицы на 15 миллионов записей только то, что тебе нужно, чтобы потом пихать в свой мерзкий питон
Так а в чём проблема не понимаю? Подпиской спокойно можно разматываться себе таблицы на миллиарды записей: выбрал 100 строк (образно) - застримил их, потом ещё 100, и так далее…
это не работает, если у тебя оно все равно складывается в полгиговый объект. все равно будут запрашивать. не за раз, но размазывать по времени
На стороне клиента пусть складывается на здоровье
Обсуждают сегодня