Каков профит?
Приложение у нас большое, есть в том числе и парсинг json объемом в ~5мб, что стоит приличных ресурсов
не сильно то и заметно, а когда назад на jsc перешли то даже пропало много рандомньІх крашей
А обратно переходили именно из-за упавшего Crash-Free Users? Интересно!
да, много кто говорил, что на гермесе такое бьІвает, затестил и крашей почти нет
привет! а как в итоге-то проблему решаете с большими JSON файлами? парсите целиком и получаете полное представление JSON в памяти или таки какой-нить потоковый парсер применяете?
А где у тебя этот JSON лежит?
он не у меня лежит, а у топикстартера я мимокрокодил и интересно, как проблема решается как обычно в лоб или же чего интереснее придумали
Если с бэка тянуть такой файл, то лучше будет сделать нормальную апишку, чтобы она тебе кусками его отдавала при необходимости, в body запроса обычно что-то такое делаю { limit: 20, start: 0}. Делал оффлайн приложение, был json словарь с русско-английскими переводами и транскрипциями на 20к слов, решил проблему тем что написал скрипт который распарил json в объект realm бд, потом затянул realm в приложение, готовую бд кинул в ассеты, и потом так же порциями тянул слова из бд
а зачем? насколько я понимаю, базовая Fetch API умеет скачивать чанками и можно потоково парсить JSON занося его в DB также можно делать из файлухи это минимальные по памяти и производительности затраты — никогда в памяти не содержится многомегабайтный JSON а дальше уже работать только с DB способ скачивать страницами с API тоже ОК, как workaround, но в реальности, в конечном итоге тебе нужны ВСЕ объекты и скачанные 50 страниц из 100 не имеют смысла и организовать, например, докачку оставшихся 50 страниц, когда прила ушла в background — это некоторая проблема а когда начал скачку большого JSON будучи в foreground — проблема поменьше
пока решаем в лоб - парсим целиком, показываем пользователю лоадер 🙂 со стриминговым парсингом пока непонятно: JSON-стриминг в нашем случае потребует сильно переделать ответ сервера, а выхлоп неочевиден. (или очевиден, и я чего-то не понимаю?)
если я всё понимаю, то парсинг JSON потоком не требует переделок на сервере скачиваются куски JSON, этими кусками и обрабатываются по мере поступления данных с сервера что спарсилось — складывается в базу данных достоинства: 1. требует мало памяти 2. можно обработать большой JSON 3. нет одно длительной опрерации по парсингу — парсится кусочками недостатки: 1. нет одного JSON дерева
А разве куски JSON не должны быть в таком случае заготовлены? Это никак с JSON-streaming не связано? (https://en.wikipedia.org/wiki/JSON_streaming)
Обсуждают сегодня