170 похожих чатов

К слову говоря, ну вдруг кто-то сталкивался. встрял совершенно по дурацки.

мне приходит в сервис на Go гигантский json по http1 запросу. io.ReadAll парсит эту заразу 5 секунд. json Decode за 4.5 если я отброшу всякую белиберду. я не очень сведущ в этой теме, но вдруг кто-то в курсе, чем еще можно повысить эффективность вычитывания тела ответа (request.Body)?
предложения присылать меньший по размеру ответ - не подойдет. там дебильный сервис к которому мы делаем запросы, он как дубина шлет 11к строк в тело.

9 ответов

24 просмотра
Paul Okhlopkov- Автор вопроса

ну почти :D что то вроде бигдаты бешеной. и естественно заказчику надо, чтобы время парсинга уменьшилось с 4.5 секунд минимум до секунды. я уже эту сотону как только и на чем только не вращал.

Paul Okhlopkov
ну почти :D что то вроде бигдаты бешеной. и естест...

дык а нельзя там тот сервис фрагментами попросить передавать. или тут заказчик именно требует чтобы вы свой высокоскоростной парсер написали) жсон вроде так себе для передачи объемов я слыхал

Paul Okhlopkov- Автор вопроса
0x3d
дык а нельзя там тот сервис фрагментами попросить ...

там веселее. короче в этом джейсоне 10 750 строк фиктивные и практически стабильно одни и теже, а 150-160 новые и появляются каждые 3 секунды и также исчезают. мы не можем изменить алгоритм сервиса никак. так то я бы с удовольствием перетек на протобаф какой-нибудь, но сервис не может по нему (дорабатывать его я еще не садился). в целом, мы нашли вариант, он умеет отдавать только новые записи и как-бы проблема вроде решена, но мне самому интересно, можно ли шустрее обрабатывать гигантские массивы текста. там до смешного, если я вычитал все тело ридолом, то анмаршал вообще копейки какие то занимает. а вот с вычиткой тела проблемы.

Paul Okhlopkov
там веселее. короче в этом джейсоне 10 750 строк ф...

Если у вас проблема с вычитыванием Body, вам более быстрый json не поможет. Стоит попробовать сколько времени уходит на ответ у самого сервиса, time curl ... Если сервис отвечает 4 секунды, то делать ничего не надо.

Если нужна скорость/экономия памяти - эта рвет большинство парсилок json (в том числе и майлрушную с кодогенерацией easyjson, по утверждению авторов) https://github.com/buger/jsonparser#large-payload

сам не делал, но можно попробовать парсить его потоком, т.е. не ждать пока весь файл прилетит, а прямо в стриме.

Paul Okhlopkov- Автор вопроса
Andrey Panov
сам не делал, но можно попробовать парсить его пот...

Если ничего не путаю, чтобы в потоке считывать, нужно в потоке отсылать. Реализовывал стримы на протобафе. Но тут не поможет. Ключевой момент, что сервис отправитель переписывать нельзя. Но спасибо, за совет!

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта