170 похожих чатов

Добрый день. Есть одна задача, опросить примерно 1500-2000 клиентов по

телнету, выполнив определенные команды и сохранив результат в едином месте после выполнения. (Пусть будет жсон)

На голанге я решил это так, одновременно запустив несколько сотен горутин на каждый клиент по одной и сохраняется результат через канал в массив. После завершения опроса, массив преобразовывается в жсон и пишется в файл.
Итог две-три минуты, 30-35 мб памяти и все клиенты опрошены, но сейчас похожая задача и ее надо выполнить на ноде.

А именно интересует:

* Запустив асинхронно пару сотен заданий, как можно сохранить все в json?
* Каждая асинхронная функция будет открывать этот файл и писать результат в нее? Не лучше ли это делать синхронно?
* Можно ли как то это обойти, например, сохранив все в один массив и потом его уже записать в файл? Имеет ли это смысл?
* Запускать опрос сразу всех клиентов, как мне кажется глупо, так что надо запускать частями, как можно отследить выполнение всех запущенных асинхронных функций?
* Возможно ли вообще сохранить вывод всех асинхронных функций в одном массиве?

Спасибо.

10 ответов

27 просмотров

Лучше сформировать json в памяти и записывать его только когда чсе данные получены

Какой интересный вопрос. Почему в ноде глупо делать запрос сразу ко всем клиентам, а в го - не глупо?

Vladimir- Автор вопроса

В го тоже считаю глупо, так как я запускал в 250 горутин, памяти занято было, 30мб примерно, запускал 400 горутин, уже занимало 100-120мб памяти, тысячу не запускал.

а нельзя запустить 100 горутин и сделать их воркерами, чтобы хавали каждого клиента через каналы. или в задаче нужно чем быстре сделать?

Создаёшь очередь. Туда складываешь все задачи. Потом запускаешь пачку асинхронных функций, например 10. И внутри каждой функции берёшь задачу из очереди, обрабатываешь и результат складываешь в другую очередь. Когда одна очередь опустеет, а вторая заполнится, сохранишь весь результат.

Vladimir- Автор вопроса

Можно, да и уже не нужно, оно сделано, сдано и работает уже примерно год. Сейчас на ноде надо сделать. :)

Vladimir- Автор вопроса

Спасибо, попробую.

Vladimir- Автор вопроса

Ограничений по времени, конечно нету, но это будет довольно долго, если одно подключение будет выполняться, например 20 секунд, пока выполнятся все необходимые команды. В 10 асинхронных функций, за 20 секунд будет опрошено 10 адресов, значит 1000 будет за 2000 секунд, в идеальном мире. Почему такое ограничение в 10 функций? Если запустить в 100, например, может быть съедено много памяти?

Нет, это было для примера. Сколько нужно столько и делай. Лишь бы сервис не заблокировал за большое количество подключений.

Vladimir- Автор вопроса

А понял. :)

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта