вычитывая их из канала задач. Запущены они так:
jobsCh, resultsCh := make(chan string, 100), make(chan []string, 100)
for i := 1; i <= THREADS; i++ {
go worker(jobsCh, resultsCh)
}
внутри функции worker они ренжом пробегаются по каналу jobsCh и выполняют саму задачу и отправляют результат выполнения в канал результатов (который затем вычитывается в основной горутине).
кол-во потоков задается константой THREADS, я хочу без перезапуска процесса задавать количество воркеров, и если работающих воркеров меньше, чем требуется, то добавлять недостающее количество воркеров в пул, а если новое значение воркеров меньше, чем количество тех, которые крутятся, то останавливать "лишние" воркеры.
Какими способами без костылей управлять количеством работающих воркеров в рантайме?
trcancel := make([]context.CancelFunc, THREADS) for i := 0; i < THREADS; i++ { ctx, cancel := context.WithCancel(context.Background()) trcancel[i] = cancel go worker(ctx, jobsCh, resultsCh) }
если увеличили threads, то просто просто добавляете новые ctx и новые горутины, если уменьшили, то дергаете все cancel с индексом выше нового THREADS
Зачем вам воркер пулл и где вы такое в голанге видели? Похоже на какую то трешанину
ну много где статей видел по worker pool в голанг, часть этих статей были от тех, кто принимал участие в разработке самого Golang
Ну например чтобы не перегрузить сервер, на который там могут быть отправлены запросы
скорее всего вам не нужны долгоживущие горутины (ака воркеры), запускать горутину на каждую задачу — вполне нормальный подход имхо вам лучшей подойдёт такой вариант: если из канала приходит сообщение, смотрите, сколько задач уже запущено, если больше некоторого порога — то ждёте какое-то время и пытаетесь снова для счётчика задач и лимита используйте sync/atomic чтобы не было рейсов
Ну я просто не могу придумать зачем это может понадобиться. Что за задачу вы решаете воркер пулом?
а вот это уже дичь натуральная. для ограничения количества воркеров отлично подходят буферизированные каналы, а не вот этот вот трэш.
правильно ли я понял, что вы имеете в виду вычитывание из буферизированного канала, и при каждом вычитывании запускается горутина, таким образом количество одновременно работающих горутин будут ограничены размером буфера?
Буферизированные каналы действительно хороши для ticket based limiter-а, но динамические лимиты для такого механизма сделать довольно сложно и ты скорее всего придёшь к тем же счётчикам
через чтение конфига по сигналу SIGUSR2 к примеру)
это довольно странный сервер
Обсуждают сегодня