запросов к двум инстансам Оду посредством nginx backend ?
Я попытался, но у меня после того, как со второго инстанса зашли в одну и ту же БД, база померла. Точнее, больше никому было не зайти. Пробовал перезапускать инстансы с параметром -u (как пишут, для обновления CSRF- токенов). Не помогло.
Вероятно, такая схема не реалистична? Два инстанса попеременно + одна БД?
Идея была такая: если один инстанс Odoo упал, то запросы посредством nginx идут на второй инстанс.
Судя по сообщению, вы не разобрались в теме. Конечно же можно хоть сколько инстансов оду и одна база. Горизонтальное масштабирование оду делается легко и это архитектурно правильно
Вполне вероятно. А хотелось бы разобраться. Почему же у меня повредилась база? Или нужно постоянно синхронизировать файлстор? После того, как заходили со второго инстанса в ту же БД, стало вылезать сообщение Your session has been expired, и работать невозможно.
Обычно монтируют общий файлстор нескольким инстансам или юзают Redis (хранение сессий)+S3(или аналоги для хранения атачментов), чтоб файлсторы были каждый сам по себе в каждом инстансе очень плохая идея
Понял. То есть, повредилась даже не база данных, а файлстор. Спасибо
Так.... В общем. Дожил. 192.168.110.24:6379> info keyspace # Keyspace db0:keys=1,expires=1,avg_ttl=604791946 192.168.110.24:6379>
а нужен ли этот балансировщик? > Идея была такая: если один инстанс Odoo упал, то запросы посредством nginx идут на второй инстанс. а может просто сделать чтобы оду не падала. Вообще-то оду никогда не падает. Даже если случается ошибка, то она случается только в одном воркере, обработчики эксепшена ее перехватывают и воркер продолжает работать. Плюс в EE(а может и в CE) есть авторестарт воркеров(забыл для какой цели). Не понимаю знаю зачем это балансировщик. Чтобы было как у людей? Ну так может у людей это как раз "костыль", который в оду не нужен?
Вы не знаете моих коварных планов. Рептилоиды отдыхают. А если серьёзно.... иду по треку отказоустойчивости, просто, чтобы понять и записать. Заработало оно у меня.
вообще, смысл таков: упал один сервер — перенаправляем запросы на другой.
Обсуждают сегодня