высокий приоритет для меня, т.к. функциональность не правильная:
Здравствуйте.
Заметил, что не правильно реплицируются данные, добавленные в memcached при работе тарантула как master-master.
По логике самым приоритетным значением, которое должно иметь вес должно быть то, которое добавлено самое последнее по времени.
Пример:
имеем два сервера s1 и s2.
Оба сервера ОНЛАЙН.
Отключаем интернет на s2.
На s1 добавляем две переменные:
q1 = 11
q2 = 22
Отключаем интернет на s1.
Включаем интернет на s2.
На s2 добавляем переменную q1 = 12345
Включаем интернет на s1.
Сервера реплицируются.
Считываем переменные с обоих серверов
На s1:
q1 = 12345 (правильно)
q2 = 22
На s2:
q1 = 11 (НЕ правильно)
q2 = 22
Т.к. последним была добавлена переменная q1=12345 на s2, то это значение и должно реплицироваться на все сервера.
s1 сервер считал q1 значение с s2, но s2 счёл за приоритет значение из s1 сервера, а оно уже УСТАРЕВШЕЕ! Что не правильно по логике.
Я прав и логика репликации не верная или всё таки я не правильно рассуждаю?
конфиги выложил тут https://github.com/tarantool/memcached/issues/64
Включаем интернет на s2. На s2 добавляем переменную q1 = 12345 между этими двумя строчками нету "Сервера реплицируются." напишите себе тригерров beforereplace и выставляйте тапл в наиболее актуальный ,
Отключаем интернет на s1. Включаем интернет на s2. После того как отключить интернет на s1 - оба сервера будут в оффлайн. И они не смогут среплицироваться. Всё верно. Я воспроизвёл возможный вариант работы серверов, который был в моей практике.
репликация должна работать роно как вы описали... я решение написал, используетйе триггеры
спасибо, попробую с тригерами. Но если логика репликации работает правильно - тогда теряется смысл в репликации: на серверах разные значения, а это уже рассинхронизация.
после включение сети на первом узле прилетают события на второй узел и перезаписывают данные, оно так и должно работать, здесь можно взять триггером и записать наиболее актуальные данные (при условии что в формате есть время создания) —- скорее всего под капотом replace
ага, как раз недавно заглядывал
Обсуждают сегодня