Как лучше синхронизировать большое количество файлов в реальном времени?

Есть два сервера (debian) в разных датацентрах. Будет настроена балансировка. Требуется синхронизировать в реальном времени директории с тысячами мелких файлов мелкого объёма. В минуту будет добавляться около мегабайта данных (около 10 файлов всего). Какой инструмент для этого лучше выбрать?


Какие есть хорошие варианты? Смотрел в сторону NFS, rsync daemon, iSCSI, но у них у каждого свои недостатки…
  • Вопрос задан
  • 7178 просмотров
Пригласить эксперта
Ответы на вопрос 3
IlyaEvseev
@IlyaEvseev
Opensource geek
habrahabr.ru/post/132098/ — найдено гуглом по запросу «csync2 inotify».

Обратите внимание не только на статью, но и на комментарии к ней.
Ответ написан
shadowalone
@shadowalone
miragenn
@miragenn
Вам эти файлы по HTTP отдавать? У меня такая же задача. Многое пересмотрел, пока решил делать так:
Есть основной узел, на него идет запись, с него идет периодически rsync на второй.
На обоих узлах nginx раздает эти файлы, но на втором если файл не находится, запрос проксируется на основной узел. Файлы организовать так, что бы rsync гонять по меньшему объему.
Rsync отрабатывает быстрее если его запускать в несколько потоков тут небольшой пример.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы