Как оценить объем ресурсов, который будет необходим для elasticsearch?

Появилась идея, в интернет-магазине вместе с полнотекстовым поиском по названиям товаром сделать фасетный поиск по остальным товарам через elasticsearch. Прототип накидали и скорость поиска нравится, но впереди ожидается 10-кратное увеличение объемов каталога (под десяток миллионов единиц) и возникла необходимость рассчитать ресурсы (память, процесоры), которые могут затребоваться в таком случае. Гугл ответ не дал, хотя я скорее всего неверно формулировал вопрос. Кто сможет подсказать, как можно провести расчет, или какие лучшие практики для оптимизации конфигурации провести, буду благодарен.
  • Вопрос задан
  • 370 просмотров
Пригласить эксперта
Ответы на вопрос 1
@mamontm
SphinxSearch
или его форк - Мантикора.

Жрет на порядки меньше, ищет существенно быстрее.

Почему ivi перешел со Sphinx на Elasticsearch
перешли они потому что Sphinx не умеет (не умел тогда) делить индекс по разным серверам, а на один сервер у них влазить перестал индекс.

При этом им пришлось из-за Elastic идти на компромиссы - уж очень медленно он ищет по сравнению с Sphinx, уж очень много он жрет ресурсов памяти по сравнению с Sphinx.

и возникла необходимость рассчитать ресурсы (память, процесоры), которые могут затребоваться в таком случае


Тут следует понимать, что все подобные системы - и Sphinx и Elastic и Bleve и Reindexer - все на каждый чих строят полноценный индекс.

Что вы кладете в индекс - знаете только вы.

Прототип накидали и скорость поиска нравится, но впереди ожидается 10-кратное увеличение объемов каталога (под десяток миллионов единиц) и возникла необходимость рассчитать ресурсы (память, процесоры), которые могут затребоваться в таком случае.


Если нет еще товара - сгенерируйте называния рандомом до 10 млн. единиц.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы