Ответы пользователя по тегу Сеть хранения данных
  • Чем и как корректно померять производительность СХД?

    athacker
    @athacker
    IO depth = 1 -- это ни о чём, так в жизни не бывает. Даже один потребитель будет генерить IO операции в несколько потоков. 4 воркера в IOmeter с IO depth = 8 -- вот это ближе к делу, и тогда при различных типах RAID-ов увидите разную производительность.
    Ответ написан
    Комментировать
  • Как решить эти ошибки с конект с СХД?

    athacker
    @athacker
    Кто-то путается в показаниях. Если хранилка подключена по FC, то откуда ошибки по iSCSI? Hint: оптические линки между хранилкой и серверами -- это ещё не FC. FC -- это специфический протокол обмена, требующий специальных SFP-модулей и часто -- специфических FC-коммутаторов. Так что разберитесь сначала, что у вас за транспорт -- FC или всё-таки IP-сеть по оптике, и в качестве транспорта iSCSI. Потому что сервера вам на одно жалуются, а хранилка -- на другое, и эти вещи вообще никак не пересекаются в реальной жизни.
    Ответ написан
  • Получится ли подключить СХД Dell к контроллеру sas от HP?

    athacker
    @athacker
    Ну у вас не СХД, а DAS.

    В теории должно работать, но нужно смотреть HCL от хранилки, поддерживается ли этот контроллер. Если есть возможность попробовать -- надо пробовать, т. к. даже если контроллера нет в HCL, это не значит, что связка не будет работать.

    Что касается дисков -- то тут тоже только смелый эксперимент. Т. к. в СХД обычные диски не работают -- обычно хранилки проверяют прошивки дисков и бракуют диски, которые не прошиты вендором. Т. к. именно в СХД работали бы диски только маркированные вендором. Как будет в случае с DAS -- ХЗ, только натурные испытания.
    Ответ написан
    Комментировать
  • Миграция, бекапы - сколько нужно дисков для схд?

    athacker
    @athacker
    1 диск вообще ни в коем случае нельзя делать. Минимум по 2, в RAID.
    Ответ написан
    Комментировать
  • Как организовать СХД для домашнего сервера?

    athacker
    @athacker
    Коллеги правильно говорят.

    СХД -- оборудование специфическое, и довольно дорогое. За 25 тысяч рублей её не купишь :-) Если брать БУ, то во-первых -- она уже будет снята с поддержки, а отсюда малейший чих оборудования, и вся система превращается в тыкву. Во-вторых, диски в СХД абы какие не воткнёшь. Только те, которые выпускались конкретно под эту СХД. Это дорого, и для БУ-шных систем скорее всего не найдёшь. Обычные произвольные диски, даже enterprise grade, в СХД работать не будут.

    Помимо всех прочих соображений, подумайте, куда её ставить и как подключать. Т. к. промышленные СХД -- железки довольно большие, шумные и электричества потребляют порядком.

    Так что если вас не устраивает система всё в одном, и непременно хочется вынести хранение на отдельную железку, то тут только самосбор и софтверные решение. FreeNAS, ESOS, руками собрать всё то же самое на Linux или FreeBSD -- в зависимости от вашей квалификации. Ну и плюс к этому -- тогда не имеет смысла брать 2U шасси с 8 отсеками под LFF диски, лучше взять 1U сервак. Дешевле обойдётся, меньше места занимает, меньше электричества съест. Хотя шумнее, конечно. Типа такого.

    Литература -- документация по соответствующим софтверным системам. Ещё можно Nexenta глянуть. Она тоже, как и FreeNAS, работает на фряхе. Раньше бесплатная community edition была, правда, с ограничением по объёму. Сейчас не знаю, как там дела обстоят, давно не интересовался.
    Ответ написан
    Комментировать
  • Какой софт установить?

    athacker
    @athacker
    Разберите аппаратный RAID и отдайте диски в систему в виде JBOD, соберите RAID на базе ОС.
    Ответ написан
  • Выбор СХД для esxi на HP Proliant DL580?

    athacker
    @athacker
    Хотя, если у вас сервак один, и расширение не планируется, можете свой 580-ый дисками набить и на них виртуалки размещать.
    Ответ написан
    Комментировать
  • Чем и как мерить утилизацию СХД?

    athacker
    @athacker
    Если это промышленная СХД, то скорее всего, придётся использовать ту утилиту, которая предоставляется вендором. Кроме того, в любой СХД есть в интерфейсе простенький мониторинг, который покажет в реальном времени все эти параметры. История данных там обычно от 5 минут до максимум 1 часа хранится (по крайней мере, на тех СХД, с которыми я работал).

    Если же вы хотите эти данные в свой мониторинг куда-то тянуть, с возможностью задавать триггеры и события на основе триггеров, то в случае промышленных СХД вас ждут боль и унижения, так как по SNMP они эту информацию не отдают. Либо будет какой-то вендорский продукт мониторинга отдавать (но не все это делают), либо с помощью лома и такой-то матери (парсить файлы со статистикой, как это, например, пришлось делать на IBM Storwize v7000), либо снимать загрузку непосредственно с тех потребителей (серверов), которые подключены к СХД и пользуются её дисками. Но в последнем случае, как вы понимаете, не будет общей картины, так как каждый хост получает свою часть ресурсов и генерит разную нагрузку.
    Ответ написан
  • Сетевое хранилище в организации и организация удалённого достпупа к нему в соответствии с ФЗ 152?

    athacker
    @athacker
    Читайте соответствующие документы. Например, приказ ФСТЭК №21 и приказ ФСБ РФ № 378.

    В целом, вот обзорная статья, со ссылками на руководящие документы: https://kontur.ru/articles/1763

    Что касается технической стороны вопроса, то если по-хорошему, то QNAP и ему подобные решения использовать нельзя вообще, и уж тем более их нельзя выставлять в интернет напрямую. Независимо, есть у них там VPN или нету. Но если вам пофиг на реальную безопасность, то можно выставлять.
    Ответ написан
  • Какое выбрать гетто-хранилище под vhdx?

    athacker
    @athacker
    Конвергентные решения рассматривайте. Чтобы гипервизоры и storage одними и теми же серверами обеспечивались. Из опенсорсных -- Ceph, из платных -- ScaleIO, ONTAP Select, StoreVirtual. ScaleIO можно разворачивать и крутить бесплатно, но техподдержки не будет.
    Ответ написан
  • Как подключить SAN к сети?

    athacker
    @athacker
    Как будет ходить трафик, в вашем случае будет определяться не IP-адресами, а MAC-адресами. Поэтому обмен между устройствами, подключенными в 10G-коммутатор, будет в любом случае выполняться только через этот коммутатор, не заходя на 1G.

    Трафик может ходить через другие коммутаторы только в том случае, если у вас IP-адреса устройств, подключенных к одному коммутатору, находятся В РАЗНЫХ IP-подсетях, и маршрутизация осуществляется где-то в другом месте.
    Ответ написан
    Комментировать
  • Как подключить HP MSA2040?

    athacker
    @athacker
    Модель точную напишите. Там разные комплектации бывают, и контроллеры тоже могут быть разные. Ну и методичку смотрите, в части расположения портов. Возможно, вы реально FC-шные порты в ethernet втыкаете, или наоборот.
    Ответ написан
    4 комментария
  • Как прошить seagate для работы с СХД netapp?

    athacker
    @athacker
    В СХД, как правило, кастомные прошивки зашивают, от производителя СХД. СХД не примет диск без родной прошивки, даже если фактически это будет одна и та же модель.

    Среди вариантов -- попробовать стянуть прошивку с такого же диска в СХД, и залить её в купленные диски. Скорее всего, для этого какой-то специальный стенд потребуется.
    Ответ написан
    Комментировать
  • Какую скорость записи можно выжать из бюджетной СХД?

    athacker
    @athacker
    Тут надо чётко понимать несколько вещей.

    1) Физику не обманешь. Какие бы ни были ухищрения, при реально высокой интенсивности записи они мало чем помогают. Реально немножко помочь может кэширование записи и то, что называется coalescing -- т. е. система группирует блоки перед записью таким образом, чтобы можно было (ну, если совсем на пальцах) записать их в один пролёт головки над поверхностью. Основная же нагрузка всё равно придётся на диски, и тут вариант ускорения записи ровно один -- это как можно больше шпинделей, как можно более оборотистые диски (15k RPM вместо 7200 RPM), либо вообще переход на SSD/NVMe. Так что лучше взять пачку дисков мЕньшего объёма, но в бОльшем количестве, и скорость записи будет выше.

    2) ZIL -- это не кэш записи. Это всего лишь журнал, который обеспечивает синхронную запись и позволяет сохранить ФС в консистентном состоянии даже при сбоях. В ZFS при синхронной записи по факту запись ведётся дважды -- сначала данные идут в ZIL, а потом уже переписываются на основной диск. Если под ZIL не выделялось отдельного устройства, ZIL размещается на основном диске. Разумеется, размещение ZIL на SSD операцию записи ускоряет. Но один тонкий момент -- ускоряет он не в абсолютных значениях, а относительно того случая, когда ZIL размещён на основных (HDD) дисках.

    Учитывая, что вам требуется NFS, который использует только синхронную запись, то у вас вариантов два -- размещать ZIL на SSD, либо в свойства ZFS-датасета, который будет презентоваться по NFS, принудительно включить асинхронную запись. Выбор решения зависит от того, что конкретно вы хотите получить. Если вам важна консистентность данных -- лучше оставить sync и разместить ZIL на SSD. Но надо понимать, что async запись будет в любом случае несколько быстрее, так как запись в ZIL -- это всё равно задержка и дополнительный оверхед. Так как даже если ZIL размещён на SSD -- время доступа к нему и запись данных не нулевая.

    3) Кэш в оперативке реально помогает (ARC). Учитывая, что у вас также будет параллельно идти и чтение, то увеличение оперативы имеет смысл, так как тот факт, что некоторые блоки были прочитаны из ARC означают, что эти блоки не были прочитаны с дисков, т. е. дискам не пришлось делать дополнительные телодвижения для поиска и чтения с блинов этих блоков. А значит, диски могут больше времени уделить записи. Что касается стоит ли добавлять L2ARC -- это вопрос философский, и сильно зависит от нагрузки. По моим наблюдениям в сценарии размещения на ZFS виртуалок и набортном объёме RAM в 128 Гб, до L2ARC уже ничего не долетало. Сравнительные цифры -- ARC hits/misses составляло в среднем примерно 80k/15k в минуту, а в L2ARC цифры были в районе 15/800. Т.е. 15 попаданий на 800 запросов к L2ARC. В итоге мы решили даже не тратить SSD на L2ARC.

    Ещё один момент -- если у вас не предполагается последовательного чтения, а будет чистый рандом (например, при размещении виртуалок это именно так), то следует отключить ZFS prefetch. Его отключение на синтетических тестах показало рост IOPS примерно на 15-20%, при read/write 20%/80% и полном рандоме обращений.

    А вообще, нужно развернуть систему, поставить её на мониторинг, и понаблюдать, что и как происходит. Фря выдаёт достаточно информации, чтобы делать выводы -- нужен ли префетч, работает ли L2ARC, насколько эффективен ARC и т. п. Если будет необходимость -- обращайтесь в личку, скину шаблоны и конфиги для заббикс под мониторинг хранилки на базе FreeBSD + ZFS. В планах статью нарисовать по этому поводу, но это пока руки дойдут... :-)
    Ответ написан
  • Как уменьшить рамер LUNa на СХД Huawei OceanStor 5300 V3?

    athacker
    @athacker
    А нафига вообще такие огромные тома создавать?

    Обойти ситуацию очень просто -- смигрировать все виртуалки куда-нибудь, удалить 90-терный том и создать мачку более мелких, и потом раскидать машины по ним обратно.
    Ответ написан
  • Доступная отказоустойчивая СХД возможно ли?

    athacker
    @athacker
    Ну, сами подумайте, что бы вы ответили человеку, который заявляет: хочу промышленную СХД с обвязкой (коммутаторы) и дисками собрать на коленке, бюджет на всё в миллион рублей (~17000$).

    Тут уж, дорогой друг, либо коленки, либо промышленная СХД (особенно учитывая хотелки в виде тиринга, дедупликации, снапшотов и прочего).

    1) SATA-диски под большой нагрузкой будут грешить silent errors (т.е. искажениями данных, которые никто не заметит, пока не будет поздно (например, при ребилде массива). Поэтому софт должен будет уметь эти ошибки выявлять в оффлайне (как scrub в ZFS или background device scanner у ScaleIO).

    2) Цены на "деревянные" (что бы это не означало) СХД в интернетах таки есть. Например, тут: stss.ru/products.html

    3) Если собираетесь покупать ScaleIO, то там адекватных денег не ждите. Запрашивали несколько месяцев назад цены -- 44k$ за 50 Тб СЫРОЙ ёмкости. Когда соберёте массив на 4-х нодах, получите меньше 20 Тб реальной ёмкости. ScaleIO можно юзать и за так, но про поддержку забудьте. Если у вас реально суровый прод, то без поддержки -- это искать прилючения на свои нижне-задне-спинные мышцы.

    4) Дедупликация-то вам нахрена? Учитывая массив данных, который вы собираетесь там хранить (документы/фотки/видео), профит от дедупликации будет чуть меньше, чем никакого, а вот нагрузка на память и потенциальные глюки будут ого-го.
    Ответ написан
    7 комментариев
  • СХД, сервер, DAS, Зачем?

    athacker
    @athacker
    У вас один HBA с двумя портами? В любом случае, это резервирует отказ на уровне порта/кабеля в любом из каналов.
    Ответ написан
  • Отказоустойчивый кластер на сетевом хранилище NAS?

    athacker
    @athacker
    Кластер будет работать даже с 8 серверами и гигабитными линками. Чем вызваны сомнения, что это будет работать?
    Ответ написан
    Комментировать
  • Какую подобрать СХД для отказоустойчивого кластера?

    athacker
    @athacker
    А вы что расширять хотите? Объёмы, производительность, количество подключенных хостов?

    Low range модели: HP MSA 2040 или IBM Storwize V3700, Huawei OceanStor V1, Dell PowerVault MD34xx
    Ответ написан
  • Какую СХД купить?

    athacker
    @athacker
    Если встаёт вопрос ограниченности бюджета, то лучше самосбор. FreeBSD+ZFS, плюс SSD-диск под L2ARC-кэш. Хотя это зависит от типа нагрузки, если будет в основном запись данных и мало чтения, то можно обойтись и без L2ARC.
    Ответ написан