Мониторинг производительности дисковой подсистемы – что можно посчитать полезного?

Задача – глянуть “внутрь” хранилища (в моем случаем – это некая СХД, подключенная к хосту с Solaris 10), не заморачиваясь со сложными скриптами, графиками и прочими премудростями. Элементарно 🙂 Модные штучки аля dtrace это не отменяет 😉

Ниже один из “велосипедов”, который я иногда использую в работе в режиме quick and dirty look для обобщения.

Собираем статистику вот таким образом:

Я предпочитаю не запаковывать файлы, когда занят системой непосредственно, если же информация собирается удаленно – стоит использовать bzip2:

Дальше еще сколько-то букв

Есть несколько отличных утилит (SWAT, например), которые данный файл могут отлично разбирать, строить шикарные (ок, не очень шикарные) графики, искать медианы и пики. Все круто – но это нам не нужно – нам нужно быть проще 🙂 Интервал – секундный – это нужный нам вариант, 600 выборок – это создаст файл умеренного размера, который не прийдется долго и мучительно нарезать, задумываясь о привязке во времени. Правильно будет запустить коллектор в “обертке” тип while true ; do … done – это даст целый набор “срезов” производительности, все – с отличной привязкой по времени.

Пишем скрипт:

Имеем вот такой вывод:

Что нам это дает? Я последовательный сторонник цифр, больших и вообще – разных, постоянно борюсь с графиками 😉 Например, иногда нужно быстро выяснить в неком временном отрезке, какой из томов в ASM-группе очевидно подлежит перебалансировке. Такая аггрегированная статистика пригодна для изготовления графиков с помощью (xplot/jplot) в длинной перспективе – например, возможна облегченная оценка суточной/недельной нагрузки, с дальнейшим заглублением в потенциально проблемные места.

Leave a Reply

Your email address will not be published. Required fields are marked *