# 12Gb
echo $((12*1024*1024*1024)) | sudo tee /sys/module/zfs/parameters/zfs_arc_max
# 12Gb
echo $((12*1024*1024*1024)) | sudo tee /sys/module/zfs/parameters/zfs_arc_max
# https://openzfs.github.io/openzfs-docs/man/master/4/zfs.4.html#zfs_arc_shrinker_limit
echo 0 | sudo tee /sys/module/zfs/parameters/zfs_arc_shrinker_limit
echo 3 | sudo tee /proc/sys/vm/drop_caches
echo 10000 | sudo tee /sys/module/zfs/parameters/zfs_arc_shrinker_limit
ZFS не ломается, говорили они…
Oct 15 16:03:58 wombatneo kernel: VERIFY3(0 == zap_add(mos, dsl_dir_phys(pds)->dd_child_dir_zapobj, name, sizeof (uint64_t), 1, &ddobj, tx)) failed (0 == 17)
Oct 15 16:03:58 wombatneo kernel: PANIC at dsl_dir.c:951:dsl_dir_create_sync()
Almost a one-liner ;) Results of some discussion about copies props of ZFS.
Вижу бэкап - не вижу препятствий ;)
Больше 20-25 дисков в системе? Диски объёмом больше 1-2Тб? Хотим OpenZFS? Добро пожаловать в дивный новый мир dRAID.
Излюбленная фишка в LDOMs на Solaris – разнообразные способы подключение всяких карточек и путей ввода-вывода в логические домены, порой весьма извращенными способами. На Linux так тоже хочу. Можно. Делаем (почти) то же самое.
К вопросу о ресурсах и ZFS. Постоянный и больной вопрос, что ZFS – это что-то чудовищно дорогое, если нужна производительность, надежность, фичи и прочее. Мне вот производительность не критична (ограничен “блинами” дисков). А фичи весьма любопытны (дармовые клоны на нормально работающей CoW-системе, шифрование и дедупликация – где ещё такое есть “из каропки”?). Для циничного эксперимента запустил zfs (уже в течении многих месяцев, пара лет как минимум) на машинке с 4Гб памяти:
Every time i’ll need to something more complicated then simple share – i’ll need this 😉
Task: copy current ZFS rpool (only for boot) to another physical destination. New disk is c2t1d0.