Привет! Меня зовут Ваня, я системный администратор в Selectel. Допустим, вы уже «пришли к просветлению» и признали, что ZFS — удобная, функциональная и вообще единственная правильная файловая система. Осталось только понять, как начать ее использовать. Об этом и поговорим под катом!

Рассмотрим установку Ubuntu 24.04 с корнем на ZFS на UEFI-систему со всеми возможными сценариями: raidz, шифрование, сжатие и даже удаленная разблокировка для сервера. Гайд подойдет не только для Ubuntu, но и Debian или любого Debian-based дистрибутива, устанавливаемого через debootstrap. При этом часть гайда с подготовкой дисков и zpool универсальна — ее можно использовать с любым дистрибутивом. Но этап установки системы в случае non-Debian придется адаптировать самостоятельно.

Установку на BIOS-машины в инструкции не рассматриваем — все же за окном 2025 год. ? Из бонусов: установка через debootstrap установит лишь необходимый минимум для работы системы — даже никакого snap и прочего «предустановленного мусора», за который Ubuntu часто критикуют.

Используйте навигацию, если не хотите читать текст целиком:

Подготовка окружения и разметка дисков

Все, что нам понадобится, — это LiveCD с поддержкой ZFS и доступ в сеть. К счастью, в стандартные установочные ISO-образы Ubuntu легко добавить поддержку ZFS.

Загружаем ВМ с ISO или пишем образ на флешку и грузим сервер с нее — как удобнее. В установщике пропускаем все предложения и добираемся до root-консоли. Любимым менеджером дисков — например, fdisk, gparted или sfdisk — размечаем диск:

nvme1n1     259:1    0 476.9G  0 disk
├─nvme1n1p1 259:5    0   127M  0 part
├─nvme1n1p2 259:6    0   1.9G  0 part
└─nvme1n1p3 259:7    0 474.9G  0 part

Что для нас важно:

  • ~100 МБ vfat-раздел под /boot/efi, флаги esp, boot;

  • ~ 2 ГБ ext4-раздел для /boot (не обязателен, но очень рекомендован — для универсальности);

  • оставшееся место — для zpool. Все остальные разделы при необходимости можно создать как dataset или volume внутри zpool.

Если планируете использовать raidz, то второй диск размечайте аналогично «байт в байт». А /boot — упакуйте в mdadm RAID1-массив (GRUB умеет с ним работать). Пример для системы с двумя дисками:

mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/nvme0n1p2 /dev/nvme1n1p2

Облачная инфраструктура для ваших проектов

Виртуальные машины в Москве, Санкт-Петербурге и Новосибирске с оплатой по потреблению.

Подробнее →

Установка ZFS и создание пула

После настройки сети (если в сети есть DHCP, то она уже настроена) устанавливаем инструменты для работы с ZFS:

apt update
apt install zfsutils-linux -y

Создаем файловые системы:

mkfs.fat -F 32 /dev/nvme1n1p1
mkfs.ext4 /dev/md0 (или раздел диска, если рейд не планируется, например: /dev/nvme1n1p2)

Создание пула zpool

Примеры команд — под разные конфигурации. Вместо POOLNAME используйте имя вашего zpool — например, совпадающее с именем хоста.

Без сжатия, raidz или шифрования:

zpool create -o ashift=12 -o autotrim=on -O normalization=formD -O acltype=posixacl -O xattr=sa -O dnodesize=auto -O canmount=off -O mountpoint=none -R /mnt POOLNAME /dev/nvme1n1p3

С зеркалом на двух дисках:

zpool create -o ashift=12 -o autotrim=on -O normalization=formD -O acltype=posixacl -O xattr=sa -O dnodesize=auto -O canmount=off -O mountpoint=none -R /mnt POOLNAME mirror /dev/nvme0n1p3 /dev/nvme1n1p3

Raidz2 на четырех дисках:

zpool create -o ashift=12 -o autotrim=on -O normalization=formD -O acltype=posixacl -O xattr=sa -O dnodesize=auto -O canmount=off -O mountpoint=none -R /mnt POOLNAME raidz2 /dev/sda /dev/sdb /dev/sdc /dev/sdd

Cжатый и зашифрованный:

zpool create -o ashift=12 -o autotrim=on -O compression=lz4 -O encryption=on -O keyformat=passphrase -O normalization=formD -O acltype=posixacl -O xattr=sa -O dnodesize=auto -O canmount=off -O mountpoint=none -R /mnt $POOLNAME /dev/nvme1n1p3

Сжатый и зашифрованный на четырех дисках в raidz2:

zpoolcreate-oashift=12-oautotrim=on-Ocompression=lz4-Oencryption=on-Okeyformat=passphrase-Onormalization=formD-Oacltype=posixacl-Oxattr=sa-Odnodesize=auto-Ocanmount=off-Omountpoint=none-R/mnt$POOLNAMEraidz2/dev/sda/dev/sdb/dev/sdc/dev/sdd

Краткие пояснения к опциям

  • autotrim=on — если используете SSD. Опция снизит износ и повысит производительность за счет информирования диска об освобожденных блоках.

  • ashift — размер блока. В ashift указывается степень двойки — например ashift=12 — это блоки 4 КБ (2¹² = 4 096 байт), а ashift=9 — блоки 512 байт. Для лучшей производительности рекомендуем использовать 12, но в некоторых частных случаях — например, если у вас старые диски, которые не умеют работать с 4 КБ-блоками, можно сменить на 9. 

  • compression=lz4 — быстрое и эффективное сжатие, но также вы можете выбрать lzjb, zle, gzip или zstd.

  • encryption=on, keyformat=passphrase — включают шифрование (по умолчанию — AES-256-CCM, рекомендуем не менять).

Остальные параметры менять не нужно. Подробнее о каждом можно почитать в официальной документации.

Установка системы и настройка загрузки

1. Создаем и монтируем dataset для корневой ФС:

zfs create -o canmount=noauto -o mountpoint=/ POOLNAME/root
zfs mount POOLNAME/root

Именно canmount=noauto: при запуске ядро само смонтирует dataset с корневой ФС.

2. Перед установкой можно создать и другие dataset для иных точек монтирования — например:

zfs create -o mountpoint=/home POOLNAME/home
Также создаем и монтируем /boot и /boot/efi:
mkdir /mnt/boot; mount /dev/md0 /mnt/boot # (или раздел, если не используем рейд)
mkdir /mnt/boot/efi; mount /dev/nvme1n1p1 /mnt/boot/efi

3. Устанавливаем базу системы:

apt install debootstrap -y
debootstrap noble /mnt
zfs set devices=off POOLNAME

4. Установленная система не обладает даже репозиториями, а также в ней нет нескольких важных файлов. Исправляем это (не забыв указать желаемое имя хоста вместо HOSTNAME):

echo HOSTNAME > /mnt/hostname
echo 127.0.0.1 localhost HOSTNAME > /mnt/hosts
grep -v cdrom /etc/apt/sources.list > /mnt/etc/apt/sources.list
rsync -aPvh /etc/apt/sources.list.d/ /mnt/etc/apt/sources.list.d/

5. Заходим в установленную систему через chroot для завершения установки:

mount --rbind /dev  /mnt/dev
mount --rbind /proc /mnt/proc
mount--rbind/sys  /mnt/

6. Исправляем локали и часовой пояс:

locale-gen --purge "en_US.UTF-8"
update-locale LANG=en_US.UTF-8 LANGUAGE=en_US
dpkg-reconfigure --frontend noninteractive locales
dpkg-reconfigure tzdata

7. Обновляем списки пакетов и устанавливаем все необходимое для загрузки:

apt update; apt dist-upgrade -y
apt install zfs-initramfs shim-signed grub-efi-amd64-signed linux-image-generic linux-headers-generic openssh-server -y

Сейчас же можно доустановить полезные утилиты, а если планируем вводить пароль для дешифровки удаленно, то обязательно ставим dropbear-initramfs:

apt install dropbear-initramfs # tmux nano net-tools curl fdisk rsync etc

8. В /etc/fstab добавляем только отличные от ZFS файловые системы — например:

/dev/md0	/boot			ext4	noatime,nofail,x-systemd.device-timeout=5s	0	1
/dev/nvme1n1p1	/boot/efi		vfat	noatime,nofail,x-systemd.device-timeout=5s	0	1

9. ZFS сам монтирует dataset-ы при загрузке. Однако если canmount= noauto (за исключением корня), то монтирование происходит вручную. В обратном случае модуль ядра ZFS смонтирует все самостоятельно, даже если у нас нет юнита systemd, строки в /etc/fstab и т. д. Ручное монтирование:

zfs mount POOLNAME/DATASET

Если нужно временно смонтировать в нестандартную точку (отличную от mountpoint директорию), делаем это так:

mount -t zfs -o zfsutil POOLNAME/DATASET /path/to/mount

Настройка удаленной разблокировки

Для удаленной разблокировки используем Dropbear: 

1. Кладем ключ в /etc/dropbear/initramfs/authorized_keys.

2. В /etc/dropbear/initramfs/dropbear.conf указываем опции запуска, изменив 2077 на «любимый» порт:

DROPBEAR_OPTIONS="-I 180 -j -k -p 2077 -s -c zfsunlock"

3. Настраиваем сеть до монтирования корневой ФС, чтобы мы могли в процессе загрузки подключиться к нашему серверу и ввести пароль для разблокировки зашифрованного dataset. Я обычно использую статический IP, указанный в конфигурации initramfs-tools (/etc/initramfs-tools/initramfs.conf):

IP=SERVER-IP::GATEWAY:NETMASK:SERVER-HOSTNAME

Можно также использовать DHCP или настроить директиву IP в параметрах запуска ядра — что для вас привычнее.

4. Если использовали mdadm для /boot, устанавливаем и настраиваем его тоже:

apt install mdadm -y
mdadm --detail --scan > /etc/mdadm/mdadm.conf

5. Когда завершили все приготовления initramfs, перегенерируем ее и установим загрузчик (GRUB):

update-initramfs -u -k all
grub-install /dev/nvme1n1p1
update-grub

6. После update-grub рекомендуем проверить сгенерированный конфиг grub и убедиться, что он правильно передает ядру параметр root. Иногда его нет или он выглядит неправильно. Закономерности я не нашел, но и не смог воспроизвести проблему при написании инструкции. Строка с запуском ядра должна выглядеть примерно вот так:

linux	"/vmlinuz-6.8.0-59-generic" root=ZFS="POOLNAME/root" ro

Когда закончили установку и настройку всего, что вам понадобится на машине (openssh-server на сервере, KDE/Gnome/XFCE на ПК и т. д.), выходим из chroot, все размонтируем и экспортируем zpool:

exit
umount /mnt/boot/efi
umount /mnt/boot
umount -lf /mnt
zpool export -a

Готово!

Система установлена и готова к использованию. Можно перезагружаться и проверять работу. И еще раз: убедитесь в нескольких ключевых моментах.

  • Grub корректно собрал свой конфиг.

  • Сеть настроена корректно.

  • Вы не забыли экспортировать пул.

Комментарии (17)


  1. nbkgroup
    11.07.2025 08:10

    1. "Быстое и эффективное сжатие" это zstd, а не lz4

    2. У вас массово указана несуществующая опция -O вместо -o, а местами и пробелы с концами строк потерялись.


    1. penguingrape Автор
      11.07.2025 08:10

      1. zstd медленнее lz4, а профита практически никакого не заметил

      2. -О и -о - абсолютно разные ключи. -о используется для задания параметров zpool, а -О для параметров корневого датасета (которые будут унаследованы дочерними датасетами)


      1. 13werwolf13
        11.07.2025 08:10

        а профита практически никакого не заметил

        на моём опыте профит от zstd весьма заметный, надо только со степенью сжатия поиграться. правда есть нюанс о котором мало кто говорит - zstd в разы увеличивает кол-во дисковых операций, чем можно пренебречь в большинстве кейсов на nvme но на hdd это может сказаться на производительности довольно сильно.


      1. nbkgroup
        11.07.2025 08:10

        1. Зависит от данных. У меня +20% к сжатию и скорости.

        2. Да верно, но сути замечания о нечитаемости команд это не отменяет. Мне вообще сначала показалось, что там -0


  1. aborouhin
    11.07.2025 08:10

    За наводку на dropbear-initramfs спасибо, как-то раньше этот вариант мимо меня проходил. Сейчас шифрую только ZFS, где хранятся тома виртуалок, и после перезагрузки сервера скриптом через SSH удалённо расшифровываю/монтирую эту ФС и запускаю виртуалки. На самóм гипервизоре, вроде, скрывать нечего :) Но Ваш вариант надёжнее.


    1. penguingrape Автор
      11.07.2025 08:10

      привычка шифровать удаленные сервера целиком у меня появилась еще с вдсок, после того как я начал работать в облачном провайдере и обнаружил, что админ гипера может слишком много. а еще приходилось обрабатывать запросы от силовиков на вытаскивание данных из вдсок


      1. aborouhin
        11.07.2025 08:10

        Ну при невозможности расшифровать тома виртуалок у админа гипервизора, вроде, тоже не особо много возможностей. Но вот какие следы жизнедеятельности виртуалок могли остаться в не зашифрованной части, это да, неочевидная тема...


  1. kt97679
    11.07.2025 08:10

    /boot тоже можно использовать с zfs, подробности тут


    1. penguingrape Автор
      11.07.2025 08:10

      можно, но:
      1. граб имеет крайне ограниченную поддержку zfs, создавать 2ой пул с ограниченным набором фич для /boot как будто избыточно
      2. в случае с efistub /boot и так можно хранить в основном zpool-е, но само ядро и initramfs должны быть в ESP, которую уже никак не засунуть в zfs


  1. fcoder
    11.07.2025 08:10

    zpool create mypool /dev/disk/by-id/ata-WDC_WD40EFRX-68N32N0_WD-WCC7K0123456

    намного безопаснее чем

    zpool create mypool /dev/sda

    Обозначения sdX могут меняться между перезагрузками - диск, который сегодня /dev/sda, завтра может стать /dev/sdb если изменится порядок обнаружения устройств - например, перепутаете SATA-кабели, вытащите/добавите плату расширения или добавится новый диск. ID остается постоянным для конкретного физического устройства


    1. penguingrape Автор
      11.07.2025 08:10

      резонно


  1. uvelichitel
    11.07.2025 08:10

    У меня на рабочей машине arch на zfs. Все нравится. Но... Разработка драйверов zfs отстает от новых kernel месяца на два, три. Я после обновления несколько раз оставался без файловой системы даже на stable ядре. В результате просто блокировал обновление ядра.
    Наверное debian консервативнее arch в обновлениях... И все же zfs для linux "не родная" а скорее "приемная". Поэтому "на производстве" я не решаюсь держать / root на zfs)


  1. hogstaberg
    11.07.2025 08:10

    Если используете zfs под /, то крайне рекомендую в initramfs положить ещё и все положенные тулзы чтобы иметь возможность zfs ещё и палкой потыкать в случае чего.


    1. penguingrape Автор
      11.07.2025 08:10

      пакет zfs-initramfs именно это и делает)


  1. MountainGoat
    11.07.2025 08:10

    Говоря о RAID, ZFS хорош для больших инсталляций, где при малейшей проблеме или желании апгрейда, не думая, делаешь следующее: стираешь всё нахрен, настраиваешь пустые диски как тебе надо, разворачиваешь одной кнопкой преднастроенную систему из образа, она сама перескачивает все данные с другого узла.

    ZFS до предела коряв и немощен в возможностях перенастройки RAID системы, сохраняя данные. И в ситуации, когда есть разнородные диски, и их нужно по максимуму использовать. То есть везде, где бабло не рекой. А уж тем более дома.


  1. Siemargl
    11.07.2025 08:10

    Хорошо, а что с производительностью сейчас? vs btrfs или даже xfs


  1. radioxoma
    11.07.2025 08:10

    После refind на grub смотреть не хочется. Уж лучше без загрузчика совсем. "В конце-концов уже 2025 год")