У меня есть сервер с JBOD из 36 дисков по 14 ТБ, общая емкость которых составляет 12,7 ТБ (диски WUH721414AL5201).
Я создал два zpool:
- zpool1, который содержит 3 vdev (каждый из них имеет 8 дисков и является raidz-1) с пулом, имеющим 3 горячего резерва.
пул: zpool1
состояние: ОНЛАЙН
конфигурация:
ИМЯ СОСТОЯНИЕ ЧТЕНИЕ ЗАПИСЬ CKSUM
zpool1 ОНЛАЙН 0 0 0
raidz1-0 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
raidz1-1 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
raidz1-2 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
запчасти
scsi-35000 В НАЛИЧИИ
scsi-35000 В НАЛИЧИИ
scsi-35000 В НАЛИЧИИ
- zpool2, который содержит 1 vdev (с 9 дисками и является raidz-2)
пул: zpool2
состояние: ОНЛАЙН
конфигурация:
ИМЯ СОСТОЯНИЕ ЧТЕНИЕ ЗАПИСЬ CKSUM
zpool2 ОНЛАЙН 0 0 0
raidz2-0 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
scsi-35000 ОНЛАЙН 0 0 0
Как вы можете видеть, согласно zfs, общий полезный размер zpool1 составляет ~ 306 ТБ, а zpool2 — ~ 115 ТБ, причем оба пула утверждают, что имеют несколько ТБ свободного места.
root:~# список zpool
НАЗВАНИЕ РАЗМЕР ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
zpool1 306T 296T 9,55T - - 47% 96% 1,00x ОНЛАЙН -
zpool2 115T 110T 4,46T - - 26% 96% 1,00x ОНЛАЙН -
Однако, когда я запускаю df -h, я получаю следующее:
корень:~# df -h
Используемый размер файловой системы Доступно Использование % Установлено на
zpool1 250T 250T 5.5M 100% /zpool1
zpool2 85T 84T 684G 100% /zpool2
Это подтверждается тем, что файловая система выдает исключения переполнения диска, когда я пытаюсь добавить больше данных в пулы.
Может кто-нибудь, пожалуйста, подтвердите, есть ли какой-то предел, который я нажимаю на linux или zfs? Мои первоначальные мысли заключались в том, что существует ограничение в 250 ТБ, однако это не объясняет, почему zpool2 также имеет 100% пропускную способность, когда в пуле всего 85 ТБ данных.
Если мои расчеты верны, то у пула1 должно быть не менее 266,7 ТБ полезного пространства, а у пула2 должно быть 88,9 ТБ, что основано на следующих расчетах:
бассейн1:
3 vdev-устройства raidz-1 (8 дисков, 7 используемых) = 7 * 3 = 21 диск * 12,7 ТБ каждый = 266,7
бассейн2:
1 x raidz-2 vdev (9 дисков, 7 используемых) = 7 * 12,7 ТБ каждый = 88,9 ТБ
PS: Извините за такой длинный пост, я новичок в хранении, поэтому я попытался объяснить как можно больше (может быть, слишком много!)
Добавлено для Zoredache:
root:~# список zfs
ИМЯ ИСПОЛЬЗУЕТСЯ ДОСТУПНО ССЫЛКА ТОЧКА МОНТАЖА
зпул1 249т 2.45м 249т /зпул1
зпул2 83,9 т 683 г 83,9 т / зпул2