В настоящее время у меня есть сервер Ubuntu 18.04.6 LTS с 2 жесткими дисками по 6 ТБ, установленными в RAID1, например:
~$ кошка /proc/mdstat
Личности: [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : активный рейд1 sdd2[0] sdb2[1]
5859412992 блоки супер 1.2 [2/2] [UU]
растровое изображение: 1/44 страницы [4 КБ], фрагмент 65536 КБ
Место на дисках скоро закончится, поэтому я купил 2 жестких диска по 16 ТБ, которые хочу добавить (физически уже подключен к серверу, но не настроен). Насколько я понимаю, я не могу добавить их как отдельную конфигурацию рейда 1 (зеркалирование 16 ТБ + зеркалирование 6 ТБ), и мне нужно перейти на рейд 10. Это правда? Я не могу просто иметь два 16 ТБ также в RAID1 и смонтировать как другую папку?
Могу ли я использовать 2 жестких диска по 16 ТБ в сочетании с 2 жесткими дисками по 6 ТБ в RAID 10 или все они должны быть одинакового размера?
Как мне добавить 2 жестких диска и перейти на новую настройку RAID без потери существующих данных?
Бизнес-требования:
- Резервирование/отказоустойчивость
- Быстрое чтение/запись (большие данные)
- Увеличьте пространство на жестком диске, не обязательно действовать как один диск (может быть новая точка монтирования / папка, если проще)
ОБНОВИТЬ:
Следуя инструкциям по ссылке ниже, я добавил два диска в качестве дополнительного рейда1, используя следующие команды, перезагрузил компьютер и теперь не могу подключиться к нему по ssh.
https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04#creating-a-raid-1-array
~$ lsblk -o ИМЯ,РАЗМЕР,FSTYPE,TYPE,MOUNTPOINT
НАЗВАНИЕ РАЗМЕР FSTYPE ТИП МОНТАЖА
sda 14.6T диск
сдб 5,5 т диск
ââsdb1 953M vfat часть
часть sdb2 5.5T linux_raid_member
ââmd0 5.5T LVM2_member raid1
ââvg-swap 186.3G swap lvm [SWAP]
ââvg-root 93.1G ext4 lvm/
ââvg-tmp 46.6G ext4 lvm /tmp
ââvg-var 23.3G ext4 lvm /var
ââvg-home 5.1T ext4 lvm /home
диск sdc 14.6T
sdd 5.5T диск
ââsdd1 953M часть vfat /boot/efi
часть sdd2 5.5T linux_raid_member
ââmd0 5.5T LVM2_member raid1
ââvg-swap 186.3G swap lvm [SWAP]
ââvg-root 93.1G ext4 lvm/
ââvg-tmp 46.6G ext4 lvm /tmp
ââvg-var 23.3G ext4 lvm /var
ââvg-home 5.1T ext4 lvm /home
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
судо mkfs.ext4 -F/dev/md1
sudo mkdir -p /mnt/md1
sudo смонтировать /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
Используемый размер файловой системы Доступно Использование % Установлено на
/dev/mapper/vg-root 92G 7.5G 79G 9%/
/dev/sdd1 952M 4.4M 947M 1% /boot/efi
/dev/mapper/vg-var 23G 6.0G 16G 28% /var
/dev/mapper/vg-tmp 46G 54M 44G 1% /tmp
/dev/mapper/vg-home 5.1T 2.5T 2.4T 51% /домашний
/dev/md1 15T 19M 14T 1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
МАССИВ /dev/md/0 metadata=1.2 name=mypc:0 UUID=someweirdhash
МАССИВ /dev/md1 metadata=1.2 name=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: Генерация /boot/initrd.img-4.15.0-166-generic
~$ перезагрузить судо
Не удается подключиться к серверу по ssh после перезагрузки.
НЕ СДЕЛАЛ ЭТОГО: (что означают последние два нуля ниже?) Я не был уверен, что делает эта команда, и предположил, что она может установить новый массив в качестве загрузочного, поэтому, возможно, не запуская ее, она сломалась:
~$ echo '/dev/md1 /mnt/md1 ext4 defaults, nofail, discard 0 0' | sudo tee -a /etc/fstab