Итак, я отвечаю на свой вопрос для всех, кому приходится иметь дело с такими фальшивыми рейд-контроллерами.
Вот что я нашел
Интересно md126 здесь не основной массив RAID, а md127, поэтому все, что я сделал, это повторно добавил этот новый диск в md127 с помощью:
mdadm --manage /dev/md127 --force --add /dev/sdb
и Рейд начал восстанавливаться.
теперь результаты кот/proc/mdstat находятся:
root@himalaya:~# кошка /proc/mdstat
Личности: [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : активный raid1 sda[1] sdb[0]
1953511424 блокирует супер внешний:/md127/0 [2/2] [UU]
md127 : неактивный sdb[1](S) sda[0](S)
6320 блоков супер внешний: imsm
неиспользуемые устройства: <нет>
И эти изменения отразились и на экране BIOS.
Состояние томов Intel RST RAID было нормальным.
Ниже приведен список команд, которые я использовал для успешного восстановления этого массива RAID 1.
Чтобы проверить статус рейда:
кошка /proc/mdstat
Удаление неисправного диска:
Сначала мы помечаем диск как неисправный, а затем удаляем его из массива:
mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --удалить /dev/sdb
Затем выключите систему и замените новый диск:
выключить -h сейчас
Добавление нового жесткого диска: Сначала вы должны создать точно такие же разделы, как на /dev/sda:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Чтобы проверить, имеют ли оба жестких диска одинаковые разделы:
fdisk -l
Затем мы добавляем этот диск в RAID-массив (вы можете использовать md126 или md127 соответственно, в зависимости от того, что является вашим основным RAID-массивом). Ниже приведена команда, которую я использовал:
mdadm --manage /dev/md127 --force --add /dev/sdb
Вот и все. Теперь вы можете видеть, что рейд начал восстанавливаться.