Довольно частое явление, когда один из дисков выпадает из рейда и надо его добавить снова.
Проверяем состояние рейда:
$ sudo cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda1[0]
1953381376 blocks super 1.2 [2/1] [U_]
bitmap: 13/15 pages [52KB], 65536KB chunk
Как видно (в результате одна буква U вместо двух) одного диска, в данном случае sdb1 не хватает что показывает результат команды
$ sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 28 14:23:43 2019
Raid Level : raid1
Array Size : 1953381376 (1862.89 GiB 2000.26 GB)
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed May 19 14:21:25 2021
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : sirma:0 (local to host sirma)
UUID : 9ae9a023:bf0caa1c:f60c90f2:89458fe0
Events : 41373
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
- 0 0 1 removed
Первое, что нужно попробовать и что в большинстве случаев помогает - заново добавить диск в рейд
sudo mdadm --manage /dev/md0 --add /dev/sdb1
Читаем результат
$ sudo mdadm --manage /dev/md0 --add /dev/sdb1
mdadm: re-added /dev/sdb1
Проверяем результат
$ sudo cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[1] sda1[0]
1953381376 blocks super 1.2 [2/2] [UU]
bitmap: 4/15 pages [16KB], 65536KB chunk
unused devices: <none>
Радуемся.
Эта статья не позволяет полностью решить все возникшие проблемы, но элементарно восстановить работоспособность можно.
Вам ведь не нужно напоминать, что вы все делаете на свой страх и риск, и автор статьи не несет ответственности за возможный причиненный ущерб? ;-) Экспериментируйте, ведь дорогу осилит идущий.