Восстановление Software RAID1 mdadm в Debian или что делать если массив развалился…

Иногда бывает так что какой либо раздел выпадает из массива такое может случится из за того что диск вышел из строя или по каким то другим причинам например диск в перестал читаться или невозможно было произвести запись и mdadm выкинул диск/раздел из своего массива.

сперва нужно определить какой именно раздел выпал

мы видим что массив md2 развалился и sda3 выпал, предположим что с физической точки зрения диск исправен, удаляем его из массива и добавляем по новому

проверяем

более детальнее

Дожидаемся завершения ребилдинга и радуемся.

Принудительно пометить диск что он сбойный можно ключиком -f

 

  6 комментариев в “Восстановление Soft RAID1 в Debian”

  1. Аналогичная ситуация, после очередного добавления диска в масив начинается ребилдинг, но после 1.3% ребилдинг останавливается и опять вижу картину _U
    Как быть?

     
    • Новый диск добавляете или старый который просто выпал?

      попробуйте все поотключать, например веб сервер если есть.

      можно снизить скорость ребилда, так же смотрите логи.

       
  2. Блин, аналогичная ситуация. Как то все в 1 момент случилось. Диск по словам засвистел в попытках старта, остановка-старт. А другой диск по каким то причинам выпал из массива. В итоге полурабочий массив можно собрать только из диска, который свистит и имеет ошибки чтения. Замкнутый круг. Чудом вчера смонтировался /dev/md2, с которого кое что прочиталось.

     
  3. личное мнение:
    если raid1 распался, и загрузка идет только с неисправного диска то
    1) если «инфа» на втором диске есть, но он не грузится…
    — то возможно там все хорошо, но у нас не прописан загрузчик — его следует восстановить,
    как вариант загружаемся с life-CD, принудительно монтируем разделы, «чрутимся» … восстанавливаем райд и загрузку…
    2) если «инфа» затерта, то в помощь команда dd — копируем «инфу» с «умирающего,» на новый диск
    (!!! его перед этим нужно проверить на предмет железных проблем, чтоб не вылетал потом)
    заменяем «умирающий» на наш новый — грузимся с него, подключаем второй диск, восстанавливаем райд…

     
  4. Здравствуйте! у меня вопрос, он может для Вас и простой, у меня недавно полетел диск на raid 1 , и другой тоже начал глючить, я решил их сменить, извлекал их путем вывода дисков из массивов (поэтапно, сначало сбойный и все скопировал на новый жесткий диск, а затем и глючный, уже синхранизировал с нового установленного жесткого диска, естественно на два жестких диска я еще устанавливал загрузчик GRUB, что бы при выводе из строя, я мог загрузиться с любого диска):

    Удалил сбойный диск из массивов:
    mdadm —manage /dev/md0 —remove /dev/sda1
    mdadm —manage /dev/md1 —remove /dev/sda5

    Удалять возможные следы предыдущих RAID массивов я не стал (незнаю, нужно это делать или нет?):
    mdadm —zero-superblock /dev/sda1
    mdadm —zero-superblock /dev/sda5

    Выключил сервер (poweroff), без горячей замены и у меня поменялись значения, может это и не критично:

    md1 : active raid1 sdb5[3] sda5[2] — были до замены md1 : active (auto-read-only) raid1 sdb5[1] sda5[0]

    md0 : active raid1 sdb1[3] sda1[2] — были до замены md0 : active raid1 sdb1[1] sda1[0]

    значение [1] и [0] стали [3] и [2] в скобках, можно как то вернуть старые значения? и что означают эти цифры???

     

 Оставить комментарий

(обязательно)

(обязательно)

   
Copyright © 2012. Linuxguru.ru