Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!

Ogłoszenie

Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.

#1  2011-06-12 15:29:30

  badgerman - Użytkownik

badgerman
Użytkownik
Skąd: Police
Zarejestrowany: 2008-07-06
Serwis

[SOLVED] Padło Raid5 podczas odbudowy - jak to poskładać?

Witam - podczas pracy RAID 5 wypiął się jeden dysk z macierzy (nie fizycznie - po prostu nagle było UU_ )
po dodaniu go mdadm zaczął synchronizować, ale niestety napotkał na nieoczekiwany pad prądu...
Teraz wygląda to tak:

Kod:

B-Serwer:/# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : inactive sdc1[0](S) sdb1[3](S) sdd1[1](S)
      2930279808 blocks

unused devices: <none>

Kod:

B-Serwer:/# mdadm --assemble --scan
mdadm: /dev/md0 assembled from 1 drive and 1 spare - not enough to start the array.

Kod:

B-Serwer:/# fsck /dev/md0
fsck 1.41.3 (12-Oct-2008)
e2fsck 1.41.3 (12-Oct-2008)
fsck.ext3: Zły argument podczas próby otworzenia /dev/md0

superblok nie mógł być odczytany lub nie opisuje prawidłowego systemu
plików ext2. Jeżeli urządzenie jest prawidłowe i naprawdę zawiera
system plików ext2 (nie jest swapem, ufs-em ani niczym innym),
to superblok jest uszkodzony - można próbować uruchomić e2fsck z innym
superblokiem:
    e2fsck -b 8193 <urządzenie>

jeszcze może to się przyda:

Kod:

B-Serwer:/# mdadm -E /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 1f8a1285:d6003c4f:e1beec66:df4db585
  Creation Time : Tue Jan 18 16:27:39 2011
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 1953519872 (1863.02 GiB 2000.40 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sun Jun 12 13:16:29 2011
          State : clean
Internal Bitmap : present
 Active Devices : 1
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 1
       Checksum : 353b41e8 - correct
         Events : 704766

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       17        3      spare   /dev/sdb1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       0        0        1      faulty removed
   2     2       0        0        2      faulty removed
   3     3       8       17        3      spare   /dev/sdb1

Kod:

B-Serwer:/# mdadm -E /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 1f8a1285:d6003c4f:e1beec66:df4db585
  Creation Time : Tue Jan 18 16:27:39 2011
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 1953519872 (1863.02 GiB 2000.40 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sun Jun 12 13:16:29 2011
          State : clean
Internal Bitmap : present
 Active Devices : 1
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 1
       Checksum : 353b41f8 - correct
         Events : 704766

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       33        0      active sync   /dev/sdc1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       0        0        1      faulty removed
   2     2       0        0        2      faulty removed
   3     3       8       17        3      spare   /dev/sdb1

Kod:

B-Serwer:/# mdadm -E /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 1f8a1285:d6003c4f:e1beec66:df4db585
  Creation Time : Tue Jan 18 16:27:39 2011
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 1953519872 (1863.02 GiB 2000.40 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sun Jun 12 13:16:01 2011
          State : active
Internal Bitmap : present
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : 353080d7 - correct
         Events : 704753

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       49        1      active sync   /dev/sdd1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       49        1      active sync   /dev/sdd1
   2     2       0        0        2      faulty removed
   3     3       8       17        3      spare   /dev/sdb1

Jakieś pomysły jak to poskładać do kupy aby dane były ?
Co oznaczają te literki S prze napędach ? Pamiętam że przy normalnej pracy tego nie było

OK - już się składa do kupy :) Niezły ze mnie panikarz :P

ok - może komu się przyda na przyszłość:

1. u mnie zadziałało

Kod:

mdadm --assemble --scan -fv

ważne - bez F nie szło

2. literka przy składowej RAID oznacza stan dysku - F- Faulty - uszkodzony, S-Spare - dodatkowy. Pewno są i inne ale nie powinno być żadnej aby działało :)

Pozdrawiam ekipę DUG

Ostatnio edytowany przez badgerman (2011-06-12 18:21:54)

Offline

 

Stopka forum

Powered by PunBB
© Copyright 2002–2005 Rickard Andersson
Możesz wyłączyć AdBlock — tu nie ma reklam ;-)

[ Generated in 0.012 seconds, 11 queries executed ]

Informacje debugowania

Time (s) Query
0.00017 SET CHARSET latin2
0.00009 SET NAMES latin2
0.00161 SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.135.183.187' WHERE u.id=1
0.00118 REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.135.183.187', 1713544766)
0.00077 SELECT * FROM punbb_online WHERE logged<1713544466
0.00119 SELECT topic_id FROM punbb_posts WHERE id=175232
0.00111 SELECT id FROM punbb_posts WHERE topic_id=19158 ORDER BY posted
0.00107 SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=19158 AND t.moved_to IS NULL
0.00008 SELECT search_for, replace_with FROM punbb_censoring
0.00102 SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=19158 ORDER BY p.id LIMIT 0,25
0.00142 UPDATE punbb_topics SET num_views=num_views+1 WHERE id=19158
Total query time: 0.00971 s