Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!

Ogłoszenie

Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.

#1  2011-11-22 15:36:38

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

mdadm - raid 1 - awaria dysku

Kilka dni temu słyszę, że z serwera kopii wydobywa się okresowy brzęk z obudowy czemu towarzyszyło mruganie diod w klawiaturze. Odpalam więc monitor a tak coś w stylu " ... /dev/sdb ... Kernel Panic " głupi nie spisałem komunikatu tylko wyłączyłem kompa na twardo. Odpaliłem komputer z live i przysłuchałem się dźwiękom i rzeczywiście wszystko wskazywało na dysk. Odpiąłem jeden z dysków ... dźwięków brak. Sprawdziłem dysk oprogramowaniem WD i już przy quick test wywaliło błąd. Teraz nie wiem jak zabrać się za odzyskiwanie (uruchomienie) systemu. Gdy próbuje uruchomić system mając jeden podłączony dysk wywala mi

Kod:

Boot Failure
Reboot and Select proper Boot device
or Insert Boot Media in selected Boot device

Grub 2 był instalowany na obu dyskach więc teoretycznie powinien się pokazać bootloader. Raid 1 był tworzony w oparciu o partycje z tego co pamiętam /dev/md0 dla / oraz /dev/md1 /home. Co teraz? Myślałem, żeby odpalić live skorzystać z chroot i zainstalować na dysku (chyba /dev/sda) grub'a potem jakoś wskazać mu lokalizację wymaganych plików startowych na zdegradowanej partycji. Czy dobrze myślę proszę o wskazówki i wyjaśnienia jak dla newbie - krok po kroku.

O jest promyk nadziei ... odpaliłem grml z live potem
/etc/init.d/mdadm-raid start
wynik

Kod:

Assembling MD array md0 ... done (degraded [1/2])
Assembling MD array md1 ... done (degraded [1/2])
Generating udev events for MD arrays ... done.

polecenie cat /proc/mdstat

Kod:

Personalities : ...
md1 : active raid1 sda6[2]
966560632 blocks super 1.2 [2/1] [U_]

md0 : active raid1 sda1[2]
9763768 blocks super 1.2 [2/1] [U_]

unused devices: <none>

Zastanawiam się czy teraz nie powinienem zrobić czy trzeba skorzystać z chroot najpierw ...

Kod:

grub-install /dev/sda

Czekam na mądrzejszych by nie zepsuć mojej ciężkiej pracy ;(
Ponadto dysk, który padł to WD11EVDS  z serii GreenPower nie wiem czy nie kupić do macierzy innego dysku (dyski są podpięte pod fakeraid sata na PCI ogranicznie dysku to 1TB i takie dotychczas były podpięte). Gdzieś słyszałem, że ta seria dysków była dość ... "podatna na awarie" ten dysk ma zaledwie 6 miesięcy. Ze względu na gromadzone na nim dane osobowe nie mogę wysłać go na gwarancji ... Czy nie kupić innego dysku znaczy innej firmy lub z innej serii?

Offline

 

#2  2011-11-23 00:11:09

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/urandom
Zarejestrowany: 2008-01-07

Re: mdadm - raid 1 - awaria dysku

Do raida bierz dyski, które do raida są przeznaczone.

NP dyski Seagate serii AS zaliczyly wpadkę jakościową.
Dlatego teraz, jakbym polecił Seagate - to zaraz ktoś zacznie flamewar.

Tylko, że ja kupując kompa (4 lata temu), celowo kupiłem dysk serwerowy do raid, model ST3400620NS (Seagate Barracuda ES), o którym wiedziałem, że ma łożysko z dysków scsi i jest przeznaczony do pracy ciągłej 24h/dobę.
Za cichy nie jest, ale czwarte urodziny obchodził w sierpniu, w teście SMART ani jednego błędu, anawet jednego bad-sektora nie ma.

Jak kupowałem, to w paru sklepach o ten model pytałem, a wszyscy sprzedawcy chóralnie albo pytali: "a po co panu taki drogi dysk, kosztuje ponad 350, a normalny 170, i chodzi wieki, 10 lat wytrzyma spokojnie, przecież wszyscy takie mają, i nikt się nie skarży......"
A czasami wciskali mi kit - że AS to ten dysk, o który pytam, tylko symbol się zmienił. :D

Tylko po czterech latach chodzi jak nowy :D
Wieć do raida bierz dysk przeznaczony do raida.
Wszyscy producenci takie mają, zazwyczaj sporo droższe od normalnych.

Poza tym raida polecam tylko 1, 1.0 lub 0.1, wtedy jak padnie jeden dysk, to nie tracisz ani jednego bajta.
A żadko się zdarza, żeby w jednej chwili padły dwa dyski na raz.

W dodaktu fakeraid - następny strzał w stopę:
Żadnego zysku na wydajnosci nie ma, i tak obciąza procka, a jak walnie płyta, i nie będzie można kupić tego lub kompatybilnego modelu, to dopiero będą jaja, kiedy np okaże się, że kontroler nowej płyty nie obrobi spadku po poprzedniku.
I ciekawe,jak potem wydostaniesz wyniki:

mojej ciężkiej pracy ;([/quote]
Więc albo bierz ze dwa albo cztery kawałki i leć po kontroler sprzętowy , np Adapteca,
albo postaw na Linuxie raid programowy.
Wtedy kernel obsługuje RAID, w jaju masz do tego sterowniki, i nie zajmujesz się problemem, co będzie jak walnie "kontroler", wydajność macierzy taka sama, albo lepsza, a działa na każdej płycie, i bez problemu odpalisz go z każdego LiveCD.

Albo zastanów się, skąd wzięło się określenie "fakeraid' - którego sam użyłeś.

RTFM:

Kod:

man mdadm

[url]http://wiki.debian.org/SoftwareRAID[/url]
[url]http://en.gentoo-wiki.com/wiki/RAID/Software[/url]

[b]Edyta:[/b]
Poza tym jedno pytanie:
Piszesz, że problem dotyczy mdadm:
temet: mdadm - raid 1
A w tekście piszesz o fakeraid:

....(dyski są podpięte pod fakeraid sata na PCI ogranicznie dysku....[/quote]
[b]Wiec zdecyduj się, czy to fakeraid czy softraid.[/b]
Bo do fakeraida jest narzędzie [b]dmraid[/b].
RTFM:

Kod:

man dmraid

[url]https://help.ubuntu.com/community/FakeRaidHowto[/url]

Ponadto przy RAID 1 masz komplet danych na sprawnym dysku.

To by było na tyle
;-)

Ostatnio edytowany przez Jacekalex (2011-11-23 03:35:13)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#3  2011-11-23 08:02:57

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Niepotrzebnie użyłem słowa fakeraid :/, co prawda kontroler sata posiada taką funkcjonalność ale z niej nie korzystam :). Wszystko działa na softraid. Także proszę o pomoc jak sprawdzić "dostępność danych" na zdegradowanej macierzy stworzonej mdadm (ps. przytoczone powyżej argumenty przemówimy za tym podczas wyboru rozwiązania). Dyski jakie miałem podłączone były jednymi z droższych, może po prostu miałem pechowy egzemplarz. Z tego co pamiętam instalowałem grub'a na obu dyskach tak by na wypadek padu system wstał ... a na dzień dzisiejszy otrzymuje taki komunikat

Kod:

Boot Failure
Reboot and Select proper Boot device
or Insert Boot Media in selected Boot device

Nie wiem czy zdegradowaną macierz podpinać w live grml'u do środowiska chroot. Jeśli to możliwe proszę o przeniesienie wątku do działu Sieci i serwery, omyłkowo utworzyłem go w hardware.

Ostatnio edytowany przez bonus (2011-11-23 08:04:45)

Offline

 

#4  2011-11-23 09:22:42

  bobycob - Członek z Ramienia

bobycob
Członek z Ramienia
Skąd: Wrocław
Zarejestrowany: 2007-08-15

Re: mdadm - raid 1 - awaria dysku

doinstaluj gruba na /dev/sda

Na pewno te zdegradowane macierze możesz też podmontować i skopiować dane.
Dawno się w to nie bawiłem, ale możesz spróbować zamontować też partycje jako ext2 (zakładam, że system plików to ext3/4) ReadOnly i też dostęp do danych powinien być możliwy.

Parę razy odzyskiwałem gruba metodą "na lamę" czyli bez chroot nawet za pomocą knoppixa.

Offline

 

#5  2011-11-23 12:08:05

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Tak jak pisałem co do linux'a jestem newbie więc się upewnię i zapytam czy dobrze planuję. Chcę zrobić tak ja w http://dug.net.pl/tekst/77/przywracanie_grub2_za_pomoca_chroot/
Odpalam z live grml potem

Kod:

# /etc/init.d/mdadm-raid start
# mkdir /mnt/root
# mount /dev/md0 /mnt/root

/ jest na md0 (składała sie sda1 i sdb1 - uszkodzony),  a /home na md1 (składała się z sda6 i sdb6 - uszkodzony)

Kod:

# mount -o bind /dev /mnt/root/dev
# mount -t proc none /mnt/root/proc
# chroot /mnt/root

Pytanie czy muszę wykonać "montujemy partycję, na której mieliśmy zainstalowanego wcześniej grub'a:"
mount /dev/hda1 /boot ? W moim przypadku wykonałbym /dev/md0 /boot ale po co skoro root zostal wskazany i tam właśnie będzie szukal /boot czy coś mylę i muszę wykonać właśnie

Kod:

# mount /dev/md0 /boot

potem

Kod:

# grub-install /dev/sda

i powinno ruszyć przy starcie, czy lepiej zdegradowanej macierzy nie odpalać ps. przy okazji proszę o wskazanie jak za pomocą rsync szybko wykonać kopię danych na md0 z wyłączeniem /home, który znajduje się na /md1?

Offline

 

#6  2011-11-23 12:12:34

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/urandom
Zarejestrowany: 2008-01-07

Re: mdadm - raid 1 - awaria dysku

Walnięty jest dysk, czy tylko RAID?

Bo jeśli dysk, a masz RAID 1 - to ja bym po prostu wymienił dysk, podpiął nowy i poczekał,  mdadm powinien odbuduwać macierz.
Czyli usunął w mdadm dysk i dodał nowy.

Jeśli natomiast tylko RAID, a dysk jest sprawny, to wtedy zobacz na sprawnym dysku, czy jest tam wszystko, co powinno (to w końcu RAID 1), i potem tak samo jak powyżej.

Tutaj masz fajny i dość łopatologiczny opis:
http://wiki.opzsgu.pl/index.php?title=Mdadm
Jest tam (przy RAID 1), opisany niemal dokładnie twój przypadek, włącznie z zamotowanie macierzy ze zwalonym dyskiem w trybie --force.
Wtedy powinienieś mieć normalny dostęp do danych.

Pozdro
;-)

Ostatnio edytowany przez Jacekalex (2011-11-23 12:24:33)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#7  2011-11-23 12:29:09

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Raid chyba jest w porządku po podmontowaniu w grml macierzy mam status, że jest zdegradowana ... chociaż wynika to z tego, że wypiąłem uszkodzony dysk. Dysk sprawdzałem oprogramowaniem WD, już przy quick jest błąd "SERVO/SEEK ELEMENT FAILURE 6" a zerowania dysku nie mogę przeprowadzić. Rozumiem, że w obecnej sytuacji skoro grub był zainstalowany na obu dyskach i swap nie był w raid'ie lecz został utworzony osobno dla obu dysków to system powinien wstać? A obecna sytuacja - komunikat wygląda tak jakby grub był zainstalowany na md0 ? Nie mam w tej chwili nowego dysku ... czy mogę odpalić system gdy macierz jest zdegradowana po wykonaniu wyżej wspomnianych krotków? Czy po podmontowaniu zdegradowanej macierzy z live mogę poruszać po jej strukturze katalogowej i przeglądać dane? Czy przy wyżej wspomnianych krokach wykonać muszę

Kod:

# mount /dev/md0 /boot

tzn. czy to polecenie jest konieczne?

Offline

 

#8  2011-11-23 16:02:39

  bobycob - Członek z Ramienia

bobycob
Członek z Ramienia
Skąd: Wrocław
Zarejestrowany: 2007-08-15

Re: mdadm - raid 1 - awaria dysku

jest konieczne tylko w sytuacji gdy /boot jest na osobnej partycji

Offline

 

#9  2011-11-25 11:31:51

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Zakupiłem nowy dysk ale inny Liczba Hitachi Ultrastar A7K2000. Jednak nie mogę przekopiować tablicy partycji z dysku podłączonego do macierzy raid1.

Kod:

sfdisk -d /dev/sdb | sfdisk /dev/sda
Warning: extended partition does not start at a cylinder boundary.
Dos and Linux will interpret the content differently.
Checking that no-one is using this disk right now ...
OK

Disk /dev/sda: 121601 cylinders, 255 heads, 63 sectors/track

sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/sda: unrecognized partition table type
Old situation:
No partition found
Warning: given size (1933989890) exceeds max allowable size (1933989233)
sfdisk: bad input

Manualnie przez fdisk nie mogę dla sda (nowego dysku) utworzyć partycji kończących się na tych samych cylindrach boję się, że miałem źle je utworzone od samego początku podczas tworzenia starej konfiguracji. Ponadto nie pamiętam jakim narzędziem je tworzyłem. Dziwne dla mnie się wydaje to, że blok nowej partycji jest końcem poprzedniej.

Kod:

fdisk -l /dev/sdb

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0004db05

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1        1216     9764864   fd  Linux raid autodetect
/dev/sdb2            1216      121602   966994945    5  Extended
/dev/sdb5            1216        1270      432128   82  Linux swap / Solaris
/dev/sdb6            1270      121602   966561792   fd  Linux raid autodetect

Kod:

fdisk -l /dev/sda

Disk /dev/sda: 1000.2 GB, 1000203804160 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sda doesn't contain a valid partition table

Ostatnio edytowany przez bonus (2011-11-25 11:57:46)

Offline

 

#10  2011-11-25 11:46:01

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/urandom
Zarejestrowany: 2008-01-07

Re: mdadm - raid 1 - awaria dysku

Gdzie wyczytałeś, ze dyski różnych producentów można zawsze łączyć w raid?
Bo ja zawsze czytałem, ze należy do radia używać identycznych dysków o dokladnie takich samych parametrach, najlepiej tego samego modelu i producenta.
W przeciwnym przypadku mogą być (mogą nie znaczy że muszą być, istnieje jednak duże prawdopodobieństwo), kłopoty z synchronizacją dysków i prawidłowym dzialaniem raida, a także trwałosci dysków.

Jak masz dyski rożnych producentow, o różnych parametrach technicznych, to zainteresuj się lepiej [b][url=http://en.wikipedia.org/wiki/DRBD#Inclusion_in_Linux_kernel]DRBD[/url][/b].

A już kopiowanie tablicy partycji między dyskami różnych producentów, o różnej strukutrze dysku, to totalna głupota.
Tablica partycji opisuje rozmieszczenie partycji wg numerów sektorów dysku, dyski różnego typu mają czasami różne liczby talerzy, i prawie zawsze  rózne liczby sektorów.
Dlatego kopiowanie tablicy partycji między róznymi dyskami to bzdura stulecia.
Tablicę partycji można skopiować między TAKIMI SAMYMI dyskami, które mają taką samą liczbę talerzy, ścieżek i sektorów.

To by było na tyle
;-)

Ostatnio edytowany przez Jacekalex (2011-11-25 11:50:26)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#11  2011-11-25 12:02:57

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Teoretycznie w raid1 można łączyć dyski nawet o różnych pojemnościach. Mniejszy dysk będzie ograniczał wielkość macierzy, czy się mylę? To co mogę zrobić w takim wypadku dyski mają przecież identyczne pojemności, da się go wpiąć do zdegradowanej macierzy czy też nie?

Ostatnio edytowany przez bonus (2011-11-25 12:05:23)

Offline

 

#12  2011-11-25 15:33:24

  bobycob - Członek z Ramienia

bobycob
Członek z Ramienia
Skąd: Wrocław
Zarejestrowany: 2007-08-15

Re: mdadm - raid 1 - awaria dysku

uzyj dd
dd if=/dev/disk1 of=/dev/disk2

tak na lenia potwierdzasz enter komendą ctrl-c ;) i masz skopiowane pierwsze sektory wraz z tablicą partycji :D

Zalecenie zaleceniami - jednak raid programowy to nie sprzętowy i nie będzie widział problemu. Byle miał gdzie pisać  i nie było błędów.

Jacek przecież i tak do adresowania sektorów jest używane LBA - nie pracuje się tu na cylindrach. DM jest obojętne jak i gdzie  zapisze to dysk byle nie było błędów.

Zdarzyło mi się raz, że dwa dyski z jednego kartonu miały pojemność raportowana przez system różniącą się o 2 MB :)

Offline

 

#13  2011-11-25 18:42:48

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/urandom
Zarejestrowany: 2008-01-07

Re: mdadm - raid 1 - awaria dysku

Jacek przecież i tak do adresowania sektorów jest używane LBA - nie pracuje się tu na cylindrach. DM jest obojętne jak i gdzie  zapisze to dysk byle nie było błędów.[/quote]
W zasadzie tak, należy jednak pamiętać, że jeśli w linni poleceń gruba można parametrem elevator ustawić zachowanie głowicy dysku, to znaczy że kernel ma wpływ na zachowanie tej głowicy.
Jeśoli natomiast musi synchronizować działanie dwóch głowic - to ja jednak dawałbym takie same dyski.
Choć może przesadzam, ale

WD11EVDS  z serii GreenPower[/quote]
tez nie powinien klękać po 6 miesiącach (o ile byl nowy), i być może raid się do tej awarii przyczynił.

Na róznych dyskach robiłbym DRBD, i wtedy każdy dysk pracuje osobno, a drugi jest lustrzanym odbiciem pierwszego.
Dokładnie tak, jak w RAID 1, ale nie ma ryzyka, że padnie macierz, bo jej tam nie ma, są 2 dyski z ciągłą synchronizacją.
I kazdy działa w swoim rytmie.

Pozdro
;-)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#14  2011-11-27 15:25:53

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Hmmm sam już nie wiem co robić ... chciałem szybko przywrócić komputer do działania a tutaj muszę zapoznać się z nowym narzędziem by podnieść system na nogi :( i zabezpieczyć go przed awarią. Czy skorzystanie z narzędzia dd w tym wpadku jest bezpiecznym rozwiązaniem ... Może jakiś aktualny i sprawdzony tutorial odnośnie zastosowania narzędzie DRBD. Szczerze powiedziawszy wolałbym pozostać przy mdadm, gdyż trochę się już z nim zaprzyjaźniłem :).

Offline

 

#15  2011-11-27 16:52:35

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/urandom
Zarejestrowany: 2008-01-07

Re: mdadm - raid 1 - awaria dysku

Tu masz przepis na HA+DRBD  na wiki Gentoo, zakłada DRBD przez sieć:
http://en.gentoo-wiki.com/wiki/Heartbeat_and_DRBD
A tu conieco w Debianie:
http://wiki.debian.org/kristian_jerpetjoen

Pozdro
;-)

Ostatnio edytowany przez Jacekalex (2011-11-27 16:57:30)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#16  2011-11-27 20:06:47

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Miałem nadzieję, że potwierdzi ktoś propozycję
[quote=bobycob]uzyj dd
dd if=/dev/disk1 of=/dev/disk2[/quote]
... być może uda mi się wymienić dysk na identyczy z działającym ... :/. Widzę, że nikt nie jest w stanie wskazać jednoznacznego przepisu na softraid 1 w takich konfiguracji dyskowej :(.

Offline

 

#17  2011-12-01 09:44:44

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Załatwiłem identyczny dysk zrobiłem kopię tablicy partycji stanowiącego "element" zdegradowanej macierzy

Kod:

sfdisk -d /dev/sdb | sfdisk /dev/sda

Jednak wywala warning i blokuje realizację polecenia

Kod:

Warning: partition 1 does not end at a cylinder boundary
sfdisk: I don't like these partitions - nothing changed.
(If you really want this, use the --force option.)

No więc wymusiłem, nie wiem czy przez to się nie posypał poprzedni dysk, bo była identyczna sytuacja ... czy mógłby ktoś mądry wypowiedzieć się na ten temat.
W tej chwili wykonuje się już synchronizacja macierzy. A może miałem jej lepiej nie wykonywać, utworzyć nową tablicę partycji na nowym dysku (taką, która nie wygenerowała by wyżej wskazanego ostrzeżenia), utworzyć macierze md2 i md3 identycznie jak dla md0 i md1 i skopiować dane ze starej zdegradowanej macierzy, usunąć tablicę partycji z /dev/sdb i podłączyć go do nowych macierzy softraid1 tak by przy

Kod:

sfdisk -d /dev/sda | sfdisk /dev/sdb

nie pokazał się warning ?

Offline

 

#18  2011-12-02 07:51:09

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Po synchronizacji ... system nie wstaje z żadnego z dysków dla pierwszego staje na wyszukiwaniu sektora rozruchowego, natomiast dla drugiego jest tak:

Kod:

Searching for Boot Record from BBS-1:[1210SA#0-#1 JBOD]...OK
GRUB _

Towarzystko jakby ostatnio o mnie zapomniało, żadnych podpowiedzi ... :(

Offline

 

#19  2011-12-02 09:08:46

  bobycob - Członek z Ramienia

bobycob
Członek z Ramienia
Skąd: Wrocław
Zarejestrowany: 2007-08-15

Re: mdadm - raid 1 - awaria dysku

Teraz to się narobiło, mam nadzieję, że masz maskotkę o imieniu backup ?:)
Czy nie prościej było zamiast główkować na kopiowaniem tablicy partycji, utworzyć nowe o identycznej ilości bloków. Oznaczyć je jako linux raid (czy jak one się nazywają) po czym za pomocą mdadm dodać do macierzy? Nie bardzo rozumiem skąd pomysł z przenoszenie tablicy partycji, pomysł z tworzeniem md2 i md3 to już zagadka?
Jeżeli otworzyłeś nowe macierze na nowym dysku md2 i md3 po czym partycję  sda1 (która przykładowo była w md0) dodałeś do nowo utworzonej i już działającej md2 - radośnie wypełniłeś ją pustą macierzą.
A wystarczyło dodać do md0 partycję sdb1
(nie sprawdzałem jak masz oznaczone partycje)

Ostatnio edytowany przez bobycob (2011-12-02 09:09:25)

Offline

 

#20  2011-12-02 13:24:51

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Udało mi się skopiować tablicę partycji

Kod:

sfdisk -d /dev/sda | sfdisk -f /dev/sdb

zrobiłem synchronizację, potem chroot oraz instalacja gruba na /dev/sda i dev/sdb i system wstał :) ale ... nadal zastanawiam czy podział na partycje jest prawidłowy

Kod:

Warning: partition 1 does not end at a cylinder boundary
sfdisk: I don't like these partitions - nothing changed.
(If you really want this, use the --force option.)

Jeżeli chodzi o utworzenie partycji o identycznej ilości bloków ... był z tego co pamiętam nie możliwy bo partycja rozszerzona musiała zaczynać się od 1217 cylindra i liczba bloków była automatycznie mniejsza dla partycji rozszerzonej - tak wyrzucał fdisk (być może piszę głupoty).
Obecnie wszystko wygląda

Kod:

cat /proc/mdstat 

Personalities : [raid1]
md1 : active raid1 sdb6[2] sda6[3]
      966560632 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sdb1[2] sda1[3]
      9763768 blocks super 1.2 [2/2] [UU]

unused devices: <none>
/proc/mdstat (END)

Kod:

fdisk -l /dev/sda

Dysk /dev/sda: 1000.2 GB, bajtów: 1000204886016
głowic: 255, sektorów/ścieżkę: 63, cylindrów: 121601
Jednostka = cylindrów, czyli 16065 * 512 = 8225280 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Identyfikator dysku: 0x00000000

Urządzenie Rozruch   Początek      Koniec   Bloków   ID  System
/dev/sda1   *           1        1216     9764864   fd  Linux RAID autodetect
/dev/sda2            1216      121602   966994945    5  Rozszerzona
/dev/sda5            1216        1270      432128   82  Linux swap / Solaris
/dev/sda6            1270      121602   966561792   fd  Linux RAID autodetect

Kod:

fdisk -l /dev/sdb

Dysk /dev/sdb: 1000.2 GB, bajtów: 1000204886016
głowic: 255, sektorów/ścieżkę: 63, cylindrów: 121601
Jednostka = cylindrów, czyli 16065 * 512 = 8225280 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Identyfikator dysku: 0x0004db05

Urządzenie Rozruch   Początek      Koniec   Bloków   ID  System
/dev/sdb1   *           1        1216     9764864   fd  Linux RAID autodetect
/dev/sdb2            1216      121602   966994945    5  Rozszerzona
/dev/sdb5            1216        1270      432128   82  Linux swap / Solaris
/dev/sdb6            1270      121602   966561792   fd  Linux RAID autodetect

Co to tego mojego opisu odnośnie md3 i md2 :) wiem czasem piszę chaotycznie ... wyjaśnię jak wrócę do domu.

Offline

 

#21  2011-12-02 15:32:32

  bobycob - Członek z Ramienia

bobycob
Członek z Ramienia
Skąd: Wrocław
Zarejestrowany: 2007-08-15

Re: mdadm - raid 1 - awaria dysku

Rozmiar partycji rozszerzonej nie ma najmniejszego znaczenia, Ważny jest rozmiar partycji którą chcesz użyć do raid (ilość bloków). W poprzedniej wypowiedzi miałem na myśli utworzenie partycji z ręcznym podaniem ilości bloków np za pomocą fdisk. dodam, że dla mdadm obojętne jest czy jest ona sdb1 sdc5 sda1 czy sda11.
Przy LBA (każdy współczesny komputer PC) nie pracuje się na cylindrach tylko bezpośrednio adresuje blok. Nie przejmowałbym się tu specjalnie różnicą w położeniu.

teraz to mi wyszło chaotycznie ;)

Offline

 

#22  2011-12-04 21:34:29

  bonus - Użytkownik

bonus
Użytkownik
Zarejestrowany: 2009-11-12

Re: mdadm - raid 1 - awaria dysku

Hmm czyli komunikat

Kod:

Warning: partition 1 does not end at a cylinder boundary
sfdisk: I don't like these partitions - nothing changed.
(If you really want this, use the --force option.)

może zostać zignorowany albowiem wszystko (odczyt, zapis danych) odbywa się w oparciu o LBA i napewno taka konfiguracja jaką posiadam jest poprawna ?
A czy moja wypowiedź

Jeżeli chodzi o utworzenie partycji o identycznej ilości bloków ... był z tego co pamiętam nie możliwy bo partycja rozszerzona musiała zaczynać się od 1217 cylindra i liczba bloków była automatycznie mniejsza dla partycji rozszerzonej - tak wyrzucał fdisk (być może piszę głupoty).[/quote]
jest faktem - prawdziwa ?

Offline

 

Stopka forum

Powered by PunBB
© Copyright 2002–2005 Rickard Andersson
Nas ludzie lubią po prostu, a nie klikając w przyciski ;-)

[ Generated in 0.011 seconds, 11 queries executed ]

Informacje debugowania

Time (s) Query
0.00009 SET CHARSET latin2
0.00004 SET NAMES latin2
0.00124 SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.135.200.121' WHERE u.id=1
0.00089 REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.135.200.121', 1732761363)
0.00038 SELECT * FROM punbb_online WHERE logged<1732761063
0.00089 SELECT topic_id FROM punbb_posts WHERE id=186546
0.00005 SELECT id FROM punbb_posts WHERE topic_id=20102 ORDER BY posted
0.00031 SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=20102 AND t.moved_to IS NULL
0.00026 SELECT search_for, replace_with FROM punbb_censoring
0.00311 SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=20102 ORDER BY p.id LIMIT 0,25
0.00078 UPDATE punbb_topics SET num_views=num_views+1 WHERE id=20102
Total query time: 0.00804 s