Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Strony: 1
Witam forumowiczów.
Mam problema: na maszynie wirtualnej (VirtualBox + dwa obrazy dysków) próbowałem instalować debiana testing na tworzonej podczas instalacji RAID 1. Podczas instalacji zrobiłem na dyskach po 3 partycje połączyłem je w 3 urządzenia RAID 1 i kazałem instalatorowi zrobić na nich /boot swap / . Niestety wysypuje się instalacja systemu bazowego nie podając przyczyny tylko czerwony komunikat o niepowodzeniu.
Z lektury w necie zorientowałem się, że mogę zainstalować system na jednym dysku bez macierzy, dopiąć drugi zrobić na nim macierze fałszywe zbudowane z jednej partycji fizycznej, skopiować na nie dane zainstalowanego systemu, przekonfigurować fstab i grub ( i zainstalowac go na drugim dysku), do macierzy dołożyć pierwszy dysk i zsynchronizować.
Łatwiej byłoby jednak zrobić to prościej i od razu zainstalować system na macierzy. Niestety nie znalazłem w necie wskazówek jak to zrobić (bądź nie zjażyłem jak to zrobić).
Z góry dzięki za wszelkie wskazówki i pomoc!
Offline
Dzięki.
W syslogu znalazłem:
Unpacking udev ... Setting up udev ... udevadm_test: udevadm_test: A chroot environment has been detected, udev not started.
i na końcu:
Czytanie list pakietów... Budowanie drzewa zależności... Odczyt informacji o stanie ... Następujące pakiety mają niespełnione zalezności: mdadm: Wymaga: udev ale nie zostanie zainstalowany lub makedev ale nie da się go zainstalować
Z grubsza rozumiem o co chodzi, ale nie mam pojęcia jak rozwiązać ten problem.
Zdziwiony jestem ciutkę bo kiedyś podobnie instalowałem debiana na macierzy od razu, co prawda /boot było na hda1 bez macierzy a reszta na urządzeniach RAID1 - tyle że tutaj problem jest z samą nieobecnością udev podczas instalacji a nie rozkładem drzewa na macierzach.
Ostatnio edytowany przez peadyr (2009-10-29 22:42:09)
Offline
A może spróbuj z stable bo on mi działał?
Offline
tomii, tak też pomyślałem, spróbuję zainstalować stable na RAID1 i zrobić upgrade do testing.
Zastanawiam się czy jeśli postawię tak system testing na RAID1 i będzie stał tak kilka lat w niedużym biurze głównie jako server samby, sftp, postgresql, dhcp, OpenLDAP cały czas aktualizowany w wersji testing, to czy po którejś aktualizacji mdadm bądź większych zmianach systemowych ta macierz mi się nagle nie posypie??
Offline
A dlaczego chcesz testing na server?
Myślę że są małe szanse że może się posypać ale nigdy nie wiadomo. Za parę lat to bez problemu na czas upgrade będziesz mógł zrobić backup.
Offline
Jak się zastanowię to faktycznie stable wydaje się rozsądny, dotychczas jako że na lapku mam testing było mi bardzo wygodnie mając te same wersje pakietów na serwerze.
P.S. zacząłem ściagać stable.
Na stable zainstalowałem jak chciałem, niestety nie bardzawo rozumiem dlaczego nie mogłem na testing!!
Ostatnio edytowany przez peadyr (2009-11-02 22:11:58)
Offline
A ja utknąłem na etapie tworzenia macierzy podczas instalacji. Doszedłem do momentu wyboru aktywnych urządzeń (docelowo Raid1 na dyskach 2 x 40 GB).
O co właściwie chodzi z tymi aktywnymi urządzeniami. W liście wyboru mam takie pozycje:
[ ] /dev/hda1 [ ] /dev/hda5 [ ] /dev/hda6 [ ] /dev/hdb1 [ ] /dev/hdb5 [ ] /dev/hdb6
Jest tu napisane, że muszę wybrać dokładnie 2 partycje, które wybrać?
Offline
Jeżeli się nie myle to chodzi o wybranie użądzeć(partycji do raid) wybierz hda1 i hdb1 o ile są tego samego rozmiaru następnie do samo dla 5 i 6
Offline
mdadm --manage /dev/md0 --fail /dev/sdb1
mdadm --manage /dev/md0 --remove /dev/sdb1
a później dodajesz do nowa
Offline
Pierwsza ustawia /dev/sdb1 jako uszkodzony, druga usuwa uszkodzony /dev/sdb1 z macierzy.
Wykonaj cat /proc/mdstat przed tymi komendami i po kazdej - powinieneś zauważyć rożnicę (zwróć uwagi na znaki F, U, _)
Partycję /dev/sdb1 dodasz z powrotem poprzez:
mdadm /dev/md0 -a /dev/sdb1
i znowu zobacz /proc/mdstat, zobaczysz pasek postępu odbudowy macierzy
Offline
Wykonałem powyższe instrukcje i wygląda, że działa. Przywraca sobie teraz dane. Super sprawa, można teraz tworzyć raid bez ograniczeń hardwareowych.
Fajnie by było gdyby po desynchronizacji soft sam odbudowywał macierz.
=================================
Wypiąłem sobie jeden z dysków i system podniósł się bez problemu. Wykonując cat /proc/mdstat otrzymuję:
Personalities : [raid1] md2 : active raid1 hda6[0] 30852736 blocks [2/1] [U_] md1 : active (auto-read-only) raid1 hda5[0] hdb5[1] 1389504 blocks [2/2] [UU] resync=PENDING md0 : active raid1 hda1[0] 6835520 blocks [2/1] [U_] unused devices: <none>
Jakim poleceniem mam teraz to odbudować?
[i]// połączyłem posty — ArnVaker[/i]
Offline
A podpiąłeś z powrotem dyski? Podepnij i sprawdź /proc/mdstat
Offline
Automatyczna synchronizacja byłaby bez sensu, bo skąd mdadm ma wiedzieć, że wcześniej usunięty/uszkodzony dysk jest sprawny? A i tak o zdegenerowaniu macierzy dowiesz się z logów/e-mail i będziesz musiał ustawić dany dysk/partycję jako uszkodzoną, usunąć z macierzy, a następnie po wymienieniu dysku dodać do macierzy.
Automatycznie dysk zostanie podmieniony i macierz zostanie odbudowana automatycznie, gdy wcześniej (przed awarią) dodasz dodatkowy ("zapasowy") dysk/partycję ustawisz go jako "hot spare" wtedy przejmie on zadanie tego uszkodzonego.
Offline
A czy w momencie podmiany uszkodzonego dysku na nowy (nawet niesformatowany), muszę tworzyć partycje na nowo? Czy wystarczy podmienić dysk i zacząć go synchronizować
mdadam /dev/mdx -a /dev/hdax
?
Offline
Musi być partycja, typ FD (Linix raid autodetect) no i o nie mniejszej pojemności niż ta uszkodzona, synchronizacja "ręczna". Albo od razu dołożyć dysk jako hot swap, ale w tym przypadku również musi być ww. partycja.
Offline
możesz użyć : "sfdisk -d /dev/sda | sfdisk /dev/sdb" to skopiuje tablice partycji z jednego dysku na drugi .
Offline
Przeprowadziłem chyba wszystkie możliwe scenariusze z awarią dysku. W każdej sytuacji mdadm sprawdził się w 100%. Jestem bardzo zadowolony z wyników testów. Ten temat pomógł mi w znacznym stopniu, dzięki chłopaki. Aż sobie go zapiszę gdzieś na dysku.
[quote=tomii]możesz użyć : "sfdisk -d /dev/sda | sfdisk /dev/sdb" to skopiuje tablice partycji z jednego dysku na drugi .[/quote]
Super się to sprawdziło po sformatowaniu jednego z dysków, który znajdował się w macierzy. Symulowałem wymianę dysku na nowy. Pięknie przywrócił tablice partycji. Macierz też się odbudowała bez problemów.
Ostatnio edytowany przez Luc3k (2011-01-22 12:50:44)
Offline
Witam, odkopię troszkę temat, wszystko u mnie ogólnie działa oprócz tego ze jak wypne dysk nr1 to system nie wstaje na 2 a instalowałem gruba na drugim dysku. Pracuję na virtualboxie.
Offline
A jaki masz komunikat? Przypuszczam, że w Twoim przypadku pomoże instalacja gruba na wszystkich dyskach w macierzy.
PS. Wskazany byłby oddzielny wątek.
Offline
Strony: 1
Time (s) | Query |
---|---|
0.00010 | SET CHARSET latin2 |
0.00004 | SET NAMES latin2 |
0.00097 | SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='18.116.20.108' WHERE u.id=1 |
0.00070 | REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '18.116.20.108', 1732340896) |
0.00042 | SELECT * FROM punbb_online WHERE logged<1732340596 |
0.00056 | SELECT topic_id FROM punbb_posts WHERE id=161936 |
0.00009 | SELECT id FROM punbb_posts WHERE topic_id=15347 ORDER BY posted |
0.00058 | SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=15347 AND t.moved_to IS NULL |
0.00006 | SELECT search_for, replace_with FROM punbb_censoring |
0.00322 | SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=15347 ORDER BY p.id LIMIT 0,25 |
0.00104 | UPDATE punbb_topics SET num_views=num_views+1 WHERE id=15347 |
Total query time: 0.00778 s |