Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Kilka dni temu słyszę, że z serwera kopii wydobywa się okresowy brzęk z obudowy czemu towarzyszyło mruganie diod w klawiaturze. Odpalam więc monitor a tak coś w stylu " ... /dev/sdb ... Kernel Panic " głupi nie spisałem komunikatu tylko wyłączyłem kompa na twardo. Odpaliłem komputer z live i przysłuchałem się dźwiękom i rzeczywiście wszystko wskazywało na dysk. Odpiąłem jeden z dysków ... dźwięków brak. Sprawdziłem dysk oprogramowaniem WD i już przy quick test wywaliło błąd. Teraz nie wiem jak zabrać się za odzyskiwanie (uruchomienie) systemu. Gdy próbuje uruchomić system mając jeden podłączony dysk wywala mi
Boot Failure Reboot and Select proper Boot device or Insert Boot Media in selected Boot device
Grub 2 był instalowany na obu dyskach więc teoretycznie powinien się pokazać bootloader. Raid 1 był tworzony w oparciu o partycje z tego co pamiętam /dev/md0 dla / oraz /dev/md1 /home. Co teraz? Myślałem, żeby odpalić live skorzystać z chroot i zainstalować na dysku (chyba /dev/sda) grub'a potem jakoś wskazać mu lokalizację wymaganych plików startowych na zdegradowanej partycji. Czy dobrze myślę proszę o wskazówki i wyjaśnienia jak dla newbie - krok po kroku.
O jest promyk nadziei ... odpaliłem grml z live potem
/etc/init.d/mdadm-raid start
wynik
Assembling MD array md0 ... done (degraded [1/2]) Assembling MD array md1 ... done (degraded [1/2]) Generating udev events for MD arrays ... done.
polecenie cat /proc/mdstat
Personalities : ... md1 : active raid1 sda6[2] 966560632 blocks super 1.2 [2/1] [U_] md0 : active raid1 sda1[2] 9763768 blocks super 1.2 [2/1] [U_] unused devices: <none>
Zastanawiam się czy teraz nie powinienem zrobić czy trzeba skorzystać z chroot najpierw ...
grub-install /dev/sda
Czekam na mądrzejszych by nie zepsuć mojej ciężkiej pracy ;(
Ponadto dysk, który padł to WD11EVDS z serii GreenPower nie wiem czy nie kupić do macierzy innego dysku (dyski są podpięte pod fakeraid sata na PCI ogranicznie dysku to 1TB i takie dotychczas były podpięte). Gdzieś słyszałem, że ta seria dysków była dość ... "podatna na awarie" ten dysk ma zaledwie 6 miesięcy. Ze względu na gromadzone na nim dane osobowe nie mogę wysłać go na gwarancji ... Czy nie kupić innego dysku znaczy innej firmy lub z innej serii?
Offline
Do raida bierz dyski, które do raida są przeznaczone.
NP dyski Seagate serii AS zaliczyly wpadkę jakościową.
Dlatego teraz, jakbym polecił Seagate - to zaraz ktoś zacznie flamewar.
Tylko, że ja kupując kompa (4 lata temu), celowo kupiłem dysk serwerowy do raid, model ST3400620NS (Seagate Barracuda ES), o którym wiedziałem, że ma łożysko z dysków scsi i jest przeznaczony do pracy ciągłej 24h/dobę.
Za cichy nie jest, ale czwarte urodziny obchodził w sierpniu, w teście SMART ani jednego błędu, anawet jednego bad-sektora nie ma.
Jak kupowałem, to w paru sklepach o ten model pytałem, a wszyscy sprzedawcy chóralnie albo pytali: "a po co panu taki drogi dysk, kosztuje ponad 350, a normalny 170, i chodzi wieki, 10 lat wytrzyma spokojnie, przecież wszyscy takie mają, i nikt się nie skarży......"
A czasami wciskali mi kit - że AS to ten dysk, o który pytam, tylko symbol się zmienił. :D
Tylko po czterech latach chodzi jak nowy :D
Wieć do raida bierz dysk przeznaczony do raida.
Wszyscy producenci takie mają, zazwyczaj sporo droższe od normalnych.
Poza tym raida polecam tylko 1, 1.0 lub 0.1, wtedy jak padnie jeden dysk, to nie tracisz ani jednego bajta.
A żadko się zdarza, żeby w jednej chwili padły dwa dyski na raz.
W dodaktu fakeraid - następny strzał w stopę:
Żadnego zysku na wydajnosci nie ma, i tak obciąza procka, a jak walnie płyta, i nie będzie można kupić tego lub kompatybilnego modelu, to dopiero będą jaja, kiedy np okaże się, że kontroler nowej płyty nie obrobi spadku po poprzedniku.
I ciekawe,jak potem wydostaniesz wyniki:
mojej ciężkiej pracy ;([/quote]
Więc albo bierz ze dwa albo cztery kawałki i leć po kontroler sprzętowy , np Adapteca,
albo postaw na Linuxie raid programowy.
Wtedy kernel obsługuje RAID, w jaju masz do tego sterowniki, i nie zajmujesz się problemem, co będzie jak walnie "kontroler", wydajność macierzy taka sama, albo lepsza, a działa na każdej płycie, i bez problemu odpalisz go z każdego LiveCD.
Albo zastanów się, skąd wzięło się określenie "fakeraid' - którego sam użyłeś.
RTFM:Kod:
man mdadm[url]http://wiki.debian.org/SoftwareRAID[/url]
[url]http://en.gentoo-wiki.com/wiki/RAID/Software[/url]
[b]Edyta:[/b]
Poza tym jedno pytanie:
Piszesz, że problem dotyczy mdadm:
temet: mdadm - raid 1
A w tekście piszesz o fakeraid:....(dyski są podpięte pod fakeraid sata na PCI ogranicznie dysku....[/quote]
[b]Wiec zdecyduj się, czy to fakeraid czy softraid.[/b]
Bo do fakeraida jest narzędzie [b]dmraid[/b].
RTFM:Kod:
man dmraid[url]https://help.ubuntu.com/community/FakeRaidHowto[/url]
Ponadto przy RAID 1 masz komplet danych na sprawnym dysku.
To by było na tyle
;-)Ostatnio edytowany przez Jacekalex (2011-11-23 03:35:13)
W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem para bellum ;) | Pozdrawiam :)Offline
Niepotrzebnie użyłem słowa fakeraid :/, co prawda kontroler sata posiada taką funkcjonalność ale z niej nie korzystam :). Wszystko działa na softraid. Także proszę o pomoc jak sprawdzić "dostępność danych" na zdegradowanej macierzy stworzonej mdadm (ps. przytoczone powyżej argumenty przemówimy za tym podczas wyboru rozwiązania). Dyski jakie miałem podłączone były jednymi z droższych, może po prostu miałem pechowy egzemplarz. Z tego co pamiętam instalowałem grub'a na obu dyskach tak by na wypadek padu system wstał ... a na dzień dzisiejszy otrzymuje taki komunikat
Boot Failure Reboot and Select proper Boot device or Insert Boot Media in selected Boot device
Nie wiem czy zdegradowaną macierz podpinać w live grml'u do środowiska chroot. Jeśli to możliwe proszę o przeniesienie wątku do działu Sieci i serwery, omyłkowo utworzyłem go w hardware.
Ostatnio edytowany przez bonus (2011-11-23 08:04:45)
Offline
doinstaluj gruba na /dev/sda
Na pewno te zdegradowane macierze możesz też podmontować i skopiować dane.
Dawno się w to nie bawiłem, ale możesz spróbować zamontować też partycje jako ext2 (zakładam, że system plików to ext3/4) ReadOnly i też dostęp do danych powinien być możliwy.
Parę razy odzyskiwałem gruba metodą "na lamę" czyli bez chroot nawet za pomocą knoppixa.
Offline
Tak jak pisałem co do linux'a jestem newbie więc się upewnię i zapytam czy dobrze planuję. Chcę zrobić tak ja w http://dug.net.pl/tekst/77/przywracanie_grub2_za_pomoca_chroot/
Odpalam z live grml potem
# /etc/init.d/mdadm-raid start # mkdir /mnt/root # mount /dev/md0 /mnt/root
/ jest na md0 (składała sie sda1 i sdb1 - uszkodzony), a /home na md1 (składała się z sda6 i sdb6 - uszkodzony)
# mount -o bind /dev /mnt/root/dev # mount -t proc none /mnt/root/proc # chroot /mnt/root
Pytanie czy muszę wykonać "montujemy partycję, na której mieliśmy zainstalowanego wcześniej grub'a:"
mount /dev/hda1 /boot ? W moim przypadku wykonałbym /dev/md0 /boot ale po co skoro root zostal wskazany i tam właśnie będzie szukal /boot czy coś mylę i muszę wykonać właśnie
# mount /dev/md0 /boot
potem
# grub-install /dev/sda
i powinno ruszyć przy starcie, czy lepiej zdegradowanej macierzy nie odpalać ps. przy okazji proszę o wskazanie jak za pomocą rsync szybko wykonać kopię danych na md0 z wyłączeniem /home, który znajduje się na /md1?
Offline
Walnięty jest dysk, czy tylko RAID?
Bo jeśli dysk, a masz RAID 1 - to ja bym po prostu wymienił dysk, podpiął nowy i poczekał, mdadm powinien odbuduwać macierz.
Czyli usunął w mdadm dysk i dodał nowy.
Jeśli natomiast tylko RAID, a dysk jest sprawny, to wtedy zobacz na sprawnym dysku, czy jest tam wszystko, co powinno (to w końcu RAID 1), i potem tak samo jak powyżej.
Tutaj masz fajny i dość łopatologiczny opis:
http://wiki.opzsgu.pl/index.php?title=Mdadm
Jest tam (przy RAID 1), opisany niemal dokładnie twój przypadek, włącznie z zamotowanie macierzy ze zwalonym dyskiem w trybie --force.
Wtedy powinienieś mieć normalny dostęp do danych.
Pozdro
;-)
Ostatnio edytowany przez Jacekalex (2011-11-23 12:24:33)
Offline
Raid chyba jest w porządku po podmontowaniu w grml macierzy mam status, że jest zdegradowana ... chociaż wynika to z tego, że wypiąłem uszkodzony dysk. Dysk sprawdzałem oprogramowaniem WD, już przy quick jest błąd "SERVO/SEEK ELEMENT FAILURE 6" a zerowania dysku nie mogę przeprowadzić. Rozumiem, że w obecnej sytuacji skoro grub był zainstalowany na obu dyskach i swap nie był w raid'ie lecz został utworzony osobno dla obu dysków to system powinien wstać? A obecna sytuacja - komunikat wygląda tak jakby grub był zainstalowany na md0 ? Nie mam w tej chwili nowego dysku ... czy mogę odpalić system gdy macierz jest zdegradowana po wykonaniu wyżej wspomnianych krotków? Czy po podmontowaniu zdegradowanej macierzy z live mogę poruszać po jej strukturze katalogowej i przeglądać dane? Czy przy wyżej wspomnianych krokach wykonać muszę
# mount /dev/md0 /boot
tzn. czy to polecenie jest konieczne?
Offline
jest konieczne tylko w sytuacji gdy /boot jest na osobnej partycji
Offline
Zakupiłem nowy dysk ale inny Liczba Hitachi Ultrastar A7K2000. Jednak nie mogę przekopiować tablicy partycji z dysku podłączonego do macierzy raid1.
sfdisk -d /dev/sdb | sfdisk /dev/sda Warning: extended partition does not start at a cylinder boundary. Dos and Linux will interpret the content differently. Checking that no-one is using this disk right now ... OK Disk /dev/sda: 121601 cylinders, 255 heads, 63 sectors/track sfdisk: ERROR: sector 0 does not have an msdos signature /dev/sda: unrecognized partition table type Old situation: No partition found Warning: given size (1933989890) exceeds max allowable size (1933989233) sfdisk: bad input
Manualnie przez fdisk nie mogę dla sda (nowego dysku) utworzyć partycji kończących się na tych samych cylindrach boję się, że miałem źle je utworzone od samego początku podczas tworzenia starej konfiguracji. Ponadto nie pamiętam jakim narzędziem je tworzyłem. Dziwne dla mnie się wydaje to, że blok nowej partycji jest końcem poprzedniej.
fdisk -l /dev/sdb Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0004db05 Device Boot Start End Blocks Id System /dev/sdb1 * 1 1216 9764864 fd Linux raid autodetect /dev/sdb2 1216 121602 966994945 5 Extended /dev/sdb5 1216 1270 432128 82 Linux swap / Solaris /dev/sdb6 1270 121602 966561792 fd Linux raid autodetect
fdisk -l /dev/sda Disk /dev/sda: 1000.2 GB, 1000203804160 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sda doesn't contain a valid partition table
Ostatnio edytowany przez bonus (2011-11-25 11:57:46)
Offline
Gdzie wyczytałeś, ze dyski różnych producentów można zawsze łączyć w raid?
Bo ja zawsze czytałem, ze należy do radia używać identycznych dysków o dokladnie takich samych parametrach, najlepiej tego samego modelu i producenta.
W przeciwnym przypadku mogą być (mogą nie znaczy że muszą być, istnieje jednak duże prawdopodobieństwo), kłopoty z synchronizacją dysków i prawidłowym dzialaniem raida, a także trwałosci dysków.
Jak masz dyski rożnych producentow, o różnych parametrach technicznych, to zainteresuj się lepiej [b][url=http://en.wikipedia.org/wiki/DRBD#Inclusion_in_Linux_kernel]DRBD[/url][/b].
A już kopiowanie tablicy partycji między dyskami różnych producentów, o różnej strukutrze dysku, to totalna głupota.
Tablica partycji opisuje rozmieszczenie partycji wg numerów sektorów dysku, dyski różnego typu mają czasami różne liczby talerzy, i prawie zawsze rózne liczby sektorów.
Dlatego kopiowanie tablicy partycji między róznymi dyskami to bzdura stulecia.
Tablicę partycji można skopiować między TAKIMI SAMYMI dyskami, które mają taką samą liczbę talerzy, ścieżek i sektorów.
To by było na tyle
;-)
Ostatnio edytowany przez Jacekalex (2011-11-25 11:50:26)
Offline
Teoretycznie w raid1 można łączyć dyski nawet o różnych pojemnościach. Mniejszy dysk będzie ograniczał wielkość macierzy, czy się mylę? To co mogę zrobić w takim wypadku dyski mają przecież identyczne pojemności, da się go wpiąć do zdegradowanej macierzy czy też nie?
Ostatnio edytowany przez bonus (2011-11-25 12:05:23)
Offline
uzyj dd
dd if=/dev/disk1 of=/dev/disk2
tak na lenia potwierdzasz enter komendą ctrl-c ;) i masz skopiowane pierwsze sektory wraz z tablicą partycji :D
Zalecenie zaleceniami - jednak raid programowy to nie sprzętowy i nie będzie widział problemu. Byle miał gdzie pisać i nie było błędów.
Jacek przecież i tak do adresowania sektorów jest używane LBA - nie pracuje się tu na cylindrach. DM jest obojętne jak i gdzie zapisze to dysk byle nie było błędów.
Zdarzyło mi się raz, że dwa dyski z jednego kartonu miały pojemność raportowana przez system różniącą się o 2 MB :)
Offline
Jacek przecież i tak do adresowania sektorów jest używane LBA - nie pracuje się tu na cylindrach. DM jest obojętne jak i gdzie zapisze to dysk byle nie było błędów.[/quote]
W zasadzie tak, należy jednak pamiętać, że jeśli w linni poleceń gruba można parametrem elevator ustawić zachowanie głowicy dysku, to znaczy że kernel ma wpływ na zachowanie tej głowicy.
Jeśoli natomiast musi synchronizować działanie dwóch głowic - to ja jednak dawałbym takie same dyski.
Choć może przesadzam, aleWD11EVDS z serii GreenPower[/quote]
tez nie powinien klękać po 6 miesiącach (o ile byl nowy), i być może raid się do tej awarii przyczynił.
Na róznych dyskach robiłbym DRBD, i wtedy każdy dysk pracuje osobno, a drugi jest lustrzanym odbiciem pierwszego.
Dokładnie tak, jak w RAID 1, ale nie ma ryzyka, że padnie macierz, bo jej tam nie ma, są 2 dyski z ciągłą synchronizacją.
I kazdy działa w swoim rytmie.
Pozdro
;-)
W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem para bellum ;) | Pozdrawiam :)Offline
Hmmm sam już nie wiem co robić ... chciałem szybko przywrócić komputer do działania a tutaj muszę zapoznać się z nowym narzędziem by podnieść system na nogi :( i zabezpieczyć go przed awarią. Czy skorzystanie z narzędzia dd w tym wpadku jest bezpiecznym rozwiązaniem ... Może jakiś aktualny i sprawdzony tutorial odnośnie zastosowania narzędzie DRBD. Szczerze powiedziawszy wolałbym pozostać przy mdadm, gdyż trochę się już z nim zaprzyjaźniłem :).
Offline
Tu masz przepis na HA+DRBD na wiki Gentoo, zakłada DRBD przez sieć:
http://en.gentoo-wiki.com/wiki/Heartbeat_and_DRBD
A tu conieco w Debianie:
http://wiki.debian.org/kristian_jerpetjoen
Pozdro
;-)
Ostatnio edytowany przez Jacekalex (2011-11-27 16:57:30)
Offline
Miałem nadzieję, że potwierdzi ktoś propozycję
[quote=bobycob]uzyj dd
dd if=/dev/disk1 of=/dev/disk2[/quote]
... być może uda mi się wymienić dysk na identyczy z działającym ... :/. Widzę, że nikt nie jest w stanie wskazać jednoznacznego przepisu na softraid 1 w takich konfiguracji dyskowej :(.
Offline
Załatwiłem identyczny dysk zrobiłem kopię tablicy partycji stanowiącego "element" zdegradowanej macierzy
sfdisk -d /dev/sdb | sfdisk /dev/sda
Jednak wywala warning i blokuje realizację polecenia
Warning: partition 1 does not end at a cylinder boundary sfdisk: I don't like these partitions - nothing changed. (If you really want this, use the --force option.)
No więc wymusiłem, nie wiem czy przez to się nie posypał poprzedni dysk, bo była identyczna sytuacja ... czy mógłby ktoś mądry wypowiedzieć się na ten temat.
W tej chwili wykonuje się już synchronizacja macierzy. A może miałem jej lepiej nie wykonywać, utworzyć nową tablicę partycji na nowym dysku (taką, która nie wygenerowała by wyżej wskazanego ostrzeżenia), utworzyć macierze md2 i md3 identycznie jak dla md0 i md1 i skopiować dane ze starej zdegradowanej macierzy, usunąć tablicę partycji z /dev/sdb i podłączyć go do nowych macierzy softraid1 tak by przy
sfdisk -d /dev/sda | sfdisk /dev/sdb
nie pokazał się warning ?
Offline
Po synchronizacji ... system nie wstaje z żadnego z dysków dla pierwszego staje na wyszukiwaniu sektora rozruchowego, natomiast dla drugiego jest tak:
Searching for Boot Record from BBS-1:[1210SA#0-#1 JBOD]...OK GRUB _
Towarzystko jakby ostatnio o mnie zapomniało, żadnych podpowiedzi ... :(
Offline
Teraz to się narobiło, mam nadzieję, że masz maskotkę o imieniu backup ?:)
Czy nie prościej było zamiast główkować na kopiowaniem tablicy partycji, utworzyć nowe o identycznej ilości bloków. Oznaczyć je jako linux raid (czy jak one się nazywają) po czym za pomocą mdadm dodać do macierzy? Nie bardzo rozumiem skąd pomysł z przenoszenie tablicy partycji, pomysł z tworzeniem md2 i md3 to już zagadka?
Jeżeli otworzyłeś nowe macierze na nowym dysku md2 i md3 po czym partycję sda1 (która przykładowo była w md0) dodałeś do nowo utworzonej i już działającej md2 - radośnie wypełniłeś ją pustą macierzą.
A wystarczyło dodać do md0 partycję sdb1
(nie sprawdzałem jak masz oznaczone partycje)
Ostatnio edytowany przez bobycob (2011-12-02 09:09:25)
Offline
Udało mi się skopiować tablicę partycji
sfdisk -d /dev/sda | sfdisk -f /dev/sdb
zrobiłem synchronizację, potem chroot oraz instalacja gruba na /dev/sda i dev/sdb i system wstał :) ale ... nadal zastanawiam czy podział na partycje jest prawidłowy
Warning: partition 1 does not end at a cylinder boundary sfdisk: I don't like these partitions - nothing changed. (If you really want this, use the --force option.)
Jeżeli chodzi o utworzenie partycji o identycznej ilości bloków ... był z tego co pamiętam nie możliwy bo partycja rozszerzona musiała zaczynać się od 1217 cylindra i liczba bloków była automatycznie mniejsza dla partycji rozszerzonej - tak wyrzucał fdisk (być może piszę głupoty).
Obecnie wszystko wygląda
cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sdb6[2] sda6[3] 966560632 blocks super 1.2 [2/2] [UU] md0 : active raid1 sdb1[2] sda1[3] 9763768 blocks super 1.2 [2/2] [UU] unused devices: <none> /proc/mdstat (END)
fdisk -l /dev/sda Dysk /dev/sda: 1000.2 GB, bajtów: 1000204886016 głowic: 255, sektorów/ścieżkę: 63, cylindrów: 121601 Jednostka = cylindrów, czyli 16065 * 512 = 8225280 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0x00000000 Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sda1 * 1 1216 9764864 fd Linux RAID autodetect /dev/sda2 1216 121602 966994945 5 Rozszerzona /dev/sda5 1216 1270 432128 82 Linux swap / Solaris /dev/sda6 1270 121602 966561792 fd Linux RAID autodetect
fdisk -l /dev/sdb Dysk /dev/sdb: 1000.2 GB, bajtów: 1000204886016 głowic: 255, sektorów/ścieżkę: 63, cylindrów: 121601 Jednostka = cylindrów, czyli 16065 * 512 = 8225280 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0x0004db05 Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sdb1 * 1 1216 9764864 fd Linux RAID autodetect /dev/sdb2 1216 121602 966994945 5 Rozszerzona /dev/sdb5 1216 1270 432128 82 Linux swap / Solaris /dev/sdb6 1270 121602 966561792 fd Linux RAID autodetect
Co to tego mojego opisu odnośnie md3 i md2 :) wiem czasem piszę chaotycznie ... wyjaśnię jak wrócę do domu.
Offline
Rozmiar partycji rozszerzonej nie ma najmniejszego znaczenia, Ważny jest rozmiar partycji którą chcesz użyć do raid (ilość bloków). W poprzedniej wypowiedzi miałem na myśli utworzenie partycji z ręcznym podaniem ilości bloków np za pomocą fdisk. dodam, że dla mdadm obojętne jest czy jest ona sdb1 sdc5 sda1 czy sda11.
Przy LBA (każdy współczesny komputer PC) nie pracuje się na cylindrach tylko bezpośrednio adresuje blok. Nie przejmowałbym się tu specjalnie różnicą w położeniu.
teraz to mi wyszło chaotycznie ;)
Offline
Hmm czyli komunikat
Warning: partition 1 does not end at a cylinder boundary sfdisk: I don't like these partitions - nothing changed. (If you really want this, use the --force option.)
może zostać zignorowany albowiem wszystko (odczyt, zapis danych) odbywa się w oparciu o LBA i napewno taka konfiguracja jaką posiadam jest poprawna ?
A czy moja wypowiedź
Jeżeli chodzi o utworzenie partycji o identycznej ilości bloków ... był z tego co pamiętam nie możliwy bo partycja rozszerzona musiała zaczynać się od 1217 cylindra i liczba bloków była automatycznie mniejsza dla partycji rozszerzonej - tak wyrzucał fdisk (być może piszę głupoty).[/quote]
jest faktem - prawdziwa ?
Offline
Time (s) | Query |
---|---|
0.00009 | SET CHARSET latin2 |
0.00004 | SET NAMES latin2 |
0.00100 | SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.147.205.19' WHERE u.id=1 |
0.00081 | REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.147.205.19', 1732761667) |
0.00048 | SELECT * FROM punbb_online WHERE logged<1732761367 |
0.00045 | SELECT topic_id FROM punbb_posts WHERE id=186328 |
0.00015 | SELECT id FROM punbb_posts WHERE topic_id=20102 ORDER BY posted |
0.00059 | SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=20102 AND t.moved_to IS NULL |
0.00005 | SELECT search_for, replace_with FROM punbb_censoring |
0.00113 | SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=20102 ORDER BY p.id LIMIT 0,25 |
0.00083 | UPDATE punbb_topics SET num_views=num_views+1 WHERE id=20102 |
Total query time: 0.00562 s |