Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
witam,
Wczorajsza burza zrobila mi troche szkód. Dziwne ze przez brak prądu (de fakto kilka godzin) padł mi RAID 5. Dziś przy starcie konsola zatrzymała sie na fsck i błędzie /dev/sdb1 (komunikat CTRL +D). Wiec wykonałem manualnie fsck /dev/sdb1. Po restarcie znów bład ale tym razem
cat /var/log/fsck/checkfs
Log of fsck -C -R -A -a Thu Jun 2 08:02:23 2011 fsck from util-linux-ng 2.17.2 Home: clean, 7756/8126464 files, 18815679/32480768 blocks fsck.ext4: Unable to resolve 'UUID=f086ca23-c5da-4e1a-a5b1-33de29be0f3d' fsck died with exit status 8 Thu Jun 2 08:02:23 2011
Ale jeszce wczoraj działało.
cat /proc/mdstat
Personalities : unused devices: <none>
mdadm --detail /dev/md0
mdadm: cannot open /dev/md0: No such file or directory
fdisk -l
Dysk /dev/sdb: 1000.2 GB, bajtów: 1000204886016 głowic: 60, sektorów/ścieżkę: 63, cylindrów: 516805 Jednostka = cylindrów, czyli 3780 * 512 = 1935360 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0x769c8664 Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sdb1 1 516806 976761560 fd Linux RAID autodetect Dysk /dev/sdd: 1000.2 GB, bajtów: 1000204886016 głowic: 60, sektorów/ścieżkę: 63, cylindrów: 516805 Jednostka = cylindrów, czyli 3780 * 512 = 1935360 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0x3d6ec20a Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sdd1 1 516806 976761560 fd Linux RAID autodetect Dysk /dev/sdc: 1000.2 GB, bajtów: 1000204886016 głowic: 60, sektorów/ścieżkę: 63, cylindrów: 516805 Jednostka = cylindrów, czyli 3780 * 512 = 1935360 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0x3d6ec20a Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sdc1 1 516806 976761560 fd Linux RAID autodetect Dysk /dev/sde: 1000.2 GB, bajtów: 1000204886016 głowic: 78, sektorów/ścieżkę: 63, cylindrów: 397542 Jednostka = cylindrów, czyli 4914 * 512 = 2515968 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Identyfikator dysku: 0xdda77e97 Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sde1 1 397543 976761560 fd Linux RAID autodetect
gdy prubuje dodac jeszcze raz macierz
mdadm --create -l5 -n4 /dev/md0 /dev/sd[bcde]1
mdadm: /dev/sdb1 appears to contain an ext2fs file system size=-1364683264K mtime=Thu Jun 2 00:54:22 2011 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sde1 appears to contain an ext2fs file system size=-773286336K mtime=Mon Jun 5 10:36:46 2028 mdadm: /dev/sde1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 Continue creating array?
czy możliwe sa wartości ujemne ?? i rok 2028 ??
gdy kontynuuje macierz odbudowuje dysk /de/sde1 ale to przecierz /dev/sdb1 na poczatku miał bład ?? czy nie strace danych ?? niekawno przesiadłem sie na raid bo padł mi jeden dysk a z nim dane. help
Offline
Po co uruchamiałeś fsck na jednym z dysków macierzy?! Powinieneś uruchomić na /dev/md0!
Nie twórz od nowa macierzy, przecież ona już jest, wykonaj:
mdadm --assemble --scan
Poczytaj manuala do [b]mdadm[/b]!
Offline
mdadm --assemble --scan
nic nie zwróciło, wiec pomyslałem zeby uruchomić to fsck. nie mogłem zamontować macierzy to probowalem wszystkiego. to moje poczatki z macierzami.
Urządzenie Rozruch Początek Koniec Bloków ID System /dev/sde1 1 397543 976761560 fd Linux RAID autodetect Dysk /dev/md0: 3000.6 GB, bajtów: 3000607703040 głowic: 2, sektorów/ścieżkę: 4, cylindrów: 732570240 Jednostka = cylindrów, czyli 8 * 512 = 4096 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 524288 / 1572864 Identyfikator dysku: 0x00000000 Dysk /dev/md0 nie zawiera poprawnej tablicy partycji
no i nie mogę pod montować
mdadm --detail /dev/md0
/dev/md0: Version : 1.2 Creation Time : Thu Jun 2 09:33:55 2011 Raid Level : raid5 Array Size : 2930280960 (2794.53 GiB 3000.61 GB) Used Dev Size : 976760320 (931.51 GiB 1000.20 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Thu Jun 2 12:31:42 2011 State : clean, FAILED Active Devices : 2 Working Devices : 3 Failed Devices : 1 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : tornado:0 (local to host tornado) UUID : d3821223:5e474696:a7a8d71a:9a5ba57c Events : 21 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 0 0 1 removed 2 8 49 2 active sync /dev/sdd1 3 0 0 3 removed 1 8 33 - faulty spare /dev/sdc1 4 8 65 - spare /dev/sde1
da sie cos uratować ?
Offline
Usuń sdc1 z macierzy (na dwóch dyskach będzie działać):
mdadm --manage /dev/md0 --fail /dev/sdc1 mdadm --manage /dev/md0 --remove /dev/sdc1
Potem zapuść:
fsck /dev/md0
, jak fsck naprawi to możesz spróbować ją zamontować:
mount -v /dev/md0 /mnt
Sprawdź czy /dev/sde1 został użyty do odbudowy macierzy
cat /proc/mdstat
jeśli nie to:
mdadm --manage /dev/md0 --add /dev/sde1
jak nie zadziała to:
mdadm --stop /dev/md0 mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1
Potem możesz zacząć sprawdzać /dev/sdc1, sprawdzić SMART, puścić badblocks, itp.
Offline
no i chyba namieszałem. Wracamy do początku więc. Po kazdym restarcie md0 nie wstaje. Polecenie mdadm --assemble --scan nic nie zwraca.
Czy nie tworząc nowego raid-u poleceniem -C nie pozmieniałem UUID ??
cat /etc/fstab
# /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc defaults 0 0 # / was on /dev/sda1 during installation UUID=6d1f41fe-7f6a-4f37-9fb7-a7947f3a6ded / ext4 errors=remount-ro 0 1 # /home was on /dev/sda3 during installation UUID=287fdc1c-836c-45e6-99d6-3d24bc9aadb2 /home ext4 defaults 0 2 # swap was on /dev/sda2 during installation UUID=0a4643cf-64bb-45c9-80d5-57a6729afc70 none swap sw 0 0 # DVD RW /dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0 # Raid5 by mdadm UUID=f086ca23-c5da-4e1a-a5b1-33de29be0f3d /mnt/Magazyn ext4 defaults 0 2
a teraz
mdadm -E /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
mdadm: cannot open /dev/md0: No such file or directory /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : d3821223:5e474696:a7a8d71a:9a5ba57c Name : tornado:0 (local to host tornado) Creation Time : Thu Jun 2 09:33:55 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 1953521072 (931.51 GiB 1000.20 GB) Array Size : 5860561920 (2794.53 GiB 3000.61 GB) Used Dev Size : 1953520640 (931.51 GiB 1000.20 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 596d997d:6e0cfcb2:1375cd59:9a6c2615 Update Time : Thu Jun 2 18:43:44 2011 Checksum : c65a0e31 - correct Events : 23 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : A.A. ('A' == active, '.' == missing) /dev/sdc1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : d3821223:5e474696:a7a8d71a:9a5ba57c Name : tornado:0 (local to host tornado) Creation Time : Thu Jun 2 09:33:55 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 1953521072 (931.51 GiB 1000.20 GB) Array Size : 5860561920 (2794.53 GiB 3000.61 GB) Used Dev Size : 1953520640 (931.51 GiB 1000.20 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : c6beaf4b:ea03dea9:9e81063e:aacf1767 Update Time : Thu Jun 2 18:43:44 2011 Checksum : c17dc6a3 - correct Events : 0 Layout : left-symmetric Chunk Size : 512K Device Role : spare Array State : A.A. ('A' == active, '.' == missing) /dev/sdd1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : d3821223:5e474696:a7a8d71a:9a5ba57c Name : tornado:0 (local to host tornado) Creation Time : Thu Jun 2 09:33:55 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 1953521072 (931.51 GiB 1000.20 GB) Array Size : 5860561920 (2794.53 GiB 3000.61 GB) Used Dev Size : 1953520640 (931.51 GiB 1000.20 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : df56df5b:78d126f3:0e6adb51:c3e38fa0 Update Time : Thu Jun 2 18:43:44 2011 Checksum : 684228e8 - correct Events : 23 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : A.A. ('A' == active, '.' == missing) /dev/sde1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : d3821223:5e474696:a7a8d71a:9a5ba57c Name : tornado:0 (local to host tornado) Creation Time : Thu Jun 2 09:33:55 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 1953521072 (931.51 GiB 1000.20 GB) Array Size : 5860561920 (2794.53 GiB 3000.61 GB) Used Dev Size : 1953520640 (931.51 GiB 1000.20 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 4a2380f3:0d186d0e:71cee4bb:cd0735b5 Update Time : Thu Jun 2 18:43:44 2011 Checksum : 99d7c457 - correct Events : 23 Layout : left-symmetric Chunk Size : 512K Device Role : spare Array State : A.A. ('A' == active, '.' == missing)
a cat /proc/mdstat zwraca
Personalities : unused devices: <none>
Offline
A wykonaj:
mdadm -A -v /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 cat /proc/mdstat
UUID-y sprawdzisz, przez
ls -al /dev/disk/by-uuid/
Offline
mdadm -A -v /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
mdadm: looking for devices for /dev/md0 mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0. mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot -1. mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 2. mdadm: /dev/sde1 is identified as a member of /dev/md0, slot -1. mdadm: no uptodate device for slot 1 of /dev/md0 mdadm: added /dev/sdd1 to /dev/md0 as 2 mdadm: no uptodate device for slot 3 of /dev/md0 mdadm: added /dev/sdc1 to /dev/md0 as -1 mdadm: added /dev/sde1 to /dev/md0 as -1 mdadm: added /dev/sdb1 to /dev/md0 as 0 mdadm: /dev/md0 assembled from 2 drives and 2 spares - not enough to start the array.
cat /proc/mdstat
Personalities : md0 : inactive sdb1[0](S) sde1[4](S) sdc1[5](S) sdd1[2](S) 3907042144 blocks super 1.2 unused devices: <none>
mdadm -R /dev/md0
mdadm: failed to run array /dev/md0: Input/output error
za #-łem wszyskie wpisy w /etc/mdadm/mdadm.conf
#DEVICE /dev/sd[bcde]1 #ARRAY /dev/md0 metadata=1.2 name=tornado:0 UUID=aba4e006:2f17b502:ac9047e0:d950079b #aba4e006:2f17b502:ac9047e0:d950079b # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # instruct the monitoring daemon where to send mail alerts MAILADDR root
skorzystalem z Twojej podpowiedzi
mdadm -A -U resync /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
moglo pomóc
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] md127 : active raid5 sdb[0] sde[4] sdd[3] sdc[1] 2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] unused devices: <none>
mdadm --detail /dev/md127
/dev/md127: Version : 1.2 Creation Time : Sun May 15 00:21:29 2011 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Thu Jun 2 23:56:32 2011 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : tornado:0 (local to host tornado) UUID : aba4e006:2f17b502:ac9047e0:d950079b Events : 2999 Number Major Minor RaidDevice State 0 8 16 0 active sync /dev/sdb 1 8 32 1 active sync /dev/sdc 3 8 48 2 active sync /dev/sdd 4 8 64 3 active sync /dev/sde
nagle cos zadziałało ? dziwne tez sa wpisy
mdadm --examine --brief --scan --config=partitions
ARRAY /dev/md/0 metadata=1.2 UUID=aba4e006:2f17b502:ac9047e0:d950079b name=tornado:0 ARRAY /dev/md/0 metadata=1.2 UUID=d3821223:5e474696:a7a8d71a:9a5ba57c name=tornado:0
czy tak powinny wygladać ?
mogłbym prosić o skorygowanie tego, tak aby macierz byla bezpieczna.
kolejna rzecz, hmm
mdadm --stop /dev/md127
mdadm --assemble --scan
mdadm: /dev/md/0 has been started with 4 drives. mdadm: /dev/md/0_0 assembled from 1 drive - not enough to start the array.
mdadm --detail /dev/md0
/dev/md0: Version : 1.2 Creation Time : Sun May 15 00:21:29 2011 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Fri Jun 3 00:15:53 2011 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : tornado:0 (local to host tornado) UUID : aba4e006:2f17b502:ac9047e0:d950079b Events : 2999 Number Major Minor RaidDevice State 0 8 16 0 active sync /dev/sdb 1 8 32 1 active sync /dev/sdc 3 8 48 2 active sync /dev/sdd 4 8 64 3 active sync /dev/sde
ale juz fdisk -l
Dysk /dev/md0: 3000.6 GB, bajtów: 3000610848768 głowic: 2, sektorów/ścieżkę: 4, cylindrów: 732571008 Jednostka = cylindrów, czyli 8 * 512 = 4096 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 524288 / 1572864 Identyfikator dysku: 0x00000000 Dysk /dev/md0 nie zawiera poprawnej tablicy partycji
oraz blkid
/dev/md0: UUID="d3821223-5e47-4696-a7a8-d71a9a5ba57c" LABEL="tornado:0" TYPE="linux_raid_member"
czy oznacza to ze system plików sie posypał ??
Ostatnio edytowany przez f-radzio (2011-06-03 00:22:59)
Offline
Jesteś pewien, że wpisałeś:
mdadm -A -U resync /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
Skąd w takim razie masz:
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
3 8 48 2 active sync /dev/sdd
4 8 64 3 active sync /dev/sde[/quote]
Powinny być sdb1, sdc1, sdd1, sde1
Skąd /dev/md127 jak wpisałeś md0?
Uruchamianie fdiska na macierzy zrobionej przez mdadm nie ma sensu, gdyż nie zachowuje się ona jak dysk ale jak partycja.
Offline
masz absolutna racje. To nie powinno zadzialać, ale juz pózniej jak tylko się naprawiła używałem polecenia
mdadm --assemble --scan
mdadm --stop /dev/md0
mdadm: stopped /dev/md0
mdadm --assemble --scan
mdadm: /dev/md/0 has been started with 4 drives. mdadm: /dev/md/0 is already in use. mdadm: /dev/md/0 is already in use.
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sdb[0] sde[4] sdd[3] sdc[1] 2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] [>....................] resync = 3.1% (30350472/976761344) finish=166.2min speed=94899K/sec unused devices: <none>
mdadm --detail /dev/md0
/dev/md0: Version : 1.2 Creation Time : Sun May 15 00:21:29 2011 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sat Jun 4 22:50:40 2011 State : clean, resyncing Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 3% complete Name : tornado:0 (local to host tornado) UUID : aba4e006:2f17b502:ac9047e0:d950079b Events : 3003 Number Major Minor RaidDevice State 0 8 16 0 active sync /dev/sdb 1 8 32 1 active sync /dev/sdc 3 8 48 2 active sync /dev/sdd 4 8 64 3 active sync /dev/sde
jesli w takim razie dyski sa poczalczone macierz sie synchronizuje dlaczego niemoge podlaczyc md0
mount /dev/md0 /mnt/Magazyn/
mount: unknown filesystem type 'linux_raid_member'
poprzednio md0 tworzyłem jako ext4
ps. dzieki wielkie za cierpliwa pomoc
Offline
Nie możesz zamontować /dev/md0 bo nie ma tam poprawnego systemu plików. Przypuszczam, że gdy "ratowałeś" macierz poprzez powtórne jej tworzenie:
Kod:
mdadm --create -l5 -n4 /dev/md0 /dev/sd[bcde]1[/quote]
Co na pewno nie wyszło danym na zdrowie, pominąłeś ostatnią [b]1[/b] i macierz utworzyłeś nie z partycji ale z dysków.
Offline
A jest szansa na odzyskanie danych ?? troche mi zalezy jendak. Testdisk wyrzuca
Naruszenie ochrony pamięci
Jeśli pominąłem '1' dlatego otrzymałem wartości ujemne w
mdadm --create -l5 -n4 /dev/md0 /dev/sd[bcde]1
mdadm: /dev/sdb1 appears to contain an ext2fs file system size=-1364683264K mtime=Thu Jun 2 00:54:22 2011 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 mdadm: /dev/sde1 appears to contain an ext2fs file system size=-773286336K mtime=Mon Jun 5 10:36:46 2028 mdadm: /dev/sde1 appears to be part of a raid array: level=raid5 devices=4 ctime=Thu Jun 2 08:11:19 2011 Continue creating array?
Offline
[quote=f-radzio]A jest szansa na odzyskanie danych ??[/quote]
Ja wątpię, aby coś sensownego dało się odzyskać, (trochę destrukcyjnych operacji wykonałeś) ale z drugiej strony w Ontrack-u nie pracuję...
Offline
Time (s) | Query |
---|---|
0.00013 | SET CHARSET latin2 |
0.00007 | SET NAMES latin2 |
0.00137 | SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.145.115.139' WHERE u.id=1 |
0.00089 | REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.145.115.139', 1732766240) |
0.00080 | SELECT * FROM punbb_online WHERE logged<1732765940 |
0.00094 | SELECT topic_id FROM punbb_posts WHERE id=174701 |
0.00428 | SELECT id FROM punbb_posts WHERE topic_id=19073 ORDER BY posted |
0.00089 | SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=19073 AND t.moved_to IS NULL |
0.00008 | SELECT search_for, replace_with FROM punbb_censoring |
0.00111 | SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=19073 ORDER BY p.id LIMIT 0,25 |
0.00092 | UPDATE punbb_topics SET num_views=num_views+1 WHERE id=19073 |
Total query time: 0.01148 s |