Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Strony: 1
Wgetem mozna sie latwo poslugiwac z konsoli, ale znalazlem ciekawa nakladke na tej stronie: http://users.uj.edu.pl/~ufkapano/linux/cz4admin/lp-ftp.html
Download z tej strony: http://spazioinwind.libero.it/thedarkstar/linux.html#TKWGET
Minimalistyczny i funkcjonalny interface: http://imgur.com/a/K3ww6
Gdyby jeszcze ktos pomogl zainstalowac to ustrojstwo na Jessie.
Pozdrawiam
Gwoli wyjasnienia dodam ze wszystko wzielo sie z checi zrobienia mirrora tej strony: https://www.server-world.info/en/
Niestety, mimo ustawienia -r-recursive, -l5-glebokosc 5 poziomow kopiowania , nie moge skopiowac glebiej anizeli ponizej poziomu 3 linka.
Manuala Wget przeczytalem 3 razy, zeby sobie wszystko ulozyc.
Ostatnio edytowany przez Novi-cjusz (2017-01-23 12:48:22)
Offline
Nie wiem czy spojrzałeś kiedy była ostatnio aktualizowana strona projektu?
21.02.2000 to raczej projekt umarły i niewspierany, a najnowsza wersja jest
Current version is 0.3 .
Tkwget is available as in .tar.gz format. I plan to release an rpm package soon, well at least within March 2000, I swear.
The tar ball include the following files:[/quote]
Offline
Łoooo matko jaki antyk. Toż to ta nakładka ma 17 lat :D
Tu masz spis młodszych projektów (wiele z nich nadal jest rozwijanych i wspieranych nie to co ten umarlak co przedstawiłeś): http://www.binarytides.com/gui-download-managers-ubuntu-linux/ niby spis na *buntu ale pod Debiana też są...
Moim zdaniem najlepsza nakładka na wget to uget: http://ugetdm.com/downloads-debian (oczywiście to kwestia gustu) i co ważne nadal projekt żyje! Ostatnia aktualizacja z 2 stycznia 2017 roku.
Ostatnio edytowany przez neo86 (2017-01-22 00:06:30)
Offline
Do Wgeta są przede wszystkim [b]Kget[/b] i [b]Gwget[/b], oraz wspomniany [b]Uget[/b],
a w przeglądarkach Flashgot.
Poza tym porównaj działanie Wgeta do [b]Aria2[/b] i [b]Axel[/b]a. ;)
Oba masz w repo, [b]Axel[/b] ma nawet jakiegoś graficznego klienta [b]Axel-kapt[/b] napisanego w QT.
Ostatnio edytowany przez Jacekalex (2017-01-22 05:00:13)
Offline
Sprawdzilem: uget, Aria2, Axel+Axel-kapt.
Wniosek: sciaganie filmow, muzy O,k ale sciaganie calych witryn (glebokosc pobierania) nie dziala na zadnym i nawet nie ma opcji ustawien w menu.
Tu jest potrzebny ktos z webmasteringiem + SEO.
Pozdro.
Bedziemy chyba jednak musieli cofnac sie do "antyka"
Moze uda sie jakos zainstalowac i odpalic?
Offline
kget
uget
Offline
Ja tak z ciekawości... Po kiego grzyba webmastering i seo do zrobienia mirrora?
Chyba że inaczej rozumiemy pojęcia seo i webmastering...
Offline
Webmastering i pozycjionowanie, bo rozne techniki wykonywania i uruchamiania witryn www.
Jezeli jestem w bledzie, pokazcie mi prosze jak sami przy pomocy sugerowanych przez was programow, sciagniecie (na pelna glebokosc) przykladowa witryne: https://www.server-world.info/en/
Ostatnio edytowany przez Novi-cjusz (2017-01-22 18:29:25)
Offline
...ale sciaganie calych witryn (glebokosc pobierania) nie dziala na zadnym i nawet nie ma opcji ustawien w menu.[/quote]
Z prostym htmlem sobie wget poradzi, potrafi pobierać rekursywnie i konwertować linki.
Jednak w tej chwili większość stron to web 2.0, korzysta z różnych bibliotek JS jak np JQuery rozmieszczonych na innych serwerach.
Do takich stron żaden program nie pomoże, tutaj możesz próbować np WWW-Mechanize i WWW-Scirpter - moduły Perla, ten drugi potrafi dekodować javascript i ajax.
Specjalistycznym narzędziem do kopiowania stron internetowych jest HTTrack,
ale nie wiem, czy sobie poradzi.
Jest parę narzędzi z nim powiązanych/pokrewnych:Kod:
apt-cache search httrack httrack - Copy websites to your computer (Offline browser) httrack-doc - Httrack website copier additional documentation libhttrack-dev - Httrack website copier includes and development files libhttrack2 - Httrack website copier library proxytrack - Build HTTP Caches using archived websites copied by HTTrack webhttrack - Copy websites to your computer, httrack with a Web interface webhttrack-common - webhttrack common files httraqt - program for downloading of internet sitesTo by było na tyle
W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem para bellum ;) | Pozdrawiam :)
Offline
Jak do tej pory, to problemem glownym jest rekursywne pobieranie i konwertowanie linkow.
Jest tez dobra wiadomosc. W niedziele przecwiczylem pare narzedzi w tym "webhttrack" ktory poprawnie sciagnol 890 MB i prawie cala witryne.
Najlepszy wynik dotychczas.
Jedna uwaga: glebokosc pobierania linkow ustawilem na "10"
Moze sie komus przyda.
Dziekuje wszystkim za pomoc.
Offline
Strony: 1
Time (s) | Query |
---|---|
0.00009 | SET CHARSET latin2 |
0.00004 | SET NAMES latin2 |
0.00105 | SELECT u.*, g.*, o.logged FROM punbb_users AS u INNER JOIN punbb_groups AS g ON u.group_id=g.g_id LEFT JOIN punbb_online AS o ON o.ident='3.147.82.252' WHERE u.id=1 |
0.00227 | REPLACE INTO punbb_online (user_id, ident, logged) VALUES(1, '3.147.82.252', 1732435735) |
0.00183 | SELECT * FROM punbb_online WHERE logged<1732435435 |
0.00049 | SELECT topic_id FROM punbb_posts WHERE id=308261 |
0.00005 | SELECT id FROM punbb_posts WHERE topic_id=29297 ORDER BY posted |
0.00029 | SELECT t.subject, t.closed, t.num_replies, t.sticky, f.id AS forum_id, f.forum_name, f.moderators, fp.post_replies, 0 FROM punbb_topics AS t INNER JOIN punbb_forums AS f ON f.id=t.forum_id LEFT JOIN punbb_forum_perms AS fp ON (fp.forum_id=f.id AND fp.group_id=3) WHERE (fp.read_forum IS NULL OR fp.read_forum=1) AND t.id=29297 AND t.moved_to IS NULL |
0.00043 | SELECT search_for, replace_with FROM punbb_censoring |
0.00114 | SELECT u.email, u.title, u.url, u.location, u.use_avatar, u.signature, u.email_setting, u.num_posts, u.registered, u.admin_note, p.id, p.poster AS username, p.poster_id, p.poster_ip, p.poster_email, p.message, p.hide_smilies, p.posted, p.edited, p.edited_by, g.g_id, g.g_user_title, o.user_id AS is_online FROM punbb_posts AS p INNER JOIN punbb_users AS u ON u.id=p.poster_id INNER JOIN punbb_groups AS g ON g.g_id=u.group_id LEFT JOIN punbb_online AS o ON (o.user_id=u.id AND o.user_id!=1 AND o.idle=0) WHERE p.topic_id=29297 ORDER BY p.id LIMIT 0,25 |
0.00078 | UPDATE punbb_topics SET num_views=num_views+1 WHERE id=29297 |
Total query time: 0.00846 s |