ナビゲーション
FrontPage
FreeBSD
Linux
Citrix XenServer
VMware ESXi
Unixコマンド
MySQL
PostgreSQL
Windows
CMS/CRM
クラウド
用語
PHPスクリプト
Bashシェルスクリプト
Rubyスクリプト
開発日記
検索
ツールボックス
新しいページの作成
バックアップの表示
外部のリンク元
最近更新したページ
全ページ
ヘルプ
凍結
アップロード
ページ名の変更
最新の40件
2016-08-17
Linux/NagiosQL
Linux/CentOSチューニング
2016-02-23
Linux/ソフトウェアRAID復旧手順
2016-02-18
FreeBSD/DHCP
FreeBSD/squid
2016-02-15
Unixコマンド/file
2016-02-05
FreeBSD/DynaBook
FreeBSD/Linux compatibility
2016-01-21
PHPスクリプト/PEAR DBインストールできない
PHPスクリプト/PEAR DB
2016-01-20
PHP/フレームワーク/Zend Framework
PHP/フレームワーク
FreeBSD/Postfix+amavisd+clamav
2016-01-15
FreeBSD/sl
2015-12-04
Unixコマンド/dig
Unixコマンド/nslookup
Unixコマンド/traceroute
Linux/rsync
FreeBSD/rsync
Unixコマンド/vipw
2015-11-25
Linux/Postfix+MySQL+Postfix AdminによるバーチャルSMTPサーバの構築
Linux/Postfix + postgrey
2015-11-24
Linux/Postfix + amavisd + clamav
2015-05-25
Unixコマンド/ifconfig
2015-05-23
Unixコマンド/netstat
Unixコマンド/route
Unixコマンド/lsof
Unixコマンド/disown
Unixコマンド/time
Unixコマンド/crontab
2015-05-22
Unixコマンド/nohup
Unixコマンド/fgとbg
Unixコマンド/nice
Unixコマンド/kill
Unixコマンド/jobs
Unixコマンド/restor
Unixコマンド/dump
Unixコマンド/uncompress
Unixコマンド/compress
Unixコマンド/zcat
total:
3429
today:
1
yesterday:
0
now:
1
本文
ノート
?
編集
差分
一覧
FreeBSD/Wget の編集
*&SIZE(15){''Wget''}; [#m2b9f727] [[dokuwiki.fl8.jp転載済み>http://dokuwiki.fl8.jp/doku.php/02_freebsd/01_net/01_wget]] +[[Wgetとは?>#A]] +[[ソース取得>#B]] +[[ソースの展開とインストール>#C]] +[[簡単な使い方>#D]] +[[応用的使い方>#E]] **''Wgetとは?''&aname(A); [#s568fdcc] &aname(A);WgetとはUNIX上で使えるダウンロード支援ツールであり、ホームページ自動巡回ツールでもある。 この種のツールはWindowsとかにはいっぱいあるが、UNIXには少ない。 Windownsのダウンロード支援ツールではIria、DCさくら、ReGet、GetRight、FlashGet…、などがある。ホームページ自動巡回ツールもいっぱいあるらしい…。 **''ソースの取得''&aname(B); [#ae7d4cf6] Wgetを配布しているFTPサイトは(一部つながらないところもあるが)&br;&br; ・ftp://ring.jaist.ac.jp/pub/ &br; 大学系は回線太く速いです。北陸先端大のRingサーバです。 &br; &br; ・ftp://ftp.media.kyoto-u.ac.jp/pub/ &br; 大学系は回線太く速いです。京都大学のMediaセンターのFTPです。 &br; &br; ・ftp://sunsite.sut.ac.jp/pub/archives/gnu/ &br; SUNサイトのミラーです。理科大なので大学系は回線が太く速いです。 &br; &br; ・ftp://prep.ai.mit.edu/pub/gnu/ &br; GNUの元のサイト。重い(普通の人がアクセスすると重くなる)のであまり使わない方がいい。 &br; &br; ・ftp://gnjilux.cc.fer.hr/pub/unix/util/wget/ &br; Wgetのメンテナンスサイト。Wgetの最新バージョンや開発バージョンなど、いろいろ手にはいるらしい。&br; **''ソース展開とインストール''&aname(C); [#l2e576b4] > tar zxvf wget-1.5.3.tar.gz > cd wget-1.5.3 > ./configure > make これだけでコンパイルできる(筆者はFreeBSD4.10で確認済み)。なお、srcディレクトリの下にwgetができます。 あと、コンパイラさえあればWindowsでもコンパイルできるらしいですが、ちょっと難しいらしいので、ネット上で探して見てください。実際、検索サーバとかで見つかりました。 **''簡単な使い方''&aname(D); [#c0abc8fd] ○基本1 wget http://flateight.com/~matsui/index.html http://flateight..../index.htmlのみをダウンロードする。&br;&br; ○基本2 wget -r http://flateight.com/~matsui/index.html http://flateight..../index.htmlから再帰回収(-r)でホームページをダウンロードする。 つまり、ホームページをまるごと自分のディスクに持って来る。 また、深さはデフォルトの5まで回収する。 これを実行すると、実行したディレクトリにホスト名と同様(ここではflateight.com)のディレクトリができる。 その下にダウンロード先と同じようなディレクトリ構造ができる。 **''応用的使い方''&aname(E); [#wfc01c7c] ○応用1 wget -r -L -l 10 http://flateight.com/~matsui/index.html http://flateight....を再帰回収(-r)で相対リンクだけ(-L)をたどり 深さ10まで(-l 10)でダウンロードする。 HTTP(ホームページ)の場合はこの使い方が一般的。&br;&br; ○応用2 wget -r -A .jpg,.gif -nd http://flateight.com/~matsui/index.html http://...にリンクしてあるjpgやgifといった画像ファイル(このページをブラウザで開くと表示する画像) だけ(-A .jpg,.gif)をカレントディレクトリ(-nd)にダウンロードする。 なおこの場合、深さは自動的に1(指定ページのリンクだけ)となる。(画像ファイルにリンクはないので、当然) ○応用3 wget -r -np ftp://seagull.cs.uec.ac.jp/pub/foo/ ftp://seagull.cs.uec.ac.jp/のpub/foo/ディレクトリ以下だけ (-npにより親ディレクトリを回収しなくする)を再帰回収(-r)する。(深さはデフォルトの5)~ FTPの場合はこのやり方が一般的。 また、ある一つのホームページ(HTTP)だけをまるごとダウンロードするのにも便利。 ○応用4 wget -e HTTP_PROXY=xx.xx.xx.xx.xx:3128 http://xxxx --proxy-user=user --proxy-passwd=userpass Proxy経由でwget
タイムスタンプを変更しない
*&SIZE(15){''Wget''}; [#m2b9f727] [[dokuwiki.fl8.jp転載済み>http://dokuwiki.fl8.jp/doku.php/02_freebsd/01_net/01_wget]] +[[Wgetとは?>#A]] +[[ソース取得>#B]] +[[ソースの展開とインストール>#C]] +[[簡単な使い方>#D]] +[[応用的使い方>#E]] **''Wgetとは?''&aname(A); [#s568fdcc] &aname(A);WgetとはUNIX上で使えるダウンロード支援ツールであり、ホームページ自動巡回ツールでもある。 この種のツールはWindowsとかにはいっぱいあるが、UNIXには少ない。 Windownsのダウンロード支援ツールではIria、DCさくら、ReGet、GetRight、FlashGet…、などがある。ホームページ自動巡回ツールもいっぱいあるらしい…。 **''ソースの取得''&aname(B); [#ae7d4cf6] Wgetを配布しているFTPサイトは(一部つながらないところもあるが)&br;&br; ・ftp://ring.jaist.ac.jp/pub/ &br; 大学系は回線太く速いです。北陸先端大のRingサーバです。 &br; &br; ・ftp://ftp.media.kyoto-u.ac.jp/pub/ &br; 大学系は回線太く速いです。京都大学のMediaセンターのFTPです。 &br; &br; ・ftp://sunsite.sut.ac.jp/pub/archives/gnu/ &br; SUNサイトのミラーです。理科大なので大学系は回線が太く速いです。 &br; &br; ・ftp://prep.ai.mit.edu/pub/gnu/ &br; GNUの元のサイト。重い(普通の人がアクセスすると重くなる)のであまり使わない方がいい。 &br; &br; ・ftp://gnjilux.cc.fer.hr/pub/unix/util/wget/ &br; Wgetのメンテナンスサイト。Wgetの最新バージョンや開発バージョンなど、いろいろ手にはいるらしい。&br; **''ソース展開とインストール''&aname(C); [#l2e576b4] > tar zxvf wget-1.5.3.tar.gz > cd wget-1.5.3 > ./configure > make これだけでコンパイルできる(筆者はFreeBSD4.10で確認済み)。なお、srcディレクトリの下にwgetができます。 あと、コンパイラさえあればWindowsでもコンパイルできるらしいですが、ちょっと難しいらしいので、ネット上で探して見てください。実際、検索サーバとかで見つかりました。 **''簡単な使い方''&aname(D); [#c0abc8fd] ○基本1 wget http://flateight.com/~matsui/index.html http://flateight..../index.htmlのみをダウンロードする。&br;&br; ○基本2 wget -r http://flateight.com/~matsui/index.html http://flateight..../index.htmlから再帰回収(-r)でホームページをダウンロードする。 つまり、ホームページをまるごと自分のディスクに持って来る。 また、深さはデフォルトの5まで回収する。 これを実行すると、実行したディレクトリにホスト名と同様(ここではflateight.com)のディレクトリができる。 その下にダウンロード先と同じようなディレクトリ構造ができる。 **''応用的使い方''&aname(E); [#wfc01c7c] ○応用1 wget -r -L -l 10 http://flateight.com/~matsui/index.html http://flateight....を再帰回収(-r)で相対リンクだけ(-L)をたどり 深さ10まで(-l 10)でダウンロードする。 HTTP(ホームページ)の場合はこの使い方が一般的。&br;&br; ○応用2 wget -r -A .jpg,.gif -nd http://flateight.com/~matsui/index.html http://...にリンクしてあるjpgやgifといった画像ファイル(このページをブラウザで開くと表示する画像) だけ(-A .jpg,.gif)をカレントディレクトリ(-nd)にダウンロードする。 なおこの場合、深さは自動的に1(指定ページのリンクだけ)となる。(画像ファイルにリンクはないので、当然) ○応用3 wget -r -np ftp://seagull.cs.uec.ac.jp/pub/foo/ ftp://seagull.cs.uec.ac.jp/のpub/foo/ディレクトリ以下だけ (-npにより親ディレクトリを回収しなくする)を再帰回収(-r)する。(深さはデフォルトの5)~ FTPの場合はこのやり方が一般的。 また、ある一つのホームページ(HTTP)だけをまるごとダウンロードするのにも便利。 ○応用4 wget -e HTTP_PROXY=xx.xx.xx.xx.xx:3128 http://xxxx --proxy-user=user --proxy-passwd=userpass Proxy経由でwget
テキスト整形のルールを表示する
ログインまたはアカウント作成