指定したURLに存在するファイルをダウンロードします。
wget [オプション ・・・] URL [URL2 ・・・]
オプション名 | 説明 |
-V, --version | バージョン情報を表示します。 |
-h, --help | 使用方法を表示します。 |
-b, --background | 処理をバックグラウンドで行います。-oオプションの指定がない場合処理結果はwget-logに書き込みます。 |
-e, --execute | 初期化時の処理を直接指定します。 |
-o filename, --output-file=filename |
処理結果を指定のファイルに書き込みます。指定のない場合は標準エラー出力に出力されます。 |
-a filename, --append-filename=filename |
処理結果を指定のファイルに追加出力します。指定のファイルが存在しない場合はファイルの作成を行います。 |
-d, --debug | 処理中、デバッグ出力を行います。 |
-q, --quiet | 処理結果の表示を行いません。 |
-v, --verbose | 処理結果の詳細な表示を行いません。 |
-nv, --no-verbose | 簡略な処理結果の表示を行いません |
-i filename, --input-file=filename |
指定したファイルに記述されたURLのリソースを取得します。-を指定した場合は標準入力から取得するリソースのURLを読み込みます。 |
-F, --force-html | 「-i」オプションで指定したファイルをHTMLファイルとして扱い<a>タグで指定されるURLのリソースを取得します。 |
-B URL, --base=URL | 「-F」オプションを併用した場合、指定のURLを相対パスに前置します。 |
--bind-address=Address | ローカルホストに複数のIPアドレスが指定されている場合、指定のIPアドレスを使用してサーバとの接続を行います。 |
-t number, --tries=回数 | 処理失敗の際、指定の回数再試行を行います。(デフォルトは20です。)オプション「0」「inf」を指定した場合は無制限に再試行を行います。 |
-O ファイル名, --output-document=filename |
複数のテキストデータを一つに連結して指定のファイルへの書き込みを行います。指定のない場合は標準出力に対して出力します。 |
-nc, --no-clobber | 既に同名のファイルが存在した場合、新しくダウンロードしたファイルは放棄します。 |
-c, --continue | ダウンロード処理が途中で終了したファイルのダウンロードを再開します。 |
--progress=表示形式 | 処理の進捗状況表示に使用される文字を指定します。表示形式dotを指定することで使用される文字にドットが設定されます。barを指定することで使用されう文字に等号が設定されます。 |
-N, --timestamping | ダウンロード対象と同名のファイルが既に存在する場合、更新時間を比較しローカル側に存在するファイルのほうが新しい時はダウンロード処理を行いません。 |
--spider | ダウンロード処理は行わずダウンロード対象として指定されたURLにリソースが存在するかを確認します。 |
-T 秒数, --timeout=秒数 | サーバとのアクセスを行う際のタイムアウト時間を指定の秒数に設定します。 |
--dns=timeout=秒数 | DNSルックアップ処理のタイムアウト時間を指定の秒数に設定します。 |
--connect-timeout=秒数 | 接続タイムアウト時間を指定の秒数に設定します。 |
--read-timeout=秒数 | 読み込み中の待機時間が指定の秒数以上になった場合中断し、再び開始します。 |
--limit-rate=amount | ダウンロード速度の上限を指定します。 |
-w 秒数, --wait=秒数 | ダウンロード処理の終了、失敗から次の処理または再試行に移るまでの間に指定の秒数待機します。 |
--waitretry=秒数 | ダウンロード失敗時、再試行に移るまでの間に指定の秒数待機します。 |
--random-wait | ダウンロード処理終了から次の処理に移るまでの間にランダムな時間待機します。 |
--no-proxy | プロキシを使用せずに処理を行います。 |
-Q quota, --quota=サイズ | ダウンロードしたデータサイズの総量が指定のサイズを超えた場合処理を中止します。オプション「0」「inf」を指定した場合データサイズの総量制限は無くなります。 |
--no-dns-cache | DNSルックアップ処理を常に行います。 |
--restrict-file-names=文字 | 指定されたシステムでファイル名に使用されるのに不適切な文字を対応する16進数2桁に置き換えます。 |
-4, --inet4-only | IPv4のIPアドレスで指定されるサーバに対してのみ接続を行い、IPv6のIPアドレスで指定されるサーバに対する接続を拒絶します。 |
-6, --inet6-only | IPv6のIPアドレスで指定されるサーバに対してのみ接続を行い、IPv4のIPアドレスで指定されるサーバに対する接続を拒絶します。 |
--prefer-family=IPv4/IPv6/none | 複数のアドレスファミリのIPアドレスが与えられた場合指定のアドレスファミリのIPアドレスを優先して使用します。「none」が指定された場合はDNSサーバから取得した順にIPアドレスを使用します。 |
--retry-connrefused | 「connection refused」エラーが発生した場合、接続処理を再試行します。 |
--user=ユーザ名, --password=パスワード |
HTTP、FTPプロトコルで接続した際ユーザ名、パスワードを要求する場合に指定します。 |
-nd, --no-directories | ダウンロード処理の際ディレクトリ作成を行わず取得したファイルを全て同一ディレクトリに保存します。 |
-x, --force-directories | ダウンロード処理の際取得したファイルを保存するディレクトリを必ず作成します。 |
-nH, --no-host-directories | 接続したサーバ名又はIPアドレスで始まる形の名前のディレクトリ作成を禁止します。 |
--protocol-directories | 取得したファイルを保存するディレクトリ作成の際ディレクトリ名にプロトコル名を使用します。 |
--cut-dirs=number | ダウンロードしたデータを保存するディレクトリを作成する際にリモート側の階層構造を指定の数だけ無視します。 |
-P ディレクトリ, --directory-prefix=ディレクトリ |
ダウンロードしたデータを格納するディレクトリを指定します。デフォルトではカレントディレクトリを指定しています。 |
-E, --html-extension | XHTMLあるいはHTML形式のデータをダウンロードした際ファイル名が「.html」で終わらない場合、末尾に「.html」を付け足したファイル名で保存します。 |
--http-user=user, --http-password=password |
HTTPプロトコルでアクセスする際にユーザ名とパスワードを要求される場合に指定します。 |
--no-cache | サーバ側でキャッシュを行うことを禁止します。 |
--no-cookies | クッキーの使用を禁止にします。 |
--load-cookies file | 指定したファイルからクッキーを読み込みます。 |
--save-cookies file | 指定したファイルにクッキーを書き込みます。 |
--keep-session-cookies | 「--save-cookies」オプションの処理に加えて有効期限の指定されていないクッキーも保存します。 |
--ignore-length | サーバから与えられるContents-Lengthフッタの情報を無視してダウンロード処理を行います。 |
--header=header-line | リクエスト送信の際指定したヘッダ情報を送信します。 |
--proxy-user=ユーザ名, --proxy-password=パスワード |
プロキシサーバから認証を求められる場合、ユーザ名とパスワードを指定します。 |
--referer=url | リクエスト送信の際指定のURLを経由してアクセスしたかのようなRefererヘッダを付け加えます。 |
--save-headers | サーバから帰ってきたデータの先頭にヘッダを付け加えます。 |
-U agent-string, --user-agent=agent-string | リクエスト送信の際User-Agentヘッダの情報を書き換えて送信します。 |
--post-data=文字列, --post-file=ファイル名 |
POSTを使用してデータの送信を行います。指定した文字列又は指定したファイルの内容の送信を行います。 |
--secure-protocol=プロトコル | 使用するセキュアプロトコルの選択を行います。「auto」「SSLv2」「SSLv3」「TLSv1」が選択可能です。「auto」を指定した場合、適切なプロトコルを自動的に選択します。 |
--no-check-certificate | サーバ証明書についての認証局に対する問い合わせ、証明に記されたサーバ名と接続対象のサーバ名の比較の両方とも行いません。 |
--certificate=ファイル名 | サーバから証明書の提示を求められた場合指定のファイルの証明書を提示します。 |
--certificate-type=形式 | 証明書を提示する場合、その形式を指定します。PEM(デフォルト)とDERが選択可能です。 |
--private-key=ファイル名 | 指定したファイルを秘密鍵として読み込みます。 |
--private-key-type=形式 | 秘密鍵を使用する場合、指定の形式で使用します。 |
--ca-certificate=ファイル名 | 指定のファイルをCA証明書として使用します。 |
--ca-directory=ディレクトリ名 | CA証明書を読み込む際指定の場所で探します。 |
--random-file=ファイル名 | 指定ファイルをソースとして疑似乱数を生成します。このオプションは/dev/randomの使用できない環境で使用します。 |
--egd-file=ファイル名 | 指定のファイルをEGDソケットとして使用します。EGDはSSL暗号化のための暗号鍵作成の際、乱数生成のため使用されます。「/dev/random」が使用可能な環境では不必要です。 |
--ftp-user=ユーザ名, --ftp-password=パスワード |
ftpサーバからユーザ名パスワードを求められる場合に指定します。 |
--no-remove-listing | ftpサーバからデータを取得する際一時的に生成される.listingファイルを削除せず、保存しておきます。 |
--no-glob | 「*」などのワイルドカード文字としての使用を無効にします。 |
--no-passive-ftp | パッシブモードでのftpサーバからのデータ転送を禁止にします。 |
--retr-symlinks | デフォルトでは再帰的に指定ディレクトリの内容を取得する場合、シンボリックリンク(ディレクトリ・ファイルに別の名を設定し、その名前でアクセスできる仕組み)についてはリンク先をダウンロードせず同じ内容のシンボリックリンクをローカルホスト上に作成します。このオプションを指定することでシンボリックリンクについてはリンク先を保存するようになります。 |
--no-http-keep-alive | キープアライブ(接続が有効かどうかを確認する定期的な通信)を停止させます。接続しているサーバに対してキープアライブ通信がうまくいかない場合に使用できます。 |
-r, --recursive | ダウンロード処理を再帰的に行います。 |
-l depth, --level=depth | ダウンロード処理を再帰的に行う際、指定された数値を最大深度とします。 |
--delete-after | 単一ファイルはダウンロード後に削除します。 |
-k, --convert-links | 再帰的にダウンロードした際、ダウンロードしたドキュメントの外部ファイルへの参照が有効となるように書き換えを行います。 |
-K, --backup-converted | -kオプションを指定した際に変換前のデータを元の名前の末尾に.origを付けたファイル名で保存します。 |
-m, --mirror | ftpプロトコルで再帰的にデータを取得する際指定のディレクトリ以下に存在するファイル、ディレクトリ全て取得します。ただし、ローカルホスト上の同名のファイルより古い場合は保存しません。 |
-p, --page-requisites | HTTPプロトコルでの再帰的なダウンロードの際、ドキュメントを取得した場合はそのドキュメントが必要とする全てのリソースをダウンロードします。 |
--strict-comments | ダウンロードしたドキュメントのコメントについて厳密に軸解析処理を行います。 |
-A acclist, --accept acclist | 指定された拡張子、パターンに適合するファイルのダウンロードを許可します。 |
-R rejlist, --reject rejlist | 指定された拡張子、パターンに適合するファイルのダウンロードを拒絶します。 |
-D domain-list, --domains=domain-list |
指定したドメインのリンクをたどります。 |
--exclude-domains domain-list | 指定したドメインのリンクをたどりません。 |
--follow-ftp | ドキュメントに存在するftpサーバへのリンクをたどります。 |
--follow-tags=list | 指定したタグによってリンクされるリンク先についてはダウンロード対象とします。 |
--ignore-tags=list | 指定したタグによってリンクされるリンク先についてはダウンロード対象としません。 |
-H, --span-hosts | 再帰的なダウンロードを行っている際、複数のサーバを横切る形でドキュメントの解析、回収を行います。 |
-L, --relative | 再帰的なダウンロードを行っている際、相対パスで指定されたリンクだけをたどり解析、回収を行います。 |
-I ディレクトリ, --include-directories=ディレクトリ |
再帰的なダウンロードを行っている際、指定したディレクトリに存在するファイルを解析、回収の対象とします。 |
-X ディレクトリ, --exclude-directories=ディレクトリ |
再帰的なダウンロードを行っている際、指定したディレクトリに存在するファイルを解析、回収の対象としません。 |
-np, --no-parent | コマンドで指定したURLより親のディレクトリのファイルの解析、回収処理を行いません。 |
指定したURLに存在するファイル(「Tomcat5.5」のファイル)を取得します。
$ wget https://ftp.kddilabs.jp/infosystems/apac [Enter] he/tomcat/tomcat-5/v5.5.26/bin/apache-tomcat-5.5.26.tar.gz --18:08:12-- https://ftp.kddilabs.jp/infosystems/apache/tomcat/tomcat-5/v5.5.26/ bin/apache-tomcat-5.5.26.tar.gz => `apache-tomcat-5.5.26.tar.gz' ftp.kddilabs.jp をDNSに問いあわせています... 192.26.91.193, 2001:200:601:10:206: 5bff:fef0:466c ftp.kddilabs.jp|192.26.91.193|:80 に接続しています... 接続しました。 HTTP による接続要求を送信しました、応答を待っています... 200 OK 長さ: 6,372,195 (6.1M) [application/x-gzip] 100%[====================================>] 6,372,195 350.26K/s ETA 00:00 18:08:26 (452.46 KB/s) - `apache-tomcat-5.5.26.tar.gz' を保存しました [6372195/6 372195] $ ls [Enter] apache-tomcat-5.5.26.tar.gz