web-dev-qa-db-ja.com

wgetを使用して公開ウェブサイトの画像を取得するにはどうすればよいですか?

Wgetを使用して公開ウェブサイトの画像を取得するにはどうすればよいですか?巨大なサイトではありません。約40ページあり、1ページあたり約3つの画像があります。

避けたい:

  1. 画像を手動でダウンロードする
  2. サイト全体をダウンロードする

何か案は?

4

Wgetを使用して、画像ファイルのみをダウンするように指示するか、 http://www.downthemall.net/ を使用できます。

から http://www.delorie.com/gnu/docs/wget/wget_31.html

HTTPサーバー上のディレクトリからすべてのGIFをダウンロードしたいとします。 `wget http://www.server.com/dir/ *。gif 'を試しましたが、HTTP取得がグロブをサポートしていないため、機能しませんでした。その場合は、次を使用します。

_wget -r -l1 --no-parent -A.gif http://www.server.com/dir/
_

より冗長ですが、効果は同じです。 -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.-- no-parent 'は、親ディレクトリへの参照が無視されることを意味し(セクション4.3ディレクトリベースの制限を参照)、_-A.gif' means to download only the GIF files._-「*。gif」も機能します。 。

7
user10547

Ifetchという名前のutilを作成しました。試してみてください。 http://sourceforge.net/p/ifetch/wiki/Home/

1
user101906

this を参照してください。

2番目のテンプレートはウェブサイトのすべての写真です。それがあなたが望んでいたことだと思いますか?

0
Lazer
0
Molly7244