web-dev-qa-db-ja.com

HTTPフォルダーの場所からローカルフォルダーにすべてのファイルをコピーする

私は学生なので、教授のウェブサイトからたくさんのものを引き出す必要があります。できれば、フォルダ構造の一部を保持します。

私はWindowsボックスで作業しており、Windows XP、Windows 7、およびWindows Server 2008 R2にアクセスできます。昔(2〜3年前)に、Webページやその類のものをミラーリングするユーティリティをいくつか試しましたが、さまざまな理由で正しく機能しなかったり、期待どおりの結果が得られなかったりしました。

したがって、たとえば、次のフォルダ:

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

本質的に、後で使用するために手動でダウンロードしようとするのは本当に大変です。

私は このユーティリティ を試してみましたが、それはやりすぎです。または、ハードドライブにファイルをダウンロードするだけでは取得できなかったため、not-simple-enough-killのどちらかです。

理想的には、フォルダーを再帰的にスキャンし、指定したフォルダーにフォルダー構造を再作成してから、リモートサーバーからローカルマシンの対応するフォルダーにファイルをコピーします。

Webサイトからファイルを再帰的にダウンロードする最も簡単なユーティリティはWGETです。

http://gnuwin32.sourceforge.net/packages/wget.htm

9
Oleg

HTTrack を使用して見てください:

インターネットからローカルディレクトリにWorld Wide Webサイトをダウンロードして、すべてのディレクトリを再帰的に構築し、サーバーからコンピューターにHTML、画像、およびその他のファイルを取得できます。 HTTrackは、元のサイトの相対的なリンク構造を調整します。ブラウザで「ミラーリングされた」Webサイトのページを開くだけで、オンラインで表示しているかのように、リンクからリンクにサイトを参照できます。 HTTrackは、既存のミラーリングされたサイトを更新し、中断されたダウンロードを再開することもできます。 HTTrackは完全に設定可能で、統合されたヘルプシステムを備えています。

5
user229640

Firefoxアドオン: DownThemAll!

Chrome拡張機能: GetThemAll

5
Codezilla