web-dev-qa-db-ja.com

すべてのPDF Webページのリンクをダウンロードしますか?

WebページのすべてのPDFリンクをダウンロードするための優れたソフトウェアをご存知ですか??

オペレーティングシステムはWindows 7です。

25
iAsk

wget を使用して、次のようなコマンドを実行できます。

wget --recursive --level=1 --no-directories --no-Host-directories --accept pdf http://example.com

または短いオプションで:

wget -r -l 1 -nd -nH -A pdf http://example.com

更新:更新ではWindows 7を実行していると記載されているため、cmdプロンプトから Windowsの場合はwget を使用します。

更新2:グラフィカルなソリューションの場合-他のファイルも取得するため、やり過ぎかもしれませんが DownThemAll

38
  1. ブラウザで、 CTRL+SHIFT+J、入力

    var pdflinks = []; Array.prototype.map。 call(document.querySelectorAll( "a [href $ = \"。pdf\"]")、function(e、i){if((pdflinks || [])。indexOf(e.href)==-1) {pdflinks.Push(e.href);}}); console.log(pdflinks.join( ""));

    これはコンソールに戻ります:

    " https://superuser.com/questions/tagged/somepdf1.pdf " " https://superuser.com/questions/tagged/somepdf2.pdf " "- https://superuser.com/questions/tagged/somepdf3.pdf "

  2. wget をコマンドラインオプションwget url1 url2 ...とともに使用する

これをコピーして貼り付け、コンソールを開いてwgetと入力し、マウスの右ボタンを押してクリップボードのコンテンツを挿入し、Enterキーを押します。

ダウンロードファイルを使用するには、「\ n」で行を結合し、次のようにパラメーターを使用しますwget -i mydownload.txt

他のほとんどの(GUI)ダウンロードプログラムも、スペースで区切られたURLのリストで呼び出すことができます。

お役に立てれば。これが私が一般的に行う方法です。これは、グラフィカルUIを備えたどの拡張機能よりも高速で柔軟性があるため、習得して慣れる必要があります。

6
Lorenz Lo Sauer

ブラウザーにとどまりたい場合は、まさにこの目的のためにWeb拡張機能を作成しました-私は、適切にフォーマットされたタイトルで学術論文のPDFを保存する機能を追加する作業をしていますが、ダウンロードしたい場合は、それだけで完璧ですこのため。

これはTab Saveと呼ばれ、Chromeウェブストア here にあります。すべてをタブで開くだけの場合は、URLのリストを入力する必要もあります(ただし、ファイルの数が多いと、コンピューターの速度が低下する可能性があるため、独自のURLを追加するオプションを追加しました)。

1
Louis Maddox

Google Chromeでは、次のような拡張機能を使用できます。

  • ダウンロードマスター

    この拡張機能を使用すると、アクセスしているWebページにリンクされているすべての画像、動画、pdf、doc、およびその他のファイルをダウンロードできます。

0
kenorb

私は最近これに Get (Windowsの場合)を使用しました。 GUIがあり、ダウンロードするファイルをフィルタリングできます。

それらすべてを覚えようとする節約

0
Cogitative

グーグル

Pythonダウンロードを可能にするツールはほとんどありませんPDF Google検索結果に基づくWebサイトからのリンクです。

例えば。

注:私は上記の両方のスクリプトのメンテナーです。

どちらも xgoogle Pythonライブラリを実装しています。このライブラリの私のフォークは pkrumins/xgoogleバージョン


関連: LinuxコマンドラインからのWeb検索

0
kenorb