web-dev-qa-db-ja.com

不明なコマンド:クロールエラー

私はPythonの初心者です。 python 2.7.3バージョン32ビット64ビットOSで実行しています(64ビットを試しましたが、うまくいきませんでした)。

私はチュートリアルに従い、私のマシンにスクレイピーをインストールしました。私は1つのプロジェクトdemozを作成しました。しかし、scrapy crawl demozと入力すると、エラーが表示されます。 (C:\ python27\scripts)の下のスクレイピーコマンドを押すと、このことに遭遇しました

C:\Python27\Scripts>scrapy
Scrapy 0.14.2 - no active project

Usage:
  scrapy <command> [options] [args]

Available commands:
  fetch         Fetch a URL using the Scrapy downloader
  runspider     Run a self-contained spider (without creating a project)
  settings      Get settings values
  Shell         Interactive scraping console
  startproject  Create new project
  version       Print Scrapy version
  view          Open URL in browser, as seen by Scrapy

Use "scrapy <command> -h" to see more info about a command

C:\Python27\Scripts>

私は彼らがインストールに欠けている何かだと思います誰でも助けてください..事前にありがとう..

24
Nits

scrapy crawl spider_nameコマンドは、scrapy.cfgファイルが存在するスクラッププロジェクトフォルダーで実行する必要があります。

docs から:

クロール

スパイダーを機能させるには、プロジェクトの最上位ディレクトリに移動して、次のコマンドを実行します。

scrapy crawl dmoz

55
warvariuc

scrapy crawl demoz次のコマンドを使用して作成したスクレイピープロジェクトフォルダーのコード

scrapy startproject tutorials

たとえば、tutorialsという名前のスクレイピープロジェクトを開始した場合は、最初にチュートリアルフォルダーに移動し、そこからcrawlコマンドを実行します。

scrapy crawl demoz
3
Subin Shrestha

まず、作成したフォルダに移動します

scrapy startproject project_name

今このproject_nameの中に実行

scrapy crawl crawler_name

crawler_nameは名前フィールドの値にすぎません。

既存のプロジェクトがあり、突然このエラー「Scrapy 1.3.3-no active project」が表示された場合、私の場合、プロジェクトを開いたときに、scrapy.cfgファイルが表示されません。私がしたことは、余分な行を削除してgithubからインスタンスにデプロイするなど、プロジェクトにいくつかの小さな変更を加えただけで、うまくいきました!

0
bonifacio_kid

最初にプロジェクトを作成します。

scrapy startproject project_name

project_nameの2つのフォルダーが作成され、次にpythonファイルをスパイダーfolderとそのファイルに作成します。

name="name_of_the_crawler"

ファイルを保存してこのフォルダーのターミナルを開き、次のように入力します。

scrapy crawl name_of_the_crawler
0
vizz