web-dev-qa-db-ja.com

セロリ:モジュールが見つかりませんでした

私はOpen Semantic Search(OSS)を使用しており、そのプロセスを Flower tool を使用して監視したいと考えています。セロリが必要とする労働者は そのウェブサイト でOSSの状態として与えられるべきです

ワーカーは、キューに入れられたファイルの分析やインデックス作成などのタスクを実行します。ワーカーはetl/tasks.pyによって実装され、opensemanticsearchサービスによって起動時に自動的に開始されます。

このtasks.pyファイルは次のようになります。

#!/usr/bin/python3
# -*- coding: utf-8 -*-

#
# Queue tasks for batch processing and parallel processing
#

# Queue handler
from celery import Celery

# ETL connectors
from etl import ETL
from etl_delete import Delete
from etl_file import Connector_File
from etl_web import Connector_Web
from etl_rss import Connector_RSS


verbose = True
quiet = False

app = Celery('etl.tasks')
app.conf.CELERYD_MAX_TASKS_PER_CHILD = 1

etl_delete = Delete()
etl_web = Connector_Web()
etl_rss = Connector_RSS()


#
# Delete document with URI from index
#

@app.task(name='etl.delete')
def delete(uri):
    etl_delete.delete(uri=uri)


#
# Index a file
#

@app.task(name='etl.index_file')
def index_file(filename, wait=0, config=None):

    if wait:
        time.sleep(wait)

    etl_file = Connector_File()

    if config:
        etl_file.config = config

    etl_file.index(filename=filename)

#
# Index file directory
#

@app.task(name='etl.index_filedirectory')
def index_filedirectory(filename):

    from etl_filedirectory import Connector_Filedirectory

    connector_filedirectory = Connector_Filedirectory()

    result = connector_filedirectory.index(filename)

    return result


#
# Index a webpage
#
@app.task(name='etl.index_web')
def index_web(uri, wait=0, downloaded_file=False, downloaded_headers=[]):

    if wait:
        time.sleep(wait)

    result = etl_web.index(uri, downloaded_file=downloaded_file, downloaded_headers=downloaded_headers)

    return result


#
# Index full website
#

@app.task(name='etl.index_web_crawl')
def index_web_crawl(uri, crawler_type="PATH"):

    import etl_web_crawl

    result = etl_web_crawl.index(uri, crawler_type)

    return result


#
# Index webpages from sitemap
#

@app.task(name='etl.index_sitemap')
def index_sitemap(uri):

    from etl_sitemap import Connector_Sitemap

    connector_sitemap = Connector_Sitemap()

    result = connector_sitemap.index(uri)

    return result


#
# Index RSS Feed
#

@app.task(name='etl.index_rss')
def index_rss(uri):

    result = etl_rss.index(uri)

    return result


#
# Enrich with / run plugins
#

@app.task(name='etl.enrich')
def enrich(plugins, uri, wait=0):

    if wait:
        time.sleep(wait)

    etl = ETL()
    etl.read_configfile('/etc/opensemanticsearch/etl')
    etl.read_configfile('/etc/opensemanticsearch/enhancer-rdf')

    etl.config['plugins'] = plugins.split(',')

    filename = uri

    # if exist delete protocoll prefix file://
    if filename.startswith("file://"):
        filename = filename.replace("file://", '', 1)

    parameters = etl.config.copy()

    parameters['id'] = uri
    parameters['filename'] = filename

    parameters, data = etl.process (parameters=parameters, data={})

    return data


#
# Read command line arguments and start
#

#if running (not imported to use its functions), run main function
if __name__ == "__main__":

    from optparse import OptionParser 

    parser = OptionParser("etl-tasks [options]")
    parser.add_option("-q", "--quiet", dest="quiet", action="store_true", default=False, help="Don\'t print status (filenames) while indexing")
    parser.add_option("-v", "--verbose", dest="verbose", action="store_true", default=False, help="Print debug messages")

    (options, args) = parser.parse_args()

    if options.verbose == False or options.verbose==True:
        verbose = options.verbose
        etl_delete.verbose = options.verbose
        etl_web.verbose = options.verbose
        etl_rss.verbose = options.verbose

    if options.quiet == False or options.quiet==True:
        quiet = options.quiet

    app.worker_main()

私はセロリに関する複数のチュートリアルを読みました、そして私の理解から、この行は仕事をするはずです

celery -A etl.tasks flower

しかし、そうではありません。結果はステートメントです

エラー:セロリアプリケーションをロードできません。モジュールetlが見つかりませんでした。

同じ

celery -A etl.tasks worker --loglevel=debug

セロリ自体が花ではなく問題を引き起こしているようです。私も試しましたcelery -A etl.index_filedirectory worker --loglevel = debugですが、同じ結果になります。

何が欠けていますか?どういうわけか、Celeryにetl.tasksの場所を教える必要がありますか?オンライン調査では、実際には同様のケースは示されていません。「モジュールが見つかりません」エラーのほとんどは、データのインポート中に発生するようです。おそらくばかげた質問かもしれませんが、私はどこにも解決策を見つけることができませんでした。皆さんが私を助けてくれることを願っています。申し訳ありませんが、申し訳ありませんが月曜日まで対応できません。

5
starsnpixel

export PYTHONPATH=<parent directory>を試してください。親ディレクトリはetlがあるフォルダです。 Celeryワーカーを実行し、問題が解決するかどうかを確認します。これはおそらく最も一般的なCeleryの「問題」の1つです(実際にはCeleryではありませんが、Python一般的に)。あるいは、そのフォルダからCeleryワーカーを実行します。

0
DejanLekic

このエラーは2つのことを意味することに注意してください。

  1. モジュールがありません
  2. モジュールは存在しますしかしロードできません。たとえばSyntaxErrorなどのエラーがある場合。

後者でないことを確認するには、次のコマンドを実行します。

python -c "import <myModuleContainingTasksDotPyFile>" 

この質問の文脈では:

python -c "import etl" 

クラッシュした場合は、まずこれを修正します(セロリとは異なり、詳細なエラーメッセージが表示されます)。

0
Overdrivr