問題タブ [scrapyd]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
982 参照

python - Scrapyd でスパイダーをスケジュールし、スパイダー設定オプションを渡します

私は slyd で作成されたスパイダーを scrapy - elasticsearch を使用するように構成しようとしているので、構成するために送信-d parameter=valueしています:

これは、settings.py に入れる必要があるデフォルトの構成です。

新しいスパイダーごとにこれらの設定を自動的に生成するように slyd を構成する方法が見つからないため、オプションを-d引数として渡そうとしています。Scrapyd は引き続きスパイダーを実行しますが、elasticsearch には何も保存されません。エラー ログには次のように表示されます。

0 投票する
1 に答える
673 参照

python - ImportError: オブジェクト 'scrap.middlewares.RandomUserAgentMiddleware' の読み込みエラー: Scrap.middlewares という名前のモジュールがありません

私はDOWNLOADER_MIDDLEWARES で~/portia/slyd/data/projects/scrap使用するセットアップでポーシャ スクレイピー プロジェクトを持っています。scrap.middlewares.RandomUserAgentMiddlewareRandomUserAgentMiddleware~/portia/slyd/data/projects/scrap/middlewares.py

プロジェクトをデプロイした後、結果の卵には が含まれていないmiddlewares.pyため、次のエラーが発生します。

カスタムミドルウェアも取得するようにscrapyd-deployに指示するにはどうすればよいですか?

編集:

settings.pyはこれです:http://pastebin.com/8gFU3YEw

また、生成された卵に手動で含めようとしmiddlewares.pyましたが、解決しませんが、それでも同じエラーです。

0 投票する
2 に答える
756 参照

python - Scrapyd: CSV ファイルをリモート サーバーに書き込む

EC2 でクローラーをスケジュールし、出力を csv ファイル cppages-nov.csv にエクスポートしようとしていますが、クロールを一時停止する必要があるジョブディレクトリ エンケースを作成していますが、ファイルが作成されていません。正しいフィード エクスポートを使用していますか?

0 投票する
0 に答える
146 参照

scrapy - デプロイ中に卵ファイルにはscrapydの許可が必要です

別のプロジェクトでこれを行うと、それが表示されます。

0 投票する
1 に答える
474 参照

python - Scrapyd Deploy は成功しませんでした

私の Scrapy.cfg ファイルは

以下のコマンドを実行すると、以下に示すエラーがスローされることを意味します。

では、scrapyd を介して自分のスクレイピー プロジェクトをデプロイするにはどうすればよいでしょうか。

0 投票する
1 に答える
2343 参照

python - Scrapyd Error: exceptions.AttributeError: 'dict' object has no attribute 'fields'

I recently published a working scrape to scrapyd. I'm getting the error message below when I run the scrape.

I reviewed this closed issue: https://github.com/scrapy/scrapy/issues/86 and implemented the recommended fix per the docs: http://scrapyd.readthedocs.org/en/latest/config.html

My config file lives here: :/etc/scrapyd/conf.d/000-default

I cannot seem to disable the Feedexporter extension by setting items_dir to none. Is there a new way to disable feedexporter in scrapyd?

Config file:

Error Message: