私はpythonとscrapyが初めてです。Scrapy のチュートリアルに従おうとしていますが、storage stepのロジックがわかりません。
scrapy crawl spidername -o items.json -t json
scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv
の意味がわかりません:
- -o
- -t
- - 設定
ご協力ありがとうございました
私はpythonとscrapyが初めてです。Scrapy のチュートリアルに従おうとしていますが、storage stepのロジックがわかりません。
scrapy crawl spidername -o items.json -t json
scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv
の意味がわかりません:
ご協力ありがとうございました
scrapy crawl -h
プロジェクト ディレクトリ内から入力して、使用可能なコマンドのリストを表示できます。
scrapy crawl spidername -o items.json -t json
-o
ダンプされたアイテムの出力ファイル名を指定します (items.json)-t
項目をダンプするための形式を指定します (json)scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv
--set
設定を設定/上書きするために使用されますFEED_URI
アイテムのダンプ用のストレージ バックエンドを設定するために使用されます。この例では、ローカル ファイルシステムを使用する「output.csv」に設定されています。つまり、単純な出力ファイルです。(現在の例では、output.csv)FEED_FORMAT
(出力)フィードのシリアル化形式を設定するために使用されます(現在の例では csv の場合)参考文献 (Scrapy のドキュメント):