ScraperWiki にデータを保存するための簡単な Python スクリプトを次に示します。
import scraperwiki
scraperwiki.sqlite.save(unique_keys=["a"], data={"a":1, "b":"Foo"})
scraperwiki.sqlite.save(unique_keys=["a"], data={"a":1, "c":"Bar"})
結果は、データストア内の次のテーブルです。
a b c
1 Bar
2 番目のコマンドでは、行 1 の "b" 列の内容を空白にすることをsqlite.save
指定していなかったため、これは面倒です。つまり、私の目的の結果は、データストア:"b":""
a b c
1 Foo Bar
だから私の質問は: ScraperWiki データストアに連続した「保存」操作を使用する場合、上で概説したような結果を達成するために、既存のデータを上書きせずにデータを追加する最良の方法は何ですか?