データが1時間ごとに取得されるかどうかをウェブサイトでテストするには、cronjobを作成する必要があります。
最初に、jsonデータをテキストファイルに貼り付けて試行し、データをエンコードおよびデコードして検証しました。今、私はcronジョブを実行するたびにロードされるリアルタイムデータ(jsonデータ)が必要です。urllib2を使用しましたが、URLから要求応答を取得していません。
Url->ロード時->firebugを介して、実行するURLとそこからのjsonデータを提供します。そのようなURLをPythonにインポートまたは解析するにはどうすればよいですか?例を挙げてください。
私の手順:小屋を作成する
1.45 08 * * 1-5 /home/user/myfile/daily_verifydata.sh >> /home/user/cronlog.log
daily_verifydata.sh
#!/bin/sh
python /home/user/path/Dashboard_test.py
Dashboard_test.py
import json
import urllib2
f = open('test.txt','r') # open in read mode
data = f.read()
print data
# How to Parse the json from the URL to python
data_string = json.dumps(data)
print '\n''ENCODED:', data_string
decoded = json.loads(data_string)
print '\n''DECODED:', decoded
# Validating data through decoded output.
可能であれば、curlを解析する場合は、構文を知っておく必要があります
ありがとう、vijay