2

データが1時間ごとに取得されるかどうかをウェブサイトでテストするには、cronjobを作成する必要があります。

最初に、jsonデータをテキストファイルに貼り付けて試行し、データをエンコードおよびデコードして検証しました。今、私はcronジョブを実行するたびにロードされるリアルタイムデータ(jsonデータ)が必要です。urllib2を使用しましたが、URLから要求応答を取得していません。

Url->ロード時->firebugを介して、実行するURLとそこからのjsonデータを提供します。そのようなURLをPythonにインポートまたは解析するにはどうすればよいですか?例を挙げてください。

私の手順:小屋を作成する

     1.45 08 * * 1-5 /home/user/myfile/daily_verifydata.sh >> /home/user/cronlog.log 

daily_verifydata.sh

    #!/bin/sh
    python /home/user/path/Dashboard_test.py

Dashboard_test.py

    import json
    import urllib2

    f = open('test.txt','r') # open in read mode
    data = f.read()
    print data

    # How to Parse the json from the URL to python

    data_string = json.dumps(data)
    print '\n''ENCODED:', data_string

    decoded = json.loads(data_string)
    print '\n''DECODED:', decoded

    # Validating data through decoded output. 

可能であれば、curlを解析する場合は、構文を知っておく必要があります

ありがとう、vijay

4

2 に答える 2

1

リクエストの使用をお勧めします

import requests
import simplejson

session = requests.session()
# I presume your site has authentication
response = session.post(URL_TO_LOGIN, {
            'username': username,
            'password': password
        })
response = session.get(URL_TO_JSON)
if response.ok:
    simplejson.loads(response.text)
于 2012-11-27T17:00:18.833 に答える
1

JSON を bash スクリプトで取得するには、便利なツールhttpieを使用できます

Python スクリプトから JSON をプルしたい場合 — 最適なオプションはrequests libです

検証に関しては、複雑です — JSONSchema

于 2012-11-27T17:03:17.267 に答える