そうですね、Googleがこのデータ用のAPIを提供してくれたら素晴らしいと思います!そうは言っても、サイトから一部のデータを取得することはできます。これがそれについて行く方法です...
Firebugをインストールする
FirefoxにはFirebugが好きですが、Chromeの開発者ツールも機能するはずです。
まず最初に、問題のURLに
アクセスし、Firebugを使用して何が起こっているかを確認しましょう。F12でFirebugをアクティブ化するか、[ツール]->[Firebug]->[Firebugを開く]に移動します。最初に[ネット]タブをクリックして、ページをリロードします。これにより、行われたすべてのリクエストが表示され、サイトがどのように機能するかについての洞察が得られます。通常、フラッシュプラグインは、実際のプラグインに埋め込まれているのではなく、外部でデータをロードします。リクエストを見ると、というラベルの付いたリクエストが表示されPOST service
ます。カーソルを合わせると、firebugに完全なURLが表示され、ページがにリクエストを送信したことがわかりますhttp://www.google.com/transparencyreport/traffic/service
。リクエストをクリックして、送信されたヘッダー、投稿データ、レスポンス、リクエストの実行に使用されたCookieを確認できます。

応答を見ると、JSONの形式が正しくないように見えるものがわかります。私の知る限り、これには正規化された交通データポイントのリストが含まれているようです。実際にFirebugから応答を切り取って貼り付けることもできますが、これはPythonの質問なので、もう少し頑張ってみましょう。
データをPythonに取り込む
POSTリクエストを正常に行うには、ブラウザが実行するすべてのことを(ほぼ)実行する必要があります。実際のリクエストをスプーフィングするために、少しごまかしてリクエストヘッダーをコピーし、Firebugからデータを投稿することができます。
ヘッダーと投稿データ
三重引用符を使用して、複数行の文字列をシェルに貼り付けます。リクエストヘッダーをコピーして、に貼り付けます。

>>> headers = """ <paste headers> """
次に、それをhttplib2のdictに変換します。リスト内包表記(改行に基づいて文字列を分割し、最初の行を分割し、末尾の空白を削除dict
して、辞書に変換できる2つの要素のリストのリストを作成します)を使用しますが、好きなようにこれを行うことができます。手動でdictを作成することもできますが、私はこれをより速く見つけることができます。
>>> headers = dict([[s.strip() for s in line.split(':', 1)]
for line in headers.strip().split('\n')])
そして、投稿データをコピーします。

>>> body = """ <paste post data> """
httplib2
を使用するようにリクエストしますが、他にもいくつかのhttpクライアントと、mechanizeやscrapyなどのWebをスクレイピングするための優れたツールがいくつかあります。APIへのURL、コピーしたヘッダー、firebugからコピーした投稿データを使用してPOSTリクエストを作成します。リクエストは、レスポンスヘッダーとコンテンツのタプルを返します。
>>> import httplib2
>>> h = httplib2.Http()
>>> url = 'http://www.google.com/transparencyreport/traffic/service'
>>> resp, content = h.request(url, 'POST', body=body, headers=headers)
マッサージデータ
元の形式は本当に奇妙で、一番上のビットだけにデータポイントが含まれているように見えるので、残りは捨てます。
>>> cleaned = content.split("'")[0][4:-1] + ']'
これで有効なJSONになり、ネイティブのpythonデータ型に逆シリアル化できます。
>>> import json
>>> data = json.loads(cleaned)
興味のあるポイントはすべてフロートなので、それに基づいてフィルタリングします。
>>> data = [x for x in data if type(x) == float]
データの処理/保存
これでデータができたので、データを調べたり、追加の処理を行ったりします...
>>> data[:5]
<<<
[44.73874282836914,
45.4061279296875,
47.5350456237793,
44.56114196777344,
46.08817672729492]
...または単に保存します。
>>> with open('data.json', 'w') as f:
...: f.write(json.dumps(data))
matplotlib(または他のグラフ/プロットライブラリ)のpyplotを使用してプロットすることもできます。
>>> import matplotlib.pyplot as plt
>>> plt.plot(data)

結論
いくつかのことに興味がある場合は、チャートを調整して必要なものを表示してから、適切なリクエストで使用されるリクエストヘッダー/投稿データを使用できますhttp://www.google.com/transparencyreport/traffic/service
。実際の応答を私よりも詳しく調べたいと思うかもしれません。私には意味のない部分を破棄しただけです。うまくいけば、彼らはこのデータのパブリックAPIを公開するでしょう。