0

特定のWebサイトから定期的に(2〜3時間ごとに)データを取得したいと思います。

ウェブサイトは天気に関連しています:http://meteo.gov.ge/index.php?l = 2&pg = cm&ct = 1&cm =

http://meteo.gov.ge/index.php?pg=sbというウィジェットも提供されていますが、自分のWebページでもっとパーソナライズされたものが必要です...どの都市でも、気温と天気アイコンを取得するだけで済みます。

私のubuntuについて:私はおそらくcurl + grep/regexを使用してそれをcronしようとします。

しかし、PHPでそれをどのように行うのでしょうか?とにかく、ウィジェットが提供されているという事実を使用できますか(画像に埋め込まれているため、疑わしいです)?

psこれはコンテンツを盗むことではなく、私の(納税者)のお金で賄われている政府のサイトです!私が支払うサービスから、必要なデータを取得できるはずです> :)

4

1 に答える 1

0

通常、この種の気象サービスは、データを取得するための RESTFUL Web サービス (API) を提供します。

いくつかのパラメーター (たとえば、天気予報を取得したい都市の名前) を指定して http GET または POST を実行すると、詳細な予報を含む xml が送信されます。

次に、返された xml を解析し、必要な情報のみを表示するのはあなた次第です。

あなたが共有した天気予報サイトのホームページの HTML コンテンツ全体をグラブすることは絶対にお勧めしません。ページの構造や寸法などを突然変更すると、コードは失敗します。

予測を取得するには構造化された方法が必要です。これが API が存在する理由です。サイトが API を提供していない場合は、あなたの国の別の天気予報サイトを検索してみてください!

于 2012-05-10T07:25:46.417 に答える