0

私の質問は構文よりも理論に基づいていますが、構文の提案は大歓迎です。私のプロジェクトのスコープは大きく、スコープは小さくなっています。両方について説明しますが、スコープが小さいことがすぐに気になります。より広い範囲についての提案は大歓迎です。

私が達成する必要があることの省略形(より小さな範囲):

複数(2-4)のxmlファイルを解析します。再発する単一の要素をターゲットにします。その要素(文字列)内のデータを、出現するたびにmySQLに挿入します。そのデータの挿入された行数をデータベースから読み戻します(各ファイルでその要素が発生した回数を数えるだけで済みます。要素内のデータにはすぐには関係ありません)。
それでもデータを保存する必要がありますが、最終的には、要素が各xmlファイルに表示された回数のみに関係します。次に、各xmlファイルの合計をエコーバックし、最終的に結果を電子メールで送信する必要があります。

より広い範囲の場合:最終的に、このスクリプトは自動化する必要があります。1時間に1回、ローカルサーバーに保存され、mySQLに挿入されたこれらのxmlファイルの新しいオカレンスを検索し、その時間の新しい合計をエコーバックするようにスケジュールする必要があります。これについての私の考えはcronジョブです。

これは非常に多くの質問であることを私は知っていますが、どんな助けもいただければ幸いです。助け/提案を前もって感謝します。

4

1 に答える 1

0

私の推奨は、スクリプトの作成を開始し、DB 接続をセットアップし、SimpleXMLを使用することです。そうです、オーガニック トラフィックを使用してスクリプトをトリガーできない場合は、単に crontab するだけです。

それほど難しいことではありません。書くのに労力のかかるスクリプトであるというだけの事実です。

しかし、あなたはこのようなことをすることができます(疑似コード)...

$XML = new SimpleXMLElement($xmlstr);

    foreach($XML->elements as $XML)
    {
     if(isset($XML->tag_you_are_looking_for))
     {
      //Insert $XML->tag_you_are_looking_for to DB
     }
    }

複数のファイルの場合は、作成したパーサー クラスをループするだけです。リモート ファイルの場合は、最初にcURLを使用して取得します。

私の全体的な提案は、これらのことを念頭に置いて開始し、さらに具体的な問題が発生した場合は、それらの質問を個別に行うことです.

于 2012-08-13T19:48:05.457 に答える