0

curl を使用してサイトにログインする php スクリプトがあります。エラーを追跡できるように、すべての http 応答をログに記録する必要があります。

問題: 各ログインは、合計約 26 000 行の複数の http 要求/応答で構成されています。それをテキストファイルに保存すると、必要なものを見つけるのが本当に難しくなります。

すべてを mysql データベースに記録するのは合理的でしょうか?

明確化: 大きな html ドキュメントを mysql データベースに保存するのは良い考えですか? html/javascript/css を mysql に保存する際に問題はありますか? どのデータ型が適していますか?

4

2 に答える 2

1

すべてのテキストを任意のファイルに記録し、grep を使用して必要なものをフィルタリングできます。

すべてのデータをデータベースに書き込む場合、ハードウェアの負荷がさらに高くなり、すべてをファイルに記録するだけです

于 2012-12-20T13:13:34.417 に答える
1

それは文脈に依存します。

通常、ファイルシステムは、頻繁に更新/検索しない中規模から大規模のデータセットを保存するのに適した場所です。OTOH PHP (およびほとんどの言語で考えられるようになります) は、ファイルへの同時アクセスを適切に処理するための洗練されたロック メカニズムをサポートしていません。

各ログインは、合計約 26,000 行の複数の http 要求/応答で構成されます

リクエスト数は?

それをテキストファイルに保存すると、必要なものを見つけるのが本当に難しくなります。

HTTP 応答を取得するときに、必要なビットを抽出しないのはなぜですか?

それをデータベースにダンプすると、必要なビットを抽出するのに役立つと思うのはなぜですか?

于 2012-12-20T13:17:07.937 に答える