ログはキー値形式です。これらのキーと値のペアは、ログごとに変わる可能性があります。それを分析したい..構造化されていないので、dynamodbに入れる必要がありますが、分析にはredshiftの方が優れています。また、すべてのキー値を redshift に永続化する必要はないかもしれませんが、これはオプションです。私が考えていたいくつかのオプション:
- ログを S3 に入れます。次に、copy コマンドを使用します。しかし、コピーは json または csv しか受け取らないため、 COPY コマンドでキー値を JSON 形式に変換する方法が見つかりませんでした。
- Kinesis Streamを使用して、ストリームでログファイルを取得します。しかし、これらのログ ファイルを使用する最善の方法は何でしょうか? Lambda または Kinesis クライアント ライブラリを介して! 私が考えていたオプションの 1 つは、Kinesis エージェント フォーマッターを使用してファイルを JSON にフォーマットすることでしたが、それはあまり柔軟ではありませんでした。そしてその後なんと!
- ログファイルを cloudwatch ログに入れます! しかし、それをどのように消費するか