3

プレミアムアカウントを使用せずにGoogleアナリティクスの生データをインポートする方法に取り組んできました.これまでのところ、これは私がやりたいことへの最も近いリンクです Googleアナリティクスからデータを抽出し、そこからデータウェアハウス(ウェブハウス)を構築する方法? そのデータを弾性検索にロードし、kibana を使用して表示したいのですが、これに最適な ETL アプローチは何ですか? ELKスタックを使用してGAデータを表示しようとした人はいますか?

4

3 に答える 3

0

これを見てください:

https://www.elastic.co/guide/en/logstash/current/plugins-inputs-http_poller.html

これを使用してエンドポイント (この場合は GA) をポーリングし、応答データを Elasticsearch にロードできます。Split や Mutate プラグインを使用して応答をフィルタリングすることもできます。

于 2017-04-04T21:30:15.780 に答える
0

これと同じセットアップを行いました。

  1. 7 つのディメンションと 6 つのメトリックを使用して Google アナリティクスからデータを抽出しました。そのうち 2 つのディメンションが主キー (タイムスタンプと ID) でした。これは R を使用して行われました。
  2. Linux の awk および sed コマンドを使用してデータを変換しました。
  3. 合計 9 つのテーブルのように作成された、行の列の書式設定を使用してデータを Apache Hive にロードしました。
  4. 2 つの主キーを持つ Hive Join クエリを使用して、Hive の 9 つのテーブルすべてを結合しました。
  5. Elasticsearch-hadoop コネクタを使用して、最終結果のテーブルを Elasticsearch にロードしました。Hive と Elasticsearch のデータ型に一致するように、少しデータ変換を行う必要がありました。
  6. Kibana を使用して、Elasticsearch でデータを視覚化しました。

今、私はすべての手動の​​手順を回避し、何らかの方法で上記のすべての手順を自動化することを計画しています.

于 2018-08-13T19:06:14.133 に答える
0

2回でやればいい

于 2016-09-15T14:58:34.293 に答える