問題タブ [druid]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Druid io で Post Aggregation 値フィールドをメトリックとして追加する方法
druid io 0.9.0 を使用しています。集計後フィールドをメトリック仕様として追加しようとしています。私の意図は、メトリクス (メジャー) が表示される方法と同様に、集計後のフィールドの値を表示することです (ピボットを使用した Druid io で)。
私のDruid ioスキーマファイルは
Java クライアントを使用してフィールドを送信するための私のコード。
誰でも私の間違いを指摘できますか。
druid - ドルイドのタイムスタンプ仕様
私のデータには のようなタイムスタンプがありmm/dd/yyyy hh:mm:ss
ます。私はインデックス作成のために以下の仕様を使用しています:
エラーが発生しますCaused by: com.metamx.common.parsers.ParseException: Unparseable timestamp found!
。
この種のデータをどのように処理できますか?
druid - Druid の次元として別のタイムスタンプを持つ可能性はありますか?
Druid データソースに 2 つ (または複数) のタイムマップを含めることはできますか? Druid が時間ベースの DB であることは知っており、概念に問題はありませんが、タイムスタンプと同様に機能する別の次元を追加したいと思います
例: ユーザー保持: メトリックは確かに特定の日付に指定されていますが、ユーザーの登録日に基づいてコホートを作成し、それらの日付を数週間、数か月にロールアップするか、特定の期間のみにフィルターする必要もあります....
機能がサポートされていない場合、プラグインはありますか? 汚い解決策はありますか?
hadoop - ドルイド摂取失敗
druid Web サイトの手順に従っています: http://druid.io/docs/latest/tutorials/quickstart.html
しかし、何らかの理由で、このエラーが発生し続けます。
誰かがこれの理由を知っていますか?コンソールにアクセスしても: http://localhost:8090/console.html取り込みに失敗したと表示されます。
apache-kafka - ドルイド スキーマの概念 - 同じスペック ファイルで複数のデータソースまたはパーサーを使用する
次のシナリオがあります。複数のタイプのイベントがプッシュされる 1 つの Apache Kafka トピックです。Druid はこのトピックから取得し、タイムスタンプに基づいて集計します。
たとえば、以下は kafka トピックのメッセージです。
タイプ1、
{"タイムスタンプ": "07-08-2016", "サービス": "サインアップ", "no_of_events": 8}
{"タイムスタンプ": "08-08-2016", "サービス": "サインアップ", "no_of_events": 10}
タイプ2、
{"タイムスタンプ": "08-08-2016", "ユーザー": "xyz", "no_of_events": 3}
{"タイムスタンプ": "08-08-2016", "ユーザー": "abc", "no_of_events": 2}
Q1: 同じトピックのイベントを指す同じスペック ファイル内に 2 つのパーサーを記述できますか? はいの場合、spec ファイルの構造はどうなりますか?
デザインに関する他の提案は大歓迎です:)
Q2: さらに理解を深めるために、spec ファイル内に複数のデータソースを含めることは可能ですか?
前もって感謝します!!
hadoop - Carvel の Hive テーブルでのデータのモデリング
Caravel で Hive テーブルのデータをモデル化する方法があるかどうか興味があります。
Caravel が Druid クラスターに接続して Druid のデータに UI を表示する方法と同様に、JDBC を使用して Caravel の Hive のデータをモデル化する方法はありますか?