問題タブ [druid]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Druid に HashMap を格納するためのデータ構造
私はドルイドの初心者です。私の問題は、Java を使用して Druid に HashMap を格納してクエリを実行する方法です。私は次のように持ってnetwork table
います:
追加、私は持っていますrange-time table
Druid ではrange-time
、テーブルを として保存HashMap
し、上記の両方のテーブルを次のステートメントでクエリできます。
誰でも私を助けることができますか?本当にありがとう。
druid - Tranquility が Druid にデータを送信しない
私は、静けさを介してリアルタイムで csv データを取り込むユースケースで Druid を評価しています。以下はサーバー構成です:-
データは次のように python スクリプトによってランダムに生成されます:-
次のコマンドは、データを送信して返します{"result":{"received":1000,"sent":0}}
java - 日別および時間別の segmentGranularity の有効なパフォーマンス クエリの上位 N の比較
https://groups.google.com/forum/#!topic/druid-user/SYWcqcr504kで質問し ましたが、これを回避するのに誰も助けてくれません。
大規模なデータセットを処理しています。サム「queryGranularity」の2つのケース(日ごとのsegmentGranularityと時間ごとのsegmentGranularity)のtopNクエリでは、「時間」ごとです。
Case 01: 日別
ケース 02: 時間単位
ただし、「segmentGranularity」:「day」のクエリの時間は、「segmentGranularity」:「hour」よりも遅くなります。誰かこの事件について説明してくれませんか? 日単位のセグメントが時間単位よりも遅いのはなぜですか? また、店舗データ セグメントを日単位と時間単位で区別する場合、セグメント タイプを選択するにはどうすればよいですか? そして、それは私のクエリにどのように影響しますか? 本当にありがとう !
java - 「エラー」: Druid の時系列クエリの「null 例外」
インデックス付きデータで時系列クエリを使用しています。以下のスニペットです。
私はそれが正確に間隔と集計パラメータにあることを確認しています。しかし、コマンドラインを使用してクエリを実行すると、次のようになります。
このような結果:
エラーになる理由を説明して、修正するのを手伝ってくれる人はいますか? 何十億もありがとう。
java - Druid に接続するための Apache HttpClient を備えた Java クライアント
Druid Server でのデータの取り込みとクエリに取り組んでいます。ただし、クエリを実行するときは、次のようにコマンドラインを使用するだけです:
JavaクライアントをApache HttpClientで利用して、そのクエリをDruidサーバーに送信して応答を得る方法を教えてください。本当にありがとう。
java - Druid サーバーへのデータのストリーミング
広告ログ データがあり、Druid サーバーにリアルタイムで送信したいと考えています。しかし、問題は Tranquility と Kafka の間です。これは、データをリアルタイムで取り込むための最良の方法です。なぜなら、kafka を使用すると、エラーのバンドルが作成されます。私は静けさを使用しようとします。この問題の経験がある人は誰でも助けてくれますか? どうもありがとう。
java - 閉じられた接続を取得すると、「holder is null」エラーが発生する理由
これはネスティングの問題です。理由の分析にご協力ください
全体的なコード構造の説明:</p>
一部の DB 操作で TransactionA、次に transactionB を開きます。TransactionA カスタム トリガーをトリガーするコミット時間、開いている transactionC のトリガー (PROPAGATION_REQUIRES_NEW)
エラー プロセスは次のようになります。最初の実行はエラーなしで正しく、2 回目の実行で閉じた接続に到達します。,テスト コードは次のようになります:</p>
エラー スタック:</p>
メインコード:</p>
1 詳細コード:</p>
2、3 詳細コード:</p>
3 同期コード(問題コード):</p>
3 同期コード(正しいコード):</p>
java - druid クラス com.fasterxml.jackson.module.scala.ser.ScalaIteratorSerializer との嵐の統合は、解決済みエラーで最終メソッドをオーバーライドします
私はストームとドルイドの両方が初めてです。ここ数日から、私はこの問題に悩まされています。Kafka からストームにデータを送信してから、ドルイドにデータを送信しています。* druidbeambolt はデータを受信していると思いますが、druid に転送する前に JSON に変換できません。詳細については、私の druidboltfactory コードを確認してください*。誰もがコードに関する詳細情報が必要な場合は、教えてください、事前に感謝します
これはエラーです
*これは私のストーム トポロジ クラスです *
これは私のドルイドビームボルトです
これは私のドルイド ボルト工場 です。問題はこのボルトにあると思います。特にオブジェクトビルダーの作成中。Builder は、Jackson を介して Druid が理解できる JSON にイベント タイプを内部的にシリアライズします。
これは私のpom.xmlです