問題タブ [azure-stream-analytics]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
1044 参照

azure - Azure Stream Analytics で分割を使用する

「1234.567.111」という形式の文字列があります。3 つの int に分割したいと思います。

Azure Stream Analytics に分割関数が表示されません。これを他の方法で行うことは可能ですか?

ありがとう

アップデート:

ここに分割機能のリクエストを追加しました..同じものに投票していただければ幸いです..

0 投票する
1 に答える
1685 参照

azure-stream-analytics - Azure Stream Analytics での配列要素へのアクセス

JSON オブジェクトが Azure Stream Analytics ジョブに入るとします。

「Long」と「Lat」の個々の値を取得するには、次のようにできますか?

配列値 [115.17348, -8.72263] を分離するために次のことを行うことができますか?

ただし、配列の個々の要素を取得するだけでは問題があります。GetArrayElement() に関するウェブ上のあいまいなドキュメントを見たことがありますが、ストリーム分析では、「GetArrayElement はサポートされていないか、このコンテキストでは使用できません」と言い続けています。

0 投票する
0 に答える
1478 参照

azure - Azure Stream Analytics ジョブに検証エラーがあります: 入力パーティション スキームが正しく定義されていません

「チュートリアル: Stream Analytics を使用して Application Insights から SQL にエクスポートする」の例に基づいてストリームを作成しました。出力が構成され、テストは OK です。クエリが定義され、テストは OK です。入力 (データ ストリーム) は BLOB からプルするように構成され、テストは正常に行われ、さらにサンプル データは機能し、BLOB から JSON を正常に取得します。ただし、ジョブを開始すると、引き続きエラーが発生します。

ストリーミング ジョブが失敗しました: Stream Analytics ジョブに検証エラーがあります: 入力パーティション スキームが正しく定義されていません。

これを解決するにはどうすればよいですか?

入力:

  • サブスクリプション、ストレージ アカウント、キー、およびコンテナーはすべて正しいです。
  • シリアル化: JSON
  • エンコーディング: UTF8
  • パス プレフィックス パターン: analyticsAccount_xxx...xxxx/Event/{date}/{time}
  • 日付形式: YYYY-MM-DD
  • 時間形式: HH
0 投票する
1 に答える
170 参照

c# - PBI (Power BI) サービスでサポートされていない System.Object タイプ

Azure Stream Analytic ジョブの出力を Power BI として設定しました。しかし、分析ジョブでSystem.Object タイプが PBI サービスでサポートされていないという警告が表示されます。

また、 Power BI でデータを表示できません。しかし、そこに作成されたデータベースが表示され、ストリーム分析ジョブの出力が確実にそこに送られます。

以下は、Power BI に送信されるサンプル データです。プロパティの 1 つが object であるため、エラーが発生することはわかっています。これを処理するために Power BI でできることはありますか?

0 投票する
4 に答える
8750 参照

azure - Azure Event Hub からすべてのメッセージをログに記録する最も簡単な方法

イベント ハブに出力するサービスを使用しています。

その出力を保存し、Apache Spark で実行されるバッチ ジョブによって 1 日 1 回読み取られるようにします。基本的には、すべてのメッセージを BLOB にダンプするだけです。

イベント ハブから Blob Storage へのメッセージをキャプチャする最も簡単な方法は何ですか?

私たちが最初に考えたのは Streaming Analytics の仕事でしたが、生のメッセージ (CSV/JSON/Avro) を解析する必要があり、現在の形式はそれらのどれでもありません。


更新メッセージ形式を変更することで、この問題を解決しました。メッセージをブロブに保存する影響の少ない方法があるかどうかを知りたいです。Streaming Analytics が登場する前に、EventHub にはこの問題に対する解決策がありましたか?