問題タブ [azure-stream-analytics]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - Stream Analytics ジョブが入力を受け取らない
Remote Monitoring Azure IoT Suiteプロジェクトをダウンロードしてデプロイしました。デプロイ テンプレートに加えた唯一の変更は、S2 の代わりに IoT Hub の無料バージョンをデプロイすることでした。Azure IoT SDKを使用して IoT ハブにメッセージを送信しています。Azure Portal で監視すると、メッセージが届いていることがわかります。
しかし、3 つの Azure Stream Analytics ジョブを見ると、どれも入力を受け取っていません。IoT Hub は、処理するデータがあることをどの ASA にも知らせていないようです。権限は変更されません。IoT Hub にはすべてのアクセス許可を持つポリシーがあり、すべての ADA がそのポリシーを使用しています。同じポリシーで新しい ADA を作成しましたが、その中にもデータがありません。
ここで何がうまくいかないのでしょうか?
tsql - ストリーミング分析ジョブで複数のクエリを使用できますか?
タイトルが示すように、Azure Streaming Analytics ジョブで複数のクエリを使用できますか? もしそうなら、それはどのように構成されるべきですか?
tsql - Streaming Analytics Query Yielding More Than Real Time Data
私は最近、毎月約 1000 のイベントをキャプチャするイベント ハブからデータを取得するストリーミング分析ジョブをセットアップしました。イベント ハブからリアルタイム データを取得し、ほぼリアルタイムのデータを表示したいと考えています。ストリーミング分析ジョブにデータを正常にダウンロードする次のクエリを入力しました。
しかし、PowerBI オンライン サービスでデータセットを確認すると、データが昨日までのイベントをキャプチャして表示していることに気付きました。クエリで、データが 5 秒以上保持される原因がわかりません。何か案は?
csv - CSV ファイルを Microsoft azure Stream Analytics にインポートする
私はこの分野では新しいです。私は今excelc(センサーからのデータ)の元のファイルを持っています。それをazureにアップロードし、ストリームを使用して処理したいのですが、データの形式がCSVをサポートしているため、Excelをcsvで保存してアップロードすることを考えていますブロブ ストレージ (またはイベント ハブに送信する必要がありますか?) に保存されますが、ストリーム分析の出力には何も表示されません。元のファイルは次のようになっていますが、これについて何か知っている人はいますか?
azure-stream-analytics - Azure Stream Analytics - 日付と時刻の分割
ASA クエリの日付と時刻のコンポーネントを分割しようとしていますが、いくつかの問題があります。concat、datepart、および dateadd 関数を使用してこれを達成しようとしましたが、クエリのコンパイルに失敗したというエラーが表示されます。私が間違っていること、またはこれを達成するための別のより良い方法についてのアイデアはありますか?
ConCat(DatePart(hh,DateAdd(Hour,11,System.Timestamp)),':',DatePart(mm,DateAdd(Hour,11,System.Timestamp))) as Time,
ありがとう
cortana-intelligence - Stream Analytics ジョブの Visual Studio テンプレート?
Stream Analytics ジョブ用の Visual Studio テンプレートはありますか? つまり、Visual Studio から Azure への開発と発行の概念です。
そうでない場合、ストリーム分析用のアプリケーション ライフサイクルをどのように開発すればよいでしょうか?
たとえば、Azure Data Factory のように、そのオブジェクトを作成するための json テンプレートがありますが、同様にストリーム分析にも 1 つありますか?
azure - Azure ストリーム分析 - エラー イベント/行をリダイレクトまたは処理する方法は?
データ エラー イベント/行をキャプチャして別の出力にリダイレクトする方法はありますか?
たとえば、イベントが発生し、何らかの理由でデータ変換エラーが発生したとします。これらのエラーを処理して何かをしたいのですが、おそらくさらに調査するために別の出力が必要ですか?
現在、ストリーム分析エラー ポリシーでは、イベントが出力に書き込まれなかった場合、2 つのオプションしかありません
ドロップ - イベントをドロップするだけです (または) 再試行 - 成功するまでイベントの書き込みを再試行します
azure-stream-analytics - Stream Analytics - Blob 出力ファイル名?
BLOB ストレージ出力の場合、ファイル名をどのように制御しますか? Path パターンを試してみましたが、ブロブに仮想フォルダーしか作成されません。出力でファイル名を定義できません。
「test」を指定したパス パターンの例 - /blobcontainer/ test /1513855769_670e84ee67f643d7aff3cad3cc6d9333.csv
また、パス パターンで「test/filename.csv」を指定しました。結果は、/blobcontainer/test/ filename.csv /1513855769_670e84ee67f643d7aff3cad3cc6d9333.csvになります。
azure - Unix 時間は、Azure ストリーム分析で日付に変換されます
ストリーム分析を使用して、いくつかの RFID データをリアルタイムで処理しています。RFID リーダーからのイベントは、入力としてイベント ハブに送信されます。現在、イベントの時間が UNIX 時間形式であり、"TimeStamp":1460471242.22402 のようになっているという問題に直面しています。クエリをテストすると (ジョブを開始せずに、入力からサンプル データを使用するのは非常に奇妙です) )、UNIX 時間は "2016-04-12T14:48:00.0000000Z" に変更されましたが、SA ジョブを開始すると失敗し、「タイムスタンプ」列が ISO 8601 規格に準拠していないと表示されました。入力生データを変更せずに UNIX 時間を SA の標準日付形式に変換する方法? 私のクエリは次のように単純です: SELECT EPCValue, Antenna, System.TimeStamp AS Time INTO dataoutput FROM datainput timestamp by TimeStamp