問題タブ [azure-sqldw]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - SQL DW 内部テーブル データの読み込みに時間がかかる
SQL DW 内部テーブル間でデータをロードする際に問題に直面しており、ソースにある 50 レコードだけをロードしようとしていますが、"Insert" ステートメントに非常に長い時間がかかり、正常に実行されません [ 60分 ]
これに関するいくつかの統計 • ソース テーブル (S1 など) には 50 レコード、105 列、列ストア、DWU 100 のラウンド ロビン分散 [以下に示すこのテーブルの DDL ] • ターゲット テーブル (T1 など) は同じ 105 列で作成されています。 DWU 100 でのカラムナ ストア、ラウンド ロビン配布 • S1 作品から上位 5 * を選択 • S1 作品から * を選択 • S1 から選択 * が応答なしで長時間実行されている [60 分以上] として T1 に挿入 • T1 に挿入select top 5 * from S1 として、一度だけ動作し、その後は動作しません • S1 から select top 5 all_columns_listed として T1 に挿入し、常に動作し、1 分未満で実行します • S1 から select top 30 all_columns_listed として T1 に挿入し、常に動作し、 1 分未満で実行 • S1 から all_columns_listed のトップ 50 を選択し、25 分以上実行されているため、T1 に挿入
バックグラウンドで何が起こっているのか理解できません - select * from S1 が実行されているときに T1 に挿入するとき。
DMS で何か問題が発生していますか? それとも、105列あるからですか?
上記のすべての操作は、DWU 200 にスケールアップして試行されましたが、それでもうまくいきません。
上記のすべての操作は、まったく別のデータベースで試行されましたが、まだうまくいきません。
何が起こっているのかを確認できるものは他にありますか?これを処理する方法は?
また、以下のステートメントを実行して、アクティブに実行されている他のクエリがあるかどうかを確認しました。これにより、insert ステートメントが一時停止または待機する可能性があります..しかし、クエリのみが DB でアクティブに実行されていることがわかりました.. select * from " sys"."dm_pdw_exec_requests" where status='Running' order by submit_time desc
S1 DDL は CREATE TABLE S1 (
col1 [uniqueidentifier] NOT NULL,
col2 nvarchar NULL,
col3 [uniqueidentifier] NULL,
col4 nvarchar NULL,
col5 nvarchar NULL,
col6 [decimal](26, 6) NULL,
col7 [decimal]( 26, 6) NULL,
col8 [10 進数](26, 6) NULL,
col9 [10 進数](26, 6) NULL,
col10 [10 進数](27, 6) NULL,
col11 [10 進数](27, 6) NULL,
col12 [10 進数](26, 6) NULL、
col13 [10 進数](25, 6) NULL、
col14 [10 進数](25, 6) NULL、
col15 datetimeoffset NULL、
col16 nvarchar NULL、
col17 datetimeoffset NULL、
col18 [smallint] NULL、
col19 [10 進数](25, 6) NULL、
col20 [10 進数](25, 6) NULL、
col21 [10 進数](26, 6) NULL、
col22 [10 進数] ](26, 6) NULL,
col23 datetimeoffset NULL,
col24 [10 進数](25, 6) NULL,
col25 [10 進数](25, 6) NULL,
col26 [int] NULL,
col27 [10 進数](25, 6) NULL ,
col28 datetimeoffset NULL,
col29 [10 進数](25, 6) NULL,
col30 [10 進数](25, 6) NULL,
col31 datetimeoffset NULL,
col32 datetimeoffset NULL、
col33 datetimeoffset NULL、
col34 datetimeoffset NULL、
col35 datetimeoffset NULL、
col36 datetimeoffset NULL、
col37 [10 進数](25, 6) NULL、
col38 [10 進数](25, 6) NULL、
col39 datetimeoffset NULL、
col40 [int] NULL、
col41 nvarchar NULL、
col42 [smallint] NULL、
col43 [smallint] NULL、
col44 [10 進数](25, 6) NULL、
col45 [10 進数](25, 6) NULL、
col46 [10 進数](25, 6) NULL ,
col47 [10 進数](25, 6) NULL,
col48 [10 進数](25, 6) NULL、
col49 datetimeoffset NULL、
col50 [10 進数](25, 6) NULL、
col51 [10 進数](25, 6) NULL、
col52 [10 進数](25, 6) NULL、
col53 [ 10 進数](25, 6) NULL、
col54 [10 進数](25, 6) NULL、
col55 [10 進数](25, 6) NULL、
col56 datetimeoffset NULL、
col57 [10 進数](25, 6) NULL、
col58 [10 進数] (25, 6) NULL、
col59 [10 進数](25, 6) NULL、
col60 [10 進数](25, 6) NULL、
col61 [10 進数](25, 6) NULL、
col62 [10 進数](25, 6) NULL 、
col63 datetimeoffset NULL,
col64 [10 進数](25, 6) NULL,
col65 [10 進数](25, 6) NULL,
col66 [10 進数](25, 6) NULL,
col67 [10 進数](25, 6) NULL,
col68 [ decimal](25, 6) NULL、
col69 [decimal](25, 6) NULL、
col70 datetimeoffset NULL、
col71 [decimal](25, 6) NULL、
col72 nvarchar NULL、
col73 nvarchar NULL、
col74 datetimeoffset NULL、
col75 datetimeoffset NULL 、
col76 datetimeoffset NULL、
col77 datetimeoffset NULL、
col78 datetimeoffset NULL、
col79 nvarchar NULL、
col80 nvarchar NULL、
col81 nvarchar NULL、
col82 nvarchar NULL、
col83 nvarchar NULL、
col84 nvarchar NULL、
col85 nvarchar NULL、
col86 nvarchar NULL、
col87 nvarchar NULL、
col88 nvarchar NULL、
col89 [ビット] NULL、
col90 nvarchar NULL、
col91 nvarchar NULL、
col92 datetimeoffset NULL、
col93 [10 進数](25, 6) NULL、
col94 nvarchar NULL、
col95 nvarchar NULL、
col96 [10 進数](25, 6) NULL、
col97 [10 進数](25, 6) NULL、
col98 [10 進数](25, 6) NULL、
col99 [10 進数](25, 6) NULL、
col100 [10 進数](25 , 6) NULL,
col101 datetimeoffset NULL,
col102 nvarchar NULL,
col103 nvarchar NULL,
col104 nvarchar NULL,
col105 nvarchar NULL,
col106 nvarchar NULL,
col107 datetimeoffset NULL,
col108 datetimeoffset NULL,
col109 varchar NULL
)
WITH
(
DISTRIBUTION = ROUND_ROBIN
)
java - Azure SQL データ ウェアハウス - JVM SimpleDateFormat のサポート
現在、タイムスタンプをJVM SimpleDateFormat ドメイン からSQL DW の DateFormat ドメインに変換するときに、Azure SQL DW の制限に達しています。
現在のシナリオでは、Spark を使用してデータのクリーンアップを実行しています。データが CSV ファイルとして書き出されると、次の形式のタイムスタンプとして書き出されます。
- "yyyy-MM-dd'T'HH:mm:ss.SSSXXX"
- 2001-07-04 T 12:08:56.235-07:00
DATE_FORMAT オプションの DateTimeOffset を見ると、上記の出力の太字のTはサポートされていません。
着信文字列を DateTime 型として直接解釈する方法はありますか?
私の現在の戦略は、VARCHAR としてロードし、後でクリーンアップを行うことです。
azure - Azure SQL データ ウェアハウスの JDBC 接続
ここで最後の手段として質問すると、SQL Server Managment Studio (SSMS) を使用できない Windows 以外の環境 (Linux、Mac) から Azure SQL DW に接続しようとすると、多くの問題が発生します。
コア要件は、分析用の GUI (DataGrip、SQLWorkbench/J、DBeaver など) です。
SQLWorkbench/J、JDK 8、および sqljdbc42.jar を、Azure Portal から取得した次の接続文字列と共に使用します。
SQLWorkbench/J では、次のエラーが発生します。
スキーマ/テーブルをロードしようとすると、DataGrip がハングするだけです。
現在、Windows 以外の環境を介して SQL DW に接続する方法はありません。これに遭遇した人はいますか?
azure-sqldw - com.microsoft.sqlserver.jdbc.SQLServerException: 110806 分散クエリが失敗しました
ETL 開発者は、比較的大きなテーブルで UPDATE ステートメントを実行していて、失敗したと報告しています。
com.microsoft.sqlserver.jdbc.SQLServerException: 110806;分散クエリが失敗しました: ディストリビューション: [1-60] Microsoft 分散トランザクション コーディネーター (MS DTC) が分散トランザクションをキャンセルしました。操作はユーザーによってキャンセルされました。
これは、ランタイム制限を超えたためにクライアントが開始したアボートによって引き起こされたものですか、それともエラーはデータベースで発生したものですか?
azure-sqldw - ファイル グループ 'DEFAULT' のディスク領域が不足しているため、データベース 'TEMPDB' に新しいページを割り当てることができませんでした
ETL 開発者は、ADW で毎週および毎日のプロセスを一貫して実行しようとしていると報告しています。ほとんどの場合、例外なく実行されていますが、次のエラーが発生しています。
「ファイル グループ 'DEFAULT' のディスク領域が不足しているため、データベース 'TEMPDB' に新しいページを割り当てることができませんでした。ファイル グループ内のオブジェクトを削除するか、ファイル グループにファイルを追加するか、ファイル グループ内の既存のファイルに対して自動拡張を設定して、必要なスペースを作成してください。」</p>
DWU 設定に関連する TEMPDB スペースに制限はありますか?
データベースは (ポータルごとに) 100 TB に制限されており、いっぱいではありません。
sql-server - Azure Data Warehouse の一時テーブルへのストアド プロシージャの結果
にはAzure Data Warehouse
、コマンドStored Procedure
の結果を返す がありSELECT
ます。
Stored Procedure
結果を一時テーブルにプッシュする方法は?
以下のクエリを試してみましたが、エラー メッセージが返されます。
出力メッセージ:
azure-hdinsight - HDInsight ハイブ テーブルから SQL DW にデータを移動する方法は?
HDInsight ハイブ テーブルから SQL Datawarehouse(SQLDW) にデータをインポートする方法はありますか?
現在、HDInsight のプライマリ ストレージは ADLS (Datalake Store) であり、ADLS は生データのセット全体を保持します。私の場合、ADLS が Datalake として機能しているため、データをストレージ アカウントに移動したくありません。
ここで最も実行可能なオプションはどれですか -
- ADF - Hive テーブルからのデータの直接読み取りを本当にサポートしていますか?
- Polybase - ストレージ アカウントの代わりに ADLS をサポートしていますか?
サポートされているリンク - https://docs.microsoft.com/en-gb/azure/sql-data-warehouse/sql-data-warehouse-overview-load
ありがとう
azure - Azure Datawarehouse にデータを挿入する際の内部 DMS エラー
Azure データ ウェアハウスのディメンション テーブルにデータを挿入しているときに、次のエラーが発生します。
110802;この操作が失敗する原因となった内部 DMS エラーが発生しました。詳細: 管理者に問い合わせる際は、このエラー ID を使用してください。EID:(82b090ae0a614abaa5abbe883e49dad1)
[Microsoft][SQL Server 用 ODBC ドライバー 13] インジケーター変数が必要ですが、指定されていません追加エラー <2>: エラーメッセージ: [Microsoft][SQL Server 用 ODBC ドライバー 13] インジケーター変数が必要ですが、指定されていません、SqlState: 22002、ネイティブ エラー: 0
sql-server - Azure Data Warehouse の複数行から単一行へ
Azure DW は変数の割り当てをサポートFOR XML
していないSELECT
ため、複数の行を単一の行に変換する方法はありますCURSOR
か?
azure-hdinsight - HDInsight を使用して外部データ ソースを作成する
HDInsight クラスターで外部データ ソースを作成しようとしています。その際、場所を Hadoop、名前、ノード、IP アドレス、およびポート番号として提供する必要があります。
では、HDInsight クラスター上の両方の名前、ノード、IP アドレス、リソース マネージャーの場所、IP アドレス、およびポート番号はどこで確認できますか?
私は既にCore-site.xml
&yarn-site.xml
をブラウズしましたが、HDInsight については何も見つかりませんでした。
--- 3: 外部データ ソースを作成するための構文。
-- LOCATION (必須) : Hadoop ネーム ノードの IP アドレスとポート。
-- RESOURCE MANAGER LOCATION (オプション): プッシュダウン計算を有効にする Hadoop リソース マネージャーの場所。
-- CREDENTIAL (オプション): 上記で作成した、データベース スコープの資格情報。
ありがとう。