問題タブ [spark-thriftserver]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
70 参照

sqlite - SAP BO から Spark Thrift Server への SYNTHJOIN クエリ

現在のアーキテクチャ:

現在のアーキテクチャでは、Hadoop ファイル システムを使用してレポート データを Parquet ファイル形式で保存し、Spark Thrift Server を使用して SQL インターフェイス (JDBC/ODBC) を介してこれらのデータを公開しています。このインターフェイスを使用して、レポートのデータをプルするように SAP BO を構成します。

BO バージョン: SAP BO 4.2 SP07

スパークバージョン: 2.1.0

現在の動作:

28 個の結合 (クエリ パネルに表示) を含むレポートの 1 つによって中級クエリが生成されています。

しかし、レポートが Webi で実行されると、Spark で別のクエリがトリガーされていることがわかります (コア ロジックは同じです)。複雑で長い文字列のエイリアスが各フィールド、テーブル、および結合に追加されています (2 つの列のスニペットは以下にあります)。

質問:

  1. クエリに長いエイリアスが追加されている理由を理解していただけますか?
  2. Spark 2.1.0 はクエリ ( https://issues.apache.org/jira/browse/SPARK-19796 ) に対して 64k バイトの値のみをサポートするため、このクエリに基づいて生成されたクエリはこの 64k の値を超えます。そのため、スパークジョブは失敗しています。この 64K バリアを回避するために、これらのエイリアスを減らしてシンプルかつ鮮明に保ちたいと考えています。SAP BO に欠けている構成を提案してください。
  3. また、SAP BO が単純な結合クエリではなく、長いサブクエリを生成していることに気付きました。SAP BO には、クエリを展開するのではなく、クエリ パネルに表示されているクエリをデータベースに送信するための構成がありますか?
0 投票する
1 に答える
118 参照

apache-spark - spark thrift サーバーで sql を実行するときのエグゼキューターの数を制御する

Spark thrift サーバーがあり、ユーザーはこのサーバーに spark sql を送信できます。

ユーザーの sql を実行するために使用されるエグゼキューターの数を制御できるようにしたいと思います。

これが可能かどうかを尋ねます。