問題タブ [pentaho-data-integration]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Linux 環境で欠落しているステップ プラグイン Pentaho
Java アプリケーションから実行する mongoDBOutput を使用して変換を作成しました。ここJava Pentaho Exception MongoDBで説明されているように、 Kettle.properties を編集して KETTLE_PLUGIN_BASE_FOLDERS を追加しました。これは、私の Windows マシンでは問題なく動作します。ただし、Linux環境で実行すると問題が発生します。これは私が得ているエラーです:
ただし、kettle.properties を編集して、KETTLE_PLUGIN_BASE_FOLDERS が Linux 環境のプラグイン ディレクトリを指すようにしました。前もって感謝します
pentaho - Pentaho でサブジョブを含むジョブ全体のテキストファイルへのロギングを有効にする方法
内部に 10 個のサブジョブと変換がある Pentaho ジョブのログを保存しようとしています。設定に移動してテキスト ファイルに書き込むことで、ジョブと変換ごとに個別に実行できることを知っています。しかし、サブジョブごとにあまり多くのファイルは必要ありません。すべてのサブ ジョブと変換をキャプチャする単一のメイン ジョブのログを保存する方法はありますか?
前もって感謝します。
pentaho-data-integration - テーブル出力用のテキスト ファイル入力フィールドから DDL を動的に生成する
次の 3 つのファイルについて考えてみましょう。
1.csv [contains 3 fields: a, b, c]
2.csv [contains 4 fields: d, e, f, g]
3.csv [contains 2 fields: h, i]
私の課題は、3 つのファイルすべてをそれぞれのテーブル出力にロードすることです。そう
File "*.csv" ->loads-> Table "*_csv"
「Get File Names」ステップで複数のファイルを処理できることはわかっていますが、各ファイルのターゲット テーブルを作成する DDL ステートメントを生成するにはどうすればよいですか? メタデータ インジェクションの手順を検討していますが、これが自分のニーズに合っているかどうかわかりません。
何かアドバイス?
Pentaho データ統合 7.0 Postgres RDS