0

ORACLE からテーブルをエクスポートし、同じものを HDFS にインポートするために、SQOOP プラグインを使用して Pentaho Kettle Job を実行しようとしています。

Cloudera CDH4 (4.2) デモ VM を使用し、デモ VM に付属の Hadoop jar と Sqoop jar を使用しています。

org.apache.hadoop.ipc.CURRENT_VERSION のバージョンが 7 に設定されていることがわかります。ここでわからないことの 1 つは、ここのクライアントは誰で、バージョンを確認するにはどうすればよいですか? この場合、Sqoop はクライアントですか?

どんな提案も本当に役に立ちます。

原因: org.apache.hadoop.ipc.RemoteException: サーバー IPC バージョン 7 は、org.apache.hadoop.ipc の org.apache.hadoop.ipc.Client.call(Client.java:740) でクライアント バージョン 3 と通信できません.RPC$Invoker.invoke(RPC.java:220) at org.apache.hadoop.mapred.$Proxy23.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:429) org.apache.hadoop.mapred.JobClient.init(JobClient.java:423) org.apache.hadoop.mapred.JobClient.(JobClient) .java:410) org.apache.hadoop.mapreduce.Job.(Job.java:50) org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:188) org.apache.sqoop.manager .SqlManager.importTable(SqlManager.java:413) at org.apache.sqoop.manager.OracleManager.importTable(OracleManager.java:380) org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:380) で org.apache.sqoop.tool.ImportTool.run(ImportTool.java:453) で

4

1 に答える 1

0

バージョンの不一致の問題のようです。これを試して、それが役立つかどうかを確認してください:

$PDI_HOME/libext/bigdata/ ディレクトリにある hadoop-*-core.jar を、CDH4 に付属しているものに置き換えます。

于 2013-06-30T05:08:14.133 に答える