PMML モデルをインポートして、Spark を使用してスコアを計算したいと考えています。Spark を使用しない場合はすべて正常に動作しますが、マッパーでメソッドを使用することはできません。
問題は、シリアル化できないと思われる org.jpmml.evaluator.Evaluator からの評価オブジェクトが必要なことです。そこで、次のクラスを使用して、Serialiazable にしようとしました。
package util;
import java.io.IOException;
import java.io.ObjectInputStream;
import java.io.ObjectOutputStream;
import java.io.Serializable;
import org.jpmml.evaluator.Evaluator;
public class SerializableEvaluator implements Serializable {
private static final long serialVersionUID = 6631604036553063657L;
private Evaluator evaluator;
public SerializableEvaluator(Evaluator evaluator) {
this.evaluator = evaluator;
}
public Evaluator getEvaluator() {
return evaluator;
}
private void writeObject(ObjectOutputStream out) throws IOException {
out.writeObject(evaluator);
}
private void readObject(ObjectInputStream in) throws IOException, ClassNotFoundException {
Evaluator eval = (Evaluator) in.readObject();
}
}
また、すべてのクラスをシリアライズ可能にしました。
ここに私のコードのサンプルがあります:
logger.info("Print 5 first rows----------------------------");
strTitanicRDD
.take(5)
.forEach(row -> logger.info(row));
logger.info("Print 5 first Titatnic Obs---------------------");
strTitanicRDD
.map(row -> new TitanicObservation(row))
.take(5)
.forEach(titanic -> logger.info(titanic.toString()));
logger.info("Print 5 first Scored Titatnic Obs---------------");
try{strTitanicRDD
.map(row -> new TitanicObservation(row))
.map(
new Function<TitanicObservation,String>(){
private static final long serialVersionUID = -2968122030659306400L;
@Override
public String call(TitanicObservation titanic) throws Exception {
String res = PmmlUtil.computeScoreTitanic(evaluator, titanic);
return res;
}
})
.take(5)
.forEach(row -> logger.info(row));
しかし、私のコードが私の問題を解決するのに役立つとは思いません。これは非常に明確です(ログを参照してください:)
org.apache.spark.SparkException: org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:166) でタスクをシリアル化できません org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:158) ) org.apache.spark.SparkContext.clean(SparkContext.scala:1623) で org.apache.spark.rdd.RDD.map(RDD.scala:286) で org.apache.spark.api.java.JavaRDDLike$ org.apache.spark.api.java.AbstractJavaRDDLike.map(JavaRDDLike.scala:46) の class.map(JavaRDDLike.scala:89)、score.acv.AppWithSpark.main(AppWithSpark.java:117) の sun.reflect .NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) java.lang.reflect.Method.invoke(Method.java:497) で org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:577) でorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:174) で org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:197) で org.apache.spark.deploy. SparkSubmit$.main(SparkSubmit.scala:112) at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)197) org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:112) で org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) で197) org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:112) で org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) で
原因: java.io.NotSerializableException: org.xml.sax.helpers.LocatorImpl シリアル化スタック:
at org.apache.spark.serializer.SerializationDebugger$.improveException(SerializationDebugger.scala:38) at org.apache.spark.serializer.JavaSerializationStream.writeObject(JavaSerializer.scala:47) at org.apache.spark.serializer.JavaSerializerInstance.serialize(JavaSerializer.scala:80) at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:164) ... 15 more