Spark カスタマー レシーバーで利用可能な spark サイトに示されているように、カスタマー レシーバーを使用した Spark ストリーミングの例に従っています。
ただし、ジョブはほとんどのデータを削除するようです。ストリーミングするデータの量に関係なく、コンシューマで正常に受信されます。ただし、マップ/フラットマップ操作を行うと、10 行のデータしか表示されません。これは、ストリーミングするデータの量に関係なく、常に当てはまります。
ActiveMQ
このプログラムを変更して、キューから読み取るようにしました。ActiveMQ Web インターフェイスを見ると、spark ジョブは生成したすべてのデータを正常に消費しています。ただし、バッチごとに 10 個のデータのみが処理されます。バッチサイズをさまざまな値に変更して、ローカルおよび6ノードのsparkクラスターで試してみましたが、どこでも同じ結果でした。
限られた量のデータが処理されている理由がわからないので、本当にイライラします。私がここに欠けているものはありますか?
これが私のスパークプログラムです。カスタムレシーバーが付属。また、実際にはソケット接続を作成していません。代わりに、テスト目的でメッセージをハードコーディングしています。ストリームに対してソケット接続を作成した場合と同じように動作します。
/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
* this work for additional information regarding copyright ownership.
* The ASF licenses this file to You under the Apache License, Version 2.0
* (the "License"); you may not use this file except in compliance with
* the License. You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
package com.rzt.main;
import com.google.common.collect.Lists;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFunction;
import org.apache.spark.storage.StorageLevel;
import org.apache.spark.streaming.Duration;
import org.apache.spark.streaming.api.java.JavaDStream;
import org.apache.spark.streaming.api.java.JavaPairDStream;
import org.apache.spark.streaming.api.java.JavaReceiverInputDStream;
import org.apache.spark.streaming.api.java.JavaStreamingContext;
import org.apache.spark.streaming.receiver.Receiver;
import scala.Tuple2;
import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.net.ConnectException;
import java.net.Socket;
import java.util.regex.Pattern;
/**
* Custom Receiver that receives data over a socket. Received bytes is
* interpreted as text and \n delimited lines are considered as records. They
* are then counted and printed.
*
* Usage: TestReceiv3 <master> <hostname> <port> <master> is the Spark master
* URL. In local mode, <master> should be 'local[n]' with n > 1. <hostname> and
* <port> of the TCP server that Spark Streaming would connect to receive data.
*
* To run this on your local machine, you need to first run a Netcat server `$
* nc -lk 9999` and then run the example `$ bin/run-example
* org.apache.spark.examples.streaming.TestReceiv3 localhost 9999`
*/
public class TestReceiv3 extends Receiver<String> {
private static final Pattern SPACE = Pattern.compile(" ");
public static void main(String[] args) {
// Create the context with a 1 second batch size
SparkConf sparkConf = new SparkConf().setAppName("TestReceiv3").setMaster("local[4]");
JavaStreamingContext ssc = new JavaStreamingContext(sparkConf, new Duration(1000));
// Create a input stream with the custom receiver on target ip:port and
// count the
// words in input stream of \n delimited text (eg. generated by 'nc')
JavaReceiverInputDStream<String> lines = ssc.receiverStream(new TestReceiv3("TEST", 1));
JavaDStream<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
public Iterable<String> call(String x) {
System.out.println("Message received" + x);
return Lists.newArrayList(x);
}
});
words.print();
ssc.start();
ssc.awaitTermination();
}
// ============= Receiver code that receives data over a socket
// ==============
String host = null;
int port = -1;
public TestReceiv3(String host_, int port_) {
super(StorageLevel.MEMORY_AND_DISK_2());
host = host_;
port = port_;
}
public void onStart() {
// Start the thread that receives data over a connection
new Thread() {
@Override
public void run() {
receive();
}
}.start();
}
public void onStop() {
// There is nothing much to do as the thread calling receive()
// is designed to stop by itself isStopped() returns false
}
/** Create a socket connection and receive data until receiver is stopped */
private void receive() {
Socket socket = null;
String userInput = null;
try {
int i = 0;
// Until stopped or connection broken continue reading
while (true) {
i++;
store("MESSAGE " + i);
if (i == 1000)
break;
}
// Restart in an attempt to connect again when server is active
// again
restart("Trying to connect again");
} catch (Throwable t) {
restart("Error receiving data", t);
}
}
}