2

ログをHDFSに書き込むflume-ngがあります。
1 つのノードに 1 つのエージェントを作成しました。
しかし、それは実行されていません。
私の構成があります。


# example2.conf: 単一ノードの Flume 構成

# このエージェントのコンポーネントに名前を付ける agent1.sources
= source1 agent1.sinks
= sink1
agent1.channels = channel1

# source1 の記述/構成
agent1.sources.source1.type = avro
agent1.sources.source1.bind = localhost
agent1.sources.source1.port = 41414

# メモリにイベントをバッファリングするチャネルを使用します
agent1.channels.channel1.type = memory
agent1.channels.channel1.capacity = 10000
agent1.channels.channel1.transactionCapacity = 100

# シンク 1を記述する
agent1.sinks.sink1.type = HDFS
agent1.sinks.sink1.hdfs.path = hdfs://dbkorando.kaist.ac.kr:9000/flume

# ソースをバインドし、チャネルをシンクします
agent1.sources.source1.channels = channel1
agent1.sinks.sink1.channel = channel1


そして私は命令する

flume-ng agent -n agent1 -c conf -C /home/hyahn/hadoop-0.20.2/hadoop-0.20.2-core.jar -f conf/example2.conf -Dflume.root.logger=INFO,console

結果は



情報: HDFS アクセス+ exec /usr/java/jdk1.7.0_02/bin/java -Xmx20m -Dflume.root.logger=用に (/home/hyahn/hadoop-0.20.2/bin/hadoop) 経由で見つかった Hadoop ライブラリを含めますINFO,console -cp '/etc/flume-ng/conf:/usr/lib/flume-ng/lib/*:/home/hyahn/hadoop-0.20.2/hadoop-0.20.2-core.jar' - Djava.library.path=:/home/hyahn/hadoop-0.20.2/bin/../lib/native/Linux-amd64-64 org.apache.flume.node.Application -n agent1 -f conf/example2. conf
2012-11-27 15:33:17,250 (メイン) [INFO - org.apache.flume.lifecycle.LifecycleSupervisor.start(LifecycleSupervisor.java:67)] ライフサイクル スーパーバイザーを開始しています 1
2012-11-27 15:33:17,253 (main) [INFO - org.apache.flume.node.FlumeNode.start(FlumeNode.java:54)] Flume ノードの開始 - agent1
2012-11-27 15:33:17,257 (lifecycleSupervisor-1-1) [INFO - org.apache.flume.conf.file.AbstractFileConfigurationProvider.start(AbstractFileConfigurationProvider.java:67)]
2012-11-27 15を開始する構成プロバイダー:33:17,257 (lifecycleSupervisor-1-0) [INFO - org.apache.flume.node.nodemanager.DefaultLogicalNodeManager.start(DefaultLogicalNodeManager.java:203)]
2012-11-27 15:33:17,258 (lifecycleSupervisorを開始するノード マネージャー) -1-0) [INFO - org.apache.flume.lifecycle.LifecycleSupervisor.start(LifecycleSupervisor.java:67)] ライフサイクル スーパーバイザーを開始しています 9
2012-11-27 15:33:17,258 (conf-file-poller-0) [INFO - org.apache.flume.conf.file.AbstractFileConfigurationProvider$FileWatcherRunnable.run(AbstractFileConfigurationProvider.java:195)] 構成ファイルをリロードしています: conf/example2.conf
2012-11-27 15:33:17,266 (conf-file-poller-0) [INFO - org.apache.flume.conf.FlumeConfiguration$AgentConfiguration.addProperty(FlumeConfiguration.java:988)] 処理中:sink1
2012-11- 27 15:33:17,266 (conf-file-poller-0) [INFO - org.apache.flume.conf.FlumeConfiguration$AgentConfiguration.addProperty(FlumeConfiguration.java:988)] 処理:sink1
2012-11-27 15:33 :17,267 (conf-file-poller-0) [INFO - org.apache.flume.conf.FlumeConfiguration$AgentConfiguration.addProperty(FlumeConfiguration.java:988)] 処理中:sink1
2012-11-27 15:33:17,268 (conf -file-poller-0) [INFO - org.apache.flume.conf.FlumeConfiguration$AgentConfiguration.addProperty(FlumeConfiguration.java:902)] 追加されたシンク: sink1 エージェント: agent1
2012-11-27 15:33:17,290 (conf-file-poller-0) [INFO - org.apache.flume.conf.FlumeConfiguration.validateConfiguration(FlumeConfiguration.java:122)] 検証後の Flume 構成にエージェントの構成が含まれています: [agent1]
2012-11-27 15:33:17,290 (conf-file-poller-0) [INFO - org.apache.flume.conf.properties.PropertiesFileConfigurationProvider.loadChannels(PropertiesFileConfigurationProvider.java:249)] チャネルの作成
2012 -11-27 15:33:17,354 (conf-file-poller-0) [INFO - org.apache.flume.instrumentation.MonitoredCounterGroup.(MonitoredCounterGroup.java:68)] タイプの監視カウンター グループ: CHANNEL、名前: channel1 、 正常に登録。
2012-11-27 15:33:17,355 (conf-file-poller-0) [INFO - org.apache.flume.conf.properties.PropertiesFileConfigurationProvider.loadChannels(PropertiesFileConfigurationProvider.java:273)] 作成されたチャネル channel1
2012-11- 27 15:33:17,368 (conf-file-poller-0) [INFO - org.apache.flume.instrumentation.MonitoredCounterGroup.(MonitoredCounterGroup.java:68)] タイプ: SOURCE、名前: source1 の監視カウンター グループが正常に登録されました.
2012-11-27 15:33:17,378 (conf-file-poller-0) [INFO - org.apache.flume.sink.DefaultSinkFactory.create(DefaultSinkFactory.java:70)] シンクのインスタンスを作成しています: シンク 1、タイプ: HDFS


以上のように、ヒケ発生部で水流が止まる問題が発生しました。何が問題ですか?

4

1 に答える 1

1

別のウィンドウを開き、次のようにポートで avro コマンドを送信する必要があります41414

bin/flume-ng avro-client --conf conf -H localhost -p 41414 -F /home/hadoop1/aaa.txt -Dflume.root.logger=DEBUG,console

ここaaa.txt/home/hadoop1/ディレクトリという名前のファイルがあります

Flume はこのファイルを読み取り、hdfs に送信します。

于 2012-12-31T08:33:29.620 に答える