Javaアプリケーションを使用して、JAIN SIPjavaAPIを使用してニュアンス音声サーバーとのSIPセッションをセットアップしています。次に、GET_PARAMS、SET-PARAMS、Define GrammarなどのMRCPコマンドを送信してシステムを設定し、mrcp4j APIを使用してシステムを認識できるように、システムを準備しました。
次に、JMF apiを使用して、音声サーバーとのrtpおよびrtcpセッションを設定し、認識のために音声を送信しました。サーバーは音声を受信しましたが、RTCPバイを受信するまで認識しません。
しかし、問題は、JMFドキュメントでその方法を理解できないため、rtcpbyeを使用してrtpセッションを終了できないことです。
誰かがそれについて私を案内してくれるなら、それは本当に役に立ちます。RTPセッションのコードを添付しました。
JMFAPIドキュメントのリンクはこちら
// send Audio data
// create the RTP Manager
RTPManager rtpManager = RTPManager.newInstance();
// create the local endpoint for the local interface on any local port
int port = Integer.parseInt(rtpPORT);;
SessionAddress localAddress = new SessionAddress();
InetAddress IP = InetAddress.getByName("hydhtc284704d");
localAddress.setControlHostAddress(IP);
localAddress.setControlPort(24501);
localAddress.setDataHostAddress(IP);
localAddress.setDataPort(24500);
// initialize the RTPManager
rtpManager.initialize(localAddress);
//rtpManager.initialize(rtpConnector);
// specify the remote endpoint of this unicast session
InetAddress ipAddress = InetAddress.getByName("hydhtc227033d");
SessionAddress remoteAddress = new SessionAddress(ipAddress, port, ipAddress, port + 1);
//System.out.println(remoteAddress);
// open the connection
rtpManager.addTarget(remoteAddress);
rtpManager.addSendStreamListener(new SendStreamListener() {
@Override
public void update(SendStreamEvent arg0) {
//System.out.println("Send Stream Event: " + arg0.getSource());
System.out.println("Number of bytes transmitted: " + arg0.getSendStream().getSourceTransmissionStats().getBytesTransmitted());
System.out.println("Sender Report: " + arg0.getSendStream().getSenderReport());
}
});
rtpManager.addReceiveStreamListener(new ReceiveStreamListener() {
@Override
public void update(ReceiveStreamEvent arg0) {
// TODO Auto-generated method stub
}
});
File audioFile = new File("C:\\Users\\Bhanu_Verma\\Desktop\\eclipse\\one.wav");
Processor processor= Manager.createProcessor(audioFile.toURI().toURL());
processor.configure();
// Block until the Processor has been configured
while (processor.getState() != processor.Configured) {
}
processor.setContentDescriptor(new ContentDescriptor(ContentDescriptor.RAW_RTP));
TrackControl track[] = processor.getTrackControls();
//ContentDescriptor cd = new ContentDescriptor(ContentDescriptor.RAW_RTP);
//processor.setContentDescriptor(cd);
boolean encodingOk = false;
// Go through the tracks and try to program one of them to
// output ulaw data.
for (int i = 0; i < track.length; i++) {
if (!encodingOk && track[i] instanceof FormatControl) {
if (((FormatControl)track[i]).setFormat(new AudioFormat(AudioFormat.ULAW_RTP,8000,8,1)) == null)
{
track[i].setEnabled(false);
}
else
{
encodingOk = true;
}
}
else
{
// we could not set this track to ulaw, so disable it
track[i].setEnabled(false);
}
}
// At this point, we have determined where we can send out ulaw data or not.
// realize the processor
if (encodingOk) {
processor.realize();
// block until realized.
while (processor.getState() != processor.Realized) {
}
// get the output datasource of the processor and exit if we fail
DataSource dataOutput = processor.getDataOutput();
// create a send stream for the output data source of a processor and start it
SendStream sendStream = rtpManager.createSendStream(dataOutput,0);
sendStream.start();
System.out.println("Starting processor" + "\n");
processor.start();
while(processor.getState()== processor.Started)
{
System.out.println("Sending Audio..");
}
System.out.println("Processor was started and audio was sent to server");
Wait(2000); // waiting so that audio could be given to the server
// close the connection if no longer needed.
rtpManager.removeTarget(remoteAddress, "Client disconnected.");
// call dispose at the end of the life-cycle of this RTPManager so
// it is prepared to be garbage-collected.
rtpManager.dispose();