2

私は論文の VoIP アプリケーションをやっています。誰かがこのシナリオで私を助けることができるかどうか知りたいです.AudioThreadとAudioSendThreadの2つのスレッドがあります. 最初のものは、DatagramSocket を介してオーディオ パケットを受信し、電話で再生するリスナーです。2 つ目は、20 ミリ秒のサウンドを取得して他のデバイスに送信するレコーダーです。Javaで実装しましたが、非常に遅いので、OpenSLを試すことにしましたが、このようなドキュメントは見つかりません。

これはAudioSendThreadです

public class AudioSendThread implements Runnable {
private final static String TAG = "AudioSndThread";
private boolean createdAudioP = false;
private DatagramSocket audioSndSocket;
private String ipAddr;
private byte[] buffer;

public AudioSendThread(Object o){
    this.ipAddr = //getting IpAddress
    audioSndSocket = (DatagramSocket)o;
}

@Override
public void run() {
    if(!createdAudioP)
        createdAudioP = createAudioRecorder();
    if(createdAudioP)
        startRecording();
    DatagramPacket packet = null;
    while(true){
            byte[] buffer = readAudio(20); //read 20 milliseconds of audio, this is the one i would like to implement in OpenSL
        try {
            packet = new DatagramPacket(buffer, buffer.length, InetAddress.getByName(this.ipAddr), PORT.AUDIO);
            audioSndSocket.send(packet);
        } catch (IOException e) {
            Log.e(TAG, e.getMessage());
            return;
        }

    }
}

public static native void startRecording();
public static native boolean createAudioRecorder();
public static native byte[] readAudio(int millis);

static {
    System.loadLibrary("SoundUtils");
}}

そしてこれが AudioThread

public class AudioThread implements Runnable{
private DatagramSocket audioServSock;

@Override
public void run() {
            createBufferQueueAudioPlayer();
    DatagramPacket packet = null;
    Thread audioSndThread = null;
    try {
        this.audioServSock = new DatagramSocket(PORT.AUDIO);
    } catch (SocketException e1) {
        e1.printStackTrace();
    }
    if(true){
        audioSndThread = new Thread(new AudioSendThread(this.audioServSock));
        audioSndThread.start();
    }
            byte[] buffer = new buffer[1500]; //random size
    packet = new DatagramPacket(buffer, 1500);
    while(true){
        try {
            audioServSock.receive(packet);
            playAudio(buffer, packet.getLength()); //other method i would like to implement in OpenSL
        } catch (IOException e) {
            Log.e(TAG, Log.getStackTraceString(e));
            return;
        }           
    }
    at.stop();
    at.release();
}

public static native void createBufferQueueAudioPlayer();
public static native void playAudio(byte[] buffer, int length);

/** Load jni .so on initialization */
static {
     System.loadLibrary("native-audio-jni");
}

}

他のネイティブ メソッドは、NDK の NativeAudio サンプルによって取得されます。

提案をありがとう!

4

1 に答える 1

3

Android-NDK に付属のネイティブ オーディオ サンプル コードを試しました。これは、JNI 呼び出しに精通していることを意味します。これは、OpenSL ES を使用した音声通信のオーディオ ストリーミングへの彼のアプローチについて説明している、Victor Lazzarini の素敵なブログです。

OpenSL ES と NDK を使用した Android オーディオ ストリーミング。

ソースコードはこちらからダウンロードできます。 指示に従って、デバイスで実行します。

于 2014-03-12T04:40:54.173 に答える