0

XNNPACKは一般的に計算を大幅に高速化できることを知り、Xcode/Objective-Cで試してみました。これが公式ドキュメントによるインプです

// add XNNPACK
TFLInterpreterOptions *options = [[TFLInterpreterOptions alloc] init];
options.useXNNPACK = YES;
    
// init interpreter
NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"mymodel" ofType:@"tflite"];
_modelInterpreter = [[TFLInterpreter alloc] initWithModelPath:modelPath
                                                      options:options
                                                        error:&error];

CocoaPods では、TensorFlowLite 2.3.0、2.4.0、および最新の xxx-nighly バージョンを試しました。いずれの場合も、XNNPACK が有効になっていると、init は失敗します。内部的には、TFLInterpreter.mm の次の行で失敗します。

_interpreter = TfLiteInterpreterCreate(model, cOptions);

何か不足していますか、それとも XNNPACK がライブラリにまだ適切に実装されていないだけですか?

ありがとう!

4

0 に答える 0