XNNPACKは一般的に計算を大幅に高速化できることを知り、Xcode/Objective-Cで試してみました。これが公式ドキュメントによるインプです
// add XNNPACK
TFLInterpreterOptions *options = [[TFLInterpreterOptions alloc] init];
options.useXNNPACK = YES;
// init interpreter
NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"mymodel" ofType:@"tflite"];
_modelInterpreter = [[TFLInterpreter alloc] initWithModelPath:modelPath
options:options
error:&error];
CocoaPods では、TensorFlowLite 2.3.0、2.4.0、および最新の xxx-nighly バージョンを試しました。いずれの場合も、XNNPACK が有効になっていると、init は失敗します。内部的には、TFLInterpreter.mm の次の行で失敗します。
_interpreter = TfLiteInterpreterCreate(model, cOptions);
何か不足していますか、それとも XNNPACK がライブラリにまだ適切に実装されていないだけですか?
ありがとう!