4 か月以来、Mobile Vision Android [MVA]を使用するプロジェクトに取り組んでいます。Play サービスとこのチュートリアルCodelabを使用するだけで済みます。ただし、月の初めから、Google は次の新しいバージョンの Machine Learning Kit [MLK]を提供しています。
新しい機能を備えています。
そして彼らが :
試してみることを強くお勧めします
私の問題は、新しい MLK がベースFirebaseであることです。つまり、Google 開発者アカウントを使用する必要があり、このセットアップと、プロジェクトを Google と強く結びつける厄介なものがたくさんあります(間違っている場合は教えてください)。
私の最初の質問[@Ian Barber による回答]は次のとおりです: firebase でこのセットアップをすべて行わずに MLK を使用する方法はありますか? または、MVA を使用する方法で使用し、依存関係を実装するだけです。
編集: 私のアプリケーションは[MVA]のCodelabを使用していました。つまり、ビデオ ストリーム内のテキストを (カメラから) 検出できたということです。フレームキャプチャ、処理などのすべての最適化は、複数の適切に構築されたスレッドによって考慮されていました。しかし、今では[MLK]を使ったビデオ処理の例はありません。Camera Source と Preview の実装は、MVA 機能の作業がなければ、MLK だけではほとんど不可能に見えます。
私の 2 番目の質問(移行による) は、CameraSource、CameraSourcePreview の使用方法です。MVA でテキスト検出用のカメラ ソースを操作するために使用したように