アプリで何万ものユーザー レビューを受け取りました。
多くのコメントの意味が同じであることは知っています。
これらのコメントをすべて読むことはできません。したがって、Python プログラムを使用してすべてのコメントを分析し、最も頻繁に最も重要なフィードバック情報を特定したいと思います。
お聞きしたいのですが、どうすればいいですか?
Google Prediction API の予備知識も含めて、すべてのコメントをアプリでダウンロードできます。
アプリで何万ものユーザー レビューを受け取りました。
多くのコメントの意味が同じであることは知っています。
これらのコメントをすべて読むことはできません。したがって、Python プログラムを使用してすべてのコメントを分析し、最も頻繁に最も重要なフィードバック情報を特定したいと思います。
お聞きしたいのですが、どうすればいいですか?
Google Prediction API の予備知識も含めて、すべてのコメントをアプリでダウンロードできます。
Google Prediction API を使用して、コメントを重要または重要でないものとして特徴付けることができます。やりたいことは、コメントのサブセットを手動で分類することです。次に、手動で分類されたモデルを Google Cloud Storage にアップロードし、予測 API を使用してモデルをトレーニングします。このステップは非同期であり、時間がかかる場合があります。トレーニング済みのモデルの準備ができたら、それを使用して残りの (および将来の) コメントをプログラムで分類できます。
手動で分類するコメントが多いほど (つまり、トレーニング セットが大きいほど)、プログラムによる分類がより正確になることに注意してください。また、この考え方を次のように拡張することもできます。バイナリ分類 (重要/重要でない) の代わりに、重要度を 1 ~ 5 のスケールなどで使用できます。もちろん、モデルの構築にはより多くの手作業が必要になるため、最適な戦略は、ニーズとモデルの構築に費やすことができる時間の関数になります。