1

私は Watson/Alchemy Sentiment Analysis API を使用しており、間違いなくポジティブな記事であるにもかかわらず、ネガティブなラベルが付けられている記事をいくつか見つけました。これは、記事が良いまたは有益な減少について議論しているときに起こります.

たとえば、このワシントン ポストの記事、「米国では銃による暴力が大幅に減少しました。その理由は次のとおりです。」記事が非常に楽観的であるにもかかわらず、API に送信されると、-0.4 のスコアが返されます。(この記事では、銃による暴力が大幅に減少したと主張しています。)

もう 1 つの例は、CoreLogic のこの記事、「CoreLogic Reports 38,000 Completed Foreclosures in January 2016」です。API は、テキストが肯定的であるにもかかわらず、ドキュメントのセンチメント スコア -0.27 を返します。 2015 年 1 月の 46,000 件から 2016 年 1 月の 38,000 件に増加しました。」

この問題に対処するための確立された回避策はありますか? 具体的には、サービスの信頼性を損ないたくないため、注意深い読者がこのような記事の感情を API が示唆するものとはまったく異なる方法で評価した場合の結果を損なうことはありません。特定のケースのセンチメント結果を変更できるものを探しています (たとえば、「差し押さえの減少」は肯定的であり、「殺人の減少」は肯定的です)。

4

1 に答える 1

1

これはごく普通のことだと思います:-)結果の100%で正しい答えを与えることができる感情分析アルゴリズムは非常にまれです:-)アルゴリズムの実装については知りませんが、感情が表情や言葉の「心情」から算出。たとえば、「銃」、「暴力」はおそらく否定的な感情に関連している可能性がありますが、ワトソンはそれらが「大規模な衰退」に関連していることを理解できなかった可能性があります (「衰退」でさえ否定的な感情を持っている可能性があります)。

最先端の感情分析アルゴリズムでさえ、非常に特定のドメインに対して約 85 ~ 90% の精度に達することがあります。したがって、それに基づいて期待を設定することが常に重要です。

于 2016-03-21T22:07:19.920 に答える