私は Watson/Alchemy Sentiment Analysis API を使用しており、間違いなくポジティブな記事であるにもかかわらず、ネガティブなラベルが付けられている記事をいくつか見つけました。これは、記事が良いまたは有益な減少について議論しているときに起こります.
たとえば、このワシントン ポストの記事、「米国では銃による暴力が大幅に減少しました。その理由は次のとおりです。」記事が非常に楽観的であるにもかかわらず、API に送信されると、-0.4 のスコアが返されます。(この記事では、銃による暴力が大幅に減少したと主張しています。)
もう 1 つの例は、CoreLogic のこの記事、「CoreLogic Reports 38,000 Completed Foreclosures in January 2016」です。API は、テキストが肯定的であるにもかかわらず、ドキュメントのセンチメント スコア -0.27 を返します。 2015 年 1 月の 46,000 件から 2016 年 1 月の 38,000 件に増加しました。」
この問題に対処するための確立された回避策はありますか? 具体的には、サービスの信頼性を損ないたくないため、注意深い読者がこのような記事の感情を API が示唆するものとはまったく異なる方法で評価した場合の結果を損なうことはありません。特定のケースのセンチメント結果を変更できるものを探しています (たとえば、「差し押さえの減少」は肯定的であり、「殺人の減少」は肯定的です)。