17

私は現在、クライアント向けのWebサイトを開発しています。これは、サイトのギャラリーに表示される写真をアップロードできるユーザーで構成されています。

私たちが抱えている問題は、ユーザーが画像をアップロードするときに、それがWebサイトにとって安全であることを確認するために明らかに検証する必要があるということです(ポルノや露骨な写真はありません)。ただし、アップロードされるすべての画像を手動で受け入れる必要はありません。これには時間がかかり、ユーザーの画像がすぐにオンラインにならないためです。

私は自分のコードをPHPで書いています。必要に応じて、ASP.netまたはC#に変更できます。これを行う方法はありますか?

4

7 に答える 7

27

2019年アップデート

2013 年のこの最初の回答以来、多くのことが変更されました。主なものは機械学習です。アダルト コンテンツをプログラムで検出するために、多数のライブラリと API を利用できるようになりました。

Google Cloud Vision API。Google が安全な検索に使用するのと同じモデルを使用します。

NSFWJSは、TensorFlow.js クレームを使用して最大 90% の精度を達成し、MIT ライセンスの下でオープン ソースです。

Yahoo には、BSD 2 条項ライセンスの下でOpen NSFWと呼ばれるソリューションがあります。

2013年の回答

これには、 nude.jsという JavaScript ライブラリがありますが、私は使用したことがありません。これが使用中のデモです。

PORNsweeperもあります。

もう 1 つのオプションは、 Amazon Mechanical Turkのようなクラウドソーシング プラットフォームを使用してモデレーション作業を「アウトソーシング」することです。したがって、基本的には、モデレート項目ごとに少額を支払い、外部委託された実際の人間にコンテンツのモデレートを依頼します。

私が考えることができる他の唯一の解決策は、画像をユーザーがモデレートすることです。ユーザーはモデレートのために不適切な投稿/画像にフラグを立てることができます.誰も手動でモデレートしたくない場合は、一定数のフラグの後に単純に削除できます.

このトピックに関する他のいくつかの興味深いリンクを次に示します。

于 2013-01-18T09:56:30.123 に答える
1

アダルト コンテンツ (ポルノ、ヌード、NSFW) を検出する無料の API があります。

https://market.mashape.com/purelabs/sensitive-image-detection

実稼働環境で使用していますが、これまでのところかなりうまく機能していると言えます。ただし、誤検出がいくつかありますが、不明な場合は画像を安全でないとマークすることを好むようです.

于 2016-08-26T19:50:37.993 に答える
0

それはすべて、探している精度のレベルに依存します。単純な肌の色の検出 (nude.js など) では、寛大なサンプル セットで 60 ~ 80% の精度が得られます。それよりも正確な場合は、90 ~ 95 としましょう%、時間の経過とともに改訂される進化するモデルを備えた特殊なコンピューター ビジョン システムが必要になります。後者については、http://clarifai.comまたはhttps://scanii.com (私が取り組んでいます)を確認してください。

于 2016-09-06T03:52:25.773 に答える