Python で基本的なグローバルしきい値処理を実装しています。アルゴリズムの一部には、強度に応じてピクセルを 2 つのコンテナーにグループ化することが含まれます。
group_1 = []
group_2 = []
for intensity in list(image.getdata()):
if intensity > threshold:
group_1.append[]
else:
group_2.append[]
画像が 0.5 メガピクセルを超える場合、このアプローチでは通常、約 5 秒以上かかります。考えられるすべてのアプローチで、すべてのピクセルをチェックする必要があるため、これを行うためのより高速な方法があるかどうか (PIL の他の方法、他のデータ構造またはアルゴリズムを使用して?)、または単に Python のパフォーマンスの問題ですか?