問題タブ [scikit-image]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - scikit-learn: ValueError: オブジェクトを float64 に変換できません
scikit-image に関連する非常に奇妙な問題が発生しました。つまり、「開始された例」を実行できません。
その後、Python 2.7 はエラーを報告します:
さらに、Python が同様のエラーを報告するため、「tif、png」画像を開くことができません。興味深いことに、最初はすべてが正しく機能していたため、この問題が突然発生しました。これは、おそらく numpy に影響を与えた pymorph モジュールのインストールによるものだと思います。ただし、この問題を解決する方法はありますか?
python - スーパーピクセル カラーの設定
SLIC Superpixel Algorithmsなどのスーパーピクセル化アルゴリズムの結果があると仮定します
事前設定された色でスーパーピクセルごとに異なる色で画像を表示するにはどうすればよいですか (たとえば、セマンティック ラベル付けの問題のように、どの色が各スーパーピクセルに対応するかを事前に知っているとします。
私は似たようなものが必要です
しかし、境界をマークするだけでなく、使用するラベルを使用してセマンティック セグメンテーションが必要です
matlab - 画像の穴を見つける
私の友人の 1 人は、次のプロジェクトに取り組んでいました。
以下は、ステンレス鋼の表面の顕微鏡 (SEM) 画像です。
しかし、ご覧のとおり、(海洋環境に長時間さらされた後)少し腐食し、表面にいくつかの穴が形成されています. ピットのいくつかは赤い丸でマークされています。
彼は画像内のピットの数を見つける必要があり、手動で数えていました (150 近くの画像があると想像してください)。そこで、このプロセスを任意の画像処理ツールで自動化することを考えました。
質問:
この画像のくぼみの数を調べるにはどうすればよいですか?
私が試したこと:
最初のステップとして、クローズ操作でコントラストを少し改善しました。
結果:
次に、127 にいくつかのしきい値を適用し、その中の輪郭を見つけました。後で、これらの等高線は、その面積に基づいてフィルター処理されます (面積に関する特定の情報はありません。経験値として 1 ~ 10 の範囲を取りました)。
しかし、それは多くの余分なノイズに終わりました。以下の結果を参照してください。
追加情報:
いくつかのテスト画像:
python - scikit-image でラベルを削除する
バイナリ イメージにラベルを付けました
しかし、ラベルの数を確認すると、535 個の要素が得られます。
この解決策としてmeasure.regionprops
、小さなピクセル領域のラベルを削除するために使用することを考えました。皆さんはこれにどのようにアプローチしますか?次のことを試しましたが、何らかの理由で新しい配列が正しいラベル要素として表示されなくなりました。
python - オブジェクト検出のための HoG パラメータの選択/正規化?
分類によるオブジェクト検出に HoG 機能を使用しています。
長さの異なる HoG 特徴ベクトルをどのように扱うかについて混乱しています。
すべて同じサイズのトレーニング画像を使用して分類子をトレーニングしました。
ここで、分類器を実行する画像から領域を抽出しています。たとえば、スライディング ウィンドウ アプローチを使用しています。私が抽出したウィンドウのいくつかは、分類子がトレーニングされた画像のサイズよりもはるかに大きいです。(テスト画像で予想されるオブジェクトの最小サイズでトレーニングされました)。
問題は、分類する必要があるウィンドウがトレーニング画像のサイズよりも大きい場合、HoG 特徴ベクトルもトレーニング済みモデルの特徴ベクトルよりもはるかに大きくなることです。
では、モデルの特徴ベクトルを使用して抽出ウィンドウを分類するにはどうすればよいでしょうか?
たとえば、抽出された 1 つのウィンドウのサイズ (360x240) を としましょうextractedwindow
。次に、20x30 しかない私のトレーニング画像の 1 つを取り、それを と呼びましょうtrainingsample
。
HoG 特徴ベクトルを使用すると、次のようになります。
次に、これは特徴ベクトル間の長さの違いです。
それで、これはどのように扱われますか?抽出されたウィンドウは、分類器がトレーニングされたサンプルのサイズに縮小されることになっていますか? それとも、抽出されたウィンドウごとに HoG 機能のパラメーターを変更/正規化する必要がありますか? または、これを行う別の方法はありますか?
私は個人的に、scikit-image を使用して Python で作業していますが、問題は使用しているプラットフォームとは関係ないと思います。
python - skimage.filterからthreshold_yenとthreshold_isodataをインポート
SKimage とは異なるしきい値アルゴリズムを使用しています。特定のパッケージをインポートしようとするとエラーが発生しますが、他のパッケージでは問題ありません。例えば:
from skimage.filter import threshold_adaptive, threshold_isodata
トレースバックを返します:
ImportError: cannot import name threshold_isodata
. 私はpython 2.7を使用しており、ここにあるドキュメントに従っています: http://scikit-image.org/docs/dev/api/skimage.filter.html#skimage.filter.threshold_isodata
具体的には、threshold_isodata と threshold_yen を使用したいと考えています。このエラーを解決する方法について誰か提案がありますか? または、同じアルゴリズムを使用する他のパッケージはありますか?