問題タブ [scikit-image]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
2923 参照

python - scikit-learn: ValueError: オブジェクトを float64 に変換できません

scikit-image に関連する非常に奇妙な問題が発生しました。つまり、「開始された例」を実行できません。

その後、Python 2.7 はエラーを報告します:

さらに、Python が同様のエラーを報告するため、「tif、png」画像を開くことができません。興味深いことに、最初はすべてが正しく機能していたため、この問題が突然発生しました。これは、おそらく numpy に影響を与えた pymorph モジュールのインストールによるものだと思います。ただし、この問題を解決する方法はありますか?

0 投票する
1 に答える
614 参照

python - スーパーピクセル カラーの設定

SLIC Superpixel Algorithmsなどのスーパーピクセル化アルゴリズムの結果があると仮定します

事前設定された色でスーパーピクセルごとに異なる色で画像を表示するにはどうすればよいですか (たとえば、セマンティック ラベル付けの問題のように、どの色が各スーパーピクセルに対応するかを事前に知っているとします。

私は似たようなものが必要です

しかし、境界をマークするだけでなく、使用するラベルを使用してセマンティック セグメンテーションが必要です

0 投票する
1 に答える
547 参照

matlab - 画像の穴を見つける

私の友人の 1 人は、次のプロジェクトに取り組んでいました。

以下は、ステンレス鋼の表面の顕微鏡 (SEM) 画像です。

ここに画像の説明を入力

しかし、ご覧のとおり、(海洋環境に長時間さらされた後)少し腐食し、表面にいくつかの穴が形成されています. ピットのいくつかは赤い丸でマークされています。

彼は画像内のピットの数を見つける必要があり、手動で数えていました (150 近くの画像があると想像してください)。そこで、このプロセスを任意の画像処理ツールで自動化することを考えました。

質問:

この画像のくぼみの数を調べるにはどうすればよいですか?


私が試したこと:

最初のステップとして、クローズ操作でコントラストを少し改善しました。

結果:

ここに画像の説明を入力

次に、127 にいくつかのしきい値を適用し、その中の輪郭を見つけました。後で、これらの等高線は、その面積に基づいてフィルター処理されます (面積に関する特定の情報はありません。経験値として 1 ~ 10 の範囲を取りました)。

しかし、それは多くの余分なノイズに終わりました。以下の結果を参照してください。

ここに画像の説明を入力


追加情報:

いくつかのテスト画像:

ここに画像の説明を入力 ここに画像の説明を入力

0 投票する
1 に答える
2949 参照

python - scikit-image でラベルを削除する

バイナリ イメージにラベルを付けました ここに画像の説明を入力

しかし、ラベルの数を確認すると、535 個の要素が得られます。

この解決策としてmeasure.regionprops、小さなピクセル領域のラベルを削除するために使用することを考えました。皆さんはこれにどのようにアプローチしますか?次のことを試しましたが、何らかの理由で新しい配列が正しいラベル要素として表示されなくなりました。

0 投票する
1 に答える
3110 参照

python - オブジェクト検出のための HoG パラメータの選択/正規化?

分類によるオブジェクト検出に HoG 機能を使用しています。

長さの異なる HoG 特徴ベクトルをどのように扱うかについて混乱しています。

すべて同じサイズのトレーニング画像を使用して分類子をトレーニングしました。

ここで、分類器を実行する画像から領域を抽出しています。たとえば、スライディング ウィンドウ アプローチを使用しています。私が抽出したウィンドウのいくつかは、分類子がトレーニングされた画像のサイズよりもはるかに大きいです。(テスト画像で予想されるオブジェクトの最小サイズでトレーニングされました)。

問題は、分類する必要があるウィンドウがトレーニング画像のサイズよりも大きい場合、HoG 特徴ベクトルもトレーニング済みモデルの特徴ベクトルよりもはるかに大きくなることです。

では、モデルの特徴ベクトルを使用して抽出ウィンドウを分類するにはどうすればよいでしょうか?

たとえば、抽出された 1 つのウィンドウのサイズ (360x240) を としましょうextractedwindow。次に、20x30 しかない私のトレーニング画像の 1 つを取り、それを と呼びましょうtrainingsample

HoG 特徴ベクトルを使用すると、次のようになります。

次に、これは特徴ベクトル間の長さの違いです。

それで、これはどのように扱われますか?抽出されたウィンドウは、分類器がトレーニングされたサンプルのサイズに縮小されることになっていますか? それとも、抽出されたウィンドウごとに HoG 機能のパラメーターを変更/正規化する必要がありますか? または、これを行う別の方法はありますか?

私は個人的に、scikit-image を使用して Python で作業していますが、問題は使用しているプラ​​ットフォームとは関係ないと思います。

0 投票する
1 に答える
1141 参照

python - skimage.filterからthreshold_yenとthreshold_isodataをインポート

SKimage とは異なるしきい値アルゴリズムを使用しています。特定のパッケージをインポートしようとするとエラーが発生しますが、他のパッケージでは問題ありません。例えば:

from skimage.filter import threshold_adaptive, threshold_isodata トレースバックを返します: ImportError: cannot import name threshold_isodata. 私はpython 2.7を使用しており、ここにあるドキュメントに従っています: http://scikit-image.org/docs/dev/api/skimage.filter.html#skimage.filter.threshold_isodata

具体的には、threshold_isodata と threshold_yen を使用したいと考えています。このエラーを解決する方法について誰か提案がありますか? または、同じアルゴリズムを使用する他のパッケージはありますか?