2 つのポイント p0 と p1 がユークリッド距離 d1 にあり、指定された 2 つのピクセル/ボクセルの Lab カラー値が (L0,a0,b0) と (L1,a1,b1) であるとします。与えられた 2 つのポイントを含む剛体オブジェクトの位置を変更すると、それらのポイントを同じ距離 (mm) で同じ Lab カラー値で検出することはできません。私は pcl を使用して、3D オブジェクト認識のコンピューター ビジョン タスクを実行しています。ここで、距離 d1 で以前に検出された 2 点とその色を見つけようとすると、指定された 2 点からオブジェクトの位置と向きを変更しても検出されず、ここのボクセルが分析されました。私が使用しているkinectカメラには同じ2点が見えないというオブジェクトの向きがありません。
iv=1; int p0, p1, p2, p0obj, p1obj, p2obj;
for(p0=0;p0<a.size() && ros::ok() && iv==1;p0++) {
for(p1=0;p1<a.size() && ros::ok() && iv==1;p1++) {
int d1 = sqrt(pow(a.at(p1)-a.at(p0),2)+pow(b.at(p1)-b.at(p0),2)+pow(c.at(p1)-c.at(p0),2))*1000;
if(d1==20) {
for(p2=0;p2<a.size() && ros::ok() && iv==1;p2++) {
int d2 = sqrt(pow(a.at(p2)-a.at(p0),2)+pow(b.at(p2)-b.at(p0),2)+pow(c.at(p2)-c.at(p0),2))*1000;
int d1d = sqrt(pow(a.at(p2)-a.at(p1),2)+pow(b.at(p2)-b.at(p1),2)+pow(c.at(p2)-c.at(p1),2))*1000;
if(d2==20 && d1d==20) {
float a1 = a.at(p1)-a.at(p0); float b1 = b.at(p1)-b.at(p0); float c1 = c.at(p1)-c.at(p0);
float a2 = a.at(p2)-a.at(p0); float b2 = b.at(p2)-b.at(p0); float c2 = c.at(p2)-c.at(p0);
float a3r = b1*c2-b2*c1; float b3r = a2*c1-a1*c2; float c3r = a1*b2-a2*b1;
float a3, b3, c3;
if(c3r>0) {
a3 = a3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
b3 = b3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
c3 = -c3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
}
else {
a3 = a3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
b3 = b3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
c3 = c3r/sqrt(a3r*a3r+b3r*b3r+c3r*c3r);
}
float x3 = (a.at(p0)+a.at(p1)+a.at(p2)/3)+0.02*a3;
float y3 = (b.at(p0)+b.at(p1)+b.at(p2)/3)+0.02*b3;
float z3 = (c.at(p0)+c.at(p2)+c.at(p2)/3)+0.02*c3;
for(int p4=0;p4<a.size() && ros::ok() && iv==1;p4++) {
int d0r = sqrt(pow(a.at(p4)-a.at(p0),2)+pow(b.at(p4)-b.at(p0),2)+pow(c.at(p4)-c.at(p0),2))*1000;
int d1r = sqrt(pow(a.at(p4)-a.at(p1),2)+pow(b.at(p4)-b.at(p1),2)+pow(c.at(p4)-c.at(p1),2))*1000;
int d2r = sqrt(pow(a.at(p4)-a.at(p2),2)+pow(b.at(p4)-b.at(p2),2)+pow(c.at(p4)-c.at(p2),2))*1000;
int d4r = sqrt(pow(x3-a.at(p1),2)+pow(y3-b.at(p1),2)+pow(z3-c.at(p1),2));
if(d0r>0 && d1r>0 && d2r>0 && d4r>0 && d0r<=70) {
cout<<p0<<endl;
d[0]=p0; d[1]=p1; d[2]=p2; d[3]=d0r; d[4]=d1r; d[5]=d2r; d[6]=d4r; d[7]=ac.at(p0); d[8]=bc.at(p0);
d[9]=ac.at(p1); d[10]=bc.at(p2); d[11]=ac.at(p2); d[12]=bc.at(p4); d[13]=ac.at(p4); d[14]=bc.at(p4);
int j = arri(1,d[3],d[4],d[5],d[6],d[7],d[8],d[9],d[10],d[11],d[12],d[13],d[14]);
for(int k=1;k<=j;k++) { iv=0;
p0obj=arr0(k,d[3],d[4],d[5],d[6],d[7],d[8],d[9],d[10],d[11],d[12],d[13],d[14]);
p1obj=arr1(k,d[3],d[4],d[5],d[6],d[7],d[8],d[9],d[10],d[11],d[12],d[13],d[14]);
p2obj=arr2(k,d[3],d[4],d[5],d[6],d[7],d[8],d[9],d[10],d[11],d[12],d[13],d[14]);
//cout<<j<<":"<<p0obj<<"\t"<<p1obj<<"\t"<<p2obj<<"\n"<<p0<<"\t"<<p1<<"\t"<<p2<<endl;
}
}
}
}
}
}
}
}
上記は、私の C++ プログラムの主要部分です。ここで、このステップは現在のオブジェクトを、その座標を a,b,c ベクトルで、色値を ac,bc,cc ベクトルで分析します。ここで、arri、arr1.. は、前のオブジェクトからのポイントのインデックスを含むマップです。ここでは、指定されたポイント パターン p0、p1、p2、p3、p4 が検出されるたびに、ループから出てきます。これを実行すると、期待どおりに正しく動作しません。オブジェクトの位置と向きが変更されると、指定された 4 ボクセルの a、b カラー値も (ラボ カラーから) 変更され、その (指定された 2/3/n ボクセル) 距離も以前と同じままではないことに疑いがあります。物理学の測定問題と同じように保存されます。ここでの私の主な混乱は、ピクセル/ボクセルの位置が変更されたときに a と b の値が変化することですか? 明るさの値は環境によって変化する可能性があるため、L 値は使用していません。