拡張現実アプリの1つにARKitを使用しています。しかし、私が直面している問題は、カメラ内の場所が互いに重なっていることです。
ハードコードされたデータを使用して試してみると、さまざまな場所のデータを表示することができました。現在、サーバーからデータをフェッチして、ARKitに表示しています。これは、すべての場所が互いにオーバーラップしていることを示しています。
これが私のコードです:
for (NSDictionary *drop in drops)
{
CLLocation *tempLocation = [[CLLocation alloc] initWithLatitude:[[[drop objectForKey:@"latitude"] objectForKey:@"text"] floatValue] longitude:[[[drop objectForKey:@"longitude"] objectForKey:@"text"] floatValue]];
tempCoordinate = [ARGeoCoordinate coordinateWithLocation:tempLocation];
tempCoordinate.inclination = M_PI/30;
tempCoordinate.title = [[drop objectForKey:@"DropText"] objectForKey:@"text"];
tempCoordinate.subtitle = [[drop objectForKey:@"DropPlace"] objectForKey:@"text"];
tempCoordinate.type=[[[drop objectForKey:@"DropType"] objectForKey:@"text"] intValue];
[tempLocationArray addObject:tempCoordinate];
[tempLocation release];
}
[viewController addCoordinates:tempLocationArray];
[viewController startListening];
これは、すべてのドロップがオーバーラップしていることを示しています。この問題を修正する方法、または場所を重ねて表示するというここで間違っていることについての解決策が必要です。私の場合、すべてのドロップの緯度と経度が異なることに注意してください。私はそれをテストしました。