RealityKit 和 Reality Composer——图像识别
RealityKit and Reality Composer – Image Recognition
我正在开发一个可以识别图像然后将 AR 节点(使用 Reality Composer 构建的 3D 模型)放在该图像上的应用程序。我想用 RealityKit
/Reality Composer
构建它(它应该也支持图像识别),但这不起作用。
我已经测试了该模型是否在简单的水平面上工作,并且确实如此(在 Xcode 和 Reality Composer 测试环境中)。但是当我 select 一个图像作为锚定模式时,模型没有出现在 Xcode 项目中,而它确实出现在 Reality Composer 测试环境中。
我目前使用此代码将 Reality Composer 项目加载到 Xcode:
let arConfiguration = ARWorldTrackingConfiguration()
arConfiguration.planeDetection = .horizontal
arView.session.run(arConfiguration)
guard let anchor = try? Spinner.loadScene() else { return }
arView.scene.anchors.append(anchor)
预期的输出是 - 当指向正确的图像时 - 模型出现。
我在使用 iOS 13 beta 时遇到了同样的问题。更新到 iOS 13.1 beta 就可以了。我只能猜测它与 iOS 上的 RealityKit 有关。
请注意,更新到 iOS 13.1 beta 还需要更新 XCode 11 beta 7 以支持它。
希望对你有帮助。
我遇到同样的问题,搜索 google 带我到这里。我正在使用 Xcode 11.2、iOS 13.1.2。我使用内置 'Reality Composer' 在 canvas 中添加一个简单的胶囊对象后解决了这个问题。我认为它可能会对某人有所帮助,所以我在这里写下我的用例。
我正在开发一个可以识别图像然后将 AR 节点(使用 Reality Composer 构建的 3D 模型)放在该图像上的应用程序。我想用 RealityKit
/Reality Composer
构建它(它应该也支持图像识别),但这不起作用。
我已经测试了该模型是否在简单的水平面上工作,并且确实如此(在 Xcode 和 Reality Composer 测试环境中)。但是当我 select 一个图像作为锚定模式时,模型没有出现在 Xcode 项目中,而它确实出现在 Reality Composer 测试环境中。
我目前使用此代码将 Reality Composer 项目加载到 Xcode:
let arConfiguration = ARWorldTrackingConfiguration()
arConfiguration.planeDetection = .horizontal
arView.session.run(arConfiguration)
guard let anchor = try? Spinner.loadScene() else { return }
arView.scene.anchors.append(anchor)
预期的输出是 - 当指向正确的图像时 - 模型出现。
我在使用 iOS 13 beta 时遇到了同样的问题。更新到 iOS 13.1 beta 就可以了。我只能猜测它与 iOS 上的 RealityKit 有关。 请注意,更新到 iOS 13.1 beta 还需要更新 XCode 11 beta 7 以支持它。 希望对你有帮助。
我遇到同样的问题,搜索 google 带我到这里。我正在使用 Xcode 11.2、iOS 13.1.2。我使用内置 'Reality Composer' 在 canvas 中添加一个简单的胶囊对象后解决了这个问题。我认为它可能会对某人有所帮助,所以我在这里写下我的用例。