相机偏移 |探戈计划
Camera-Offset | Project Tango
我正在使用 Unity3d 为 Project Tango 开发增强现实应用程序。
因为我想让虚拟对象与现实世界交互,我使用示例中的 Meshing with Physics 场景作为我的基础,并将 Tango AR Camera 预制件放置在 Tango Delta Camera 内(在相对位置( 0,0,0)).
我发现,我必须将 AR 相机向上旋转大约 17 度,这样动态网格才能与房间相匹配,但是相机的实时预览仍然有很大的偏移。
我想知道,是否有人以前必须处理这个问题可以分享他的解决方案,使动态网格与现实世界对齐。
如何将虚拟世界与相机图像对齐?
我遇到了类似的问题。看起来这与之前回答的几个问题有关:
Point cloud rendered only partially
Point Cloud Unity example only renders points for the upper half of display
您需要考虑彩色相机相对于设备原点的偏移量,这需要您获取相对于设备的彩色相机位姿。你不能直接这样做,但是你可以得到IMU框架中的设备,以及IMU框架中的彩色相机,来计算出设备框架中的彩色相机。上面的链接显示了示例代码。
您应该看到类似(在统一坐标中)(0.061, 0.004, -0.001) 偏移量和绕 x 轴向上旋转 13 度的情况。
当我尝试使用这些示例时,我遇到了错误的旋转,所以对这些数字持保留态度。我还看到围绕 y 和 z 的小旋转,这与我的预期不符。
我正在使用 Unity3d 为 Project Tango 开发增强现实应用程序。
因为我想让虚拟对象与现实世界交互,我使用示例中的 Meshing with Physics 场景作为我的基础,并将 Tango AR Camera 预制件放置在 Tango Delta Camera 内(在相对位置( 0,0,0)).
我发现,我必须将 AR 相机向上旋转大约 17 度,这样动态网格才能与房间相匹配,但是相机的实时预览仍然有很大的偏移。
我想知道,是否有人以前必须处理这个问题可以分享他的解决方案,使动态网格与现实世界对齐。
如何将虚拟世界与相机图像对齐?
我遇到了类似的问题。看起来这与之前回答的几个问题有关:
Point cloud rendered only partially
Point Cloud Unity example only renders points for the upper half of display
您需要考虑彩色相机相对于设备原点的偏移量,这需要您获取相对于设备的彩色相机位姿。你不能直接这样做,但是你可以得到IMU框架中的设备,以及IMU框架中的彩色相机,来计算出设备框架中的彩色相机。上面的链接显示了示例代码。
您应该看到类似(在统一坐标中)(0.061, 0.004, -0.001) 偏移量和绕 x 轴向上旋转 13 度的情况。
当我尝试使用这些示例时,我遇到了错误的旋转,所以对这些数字持保留态度。我还看到围绕 y 和 z 的小旋转,这与我的预期不符。