在 Unity3D 中构建后,如何使 IBM Watson VR Speech Sandbox 在 Android 上运行
How to make IBM Watson VR Speech Sandbox work on Android after building in Unity3D
我需要有关从 unity3D 在移动设备上部署 IBM Watson 语音识别的帮助。
我正在为 Google 纸板开发 VR 应用程序。这个想法是让应用程序中的事件根据语音命令触发。例如,如果我说 "Hello",该词应该在应用程序中触发一个动作。
最初,它在 HTC Vive 和 Oculus Rift 上完美运行。
现在,我将相同的语音识别代码移植到手机上,但它无法正常工作。
怎么办?我决定使用 IBM Watson STT(语音转文本)和对话服务来使用 Watson SDK for Unity 和 IBM Speech Sandbox 来实现我想要的结果。它终于开始在统一编辑器的播放模式下工作。也就是说,该应用程序运行完美,可以识别我的声音或任何其他语音输入并触发相关的应用程序内操作。
现在的问题是,一旦我构建到 Android phone,连接到互联网(Watson 需要互联网连接才能在我的应用程序和云之间发送数据),打开应用设置中应用权限的 microphone 选项,它无法识别我的语音输入或任何其他人的语音输入。但在编辑器中,它工作正常。我已经尽我所能,完成了所有我知道的调试,语音识别仍然无法在 Cardboard 上工作。
感谢您的宝贵时间。
Android 构建无法连接到 TLS 1.2 端点。请将您的端点更改为
conversation
https://gateway-tls10.watsonplatform.net/conversation/api
speech to text
https://stream-tls10.watsonplatform.net/speech-to-text/api
我需要有关从 unity3D 在移动设备上部署 IBM Watson 语音识别的帮助。
我正在为 Google 纸板开发 VR 应用程序。这个想法是让应用程序中的事件根据语音命令触发。例如,如果我说 "Hello",该词应该在应用程序中触发一个动作。
最初,它在 HTC Vive 和 Oculus Rift 上完美运行。 现在,我将相同的语音识别代码移植到手机上,但它无法正常工作。
怎么办?我决定使用 IBM Watson STT(语音转文本)和对话服务来使用 Watson SDK for Unity 和 IBM Speech Sandbox 来实现我想要的结果。它终于开始在统一编辑器的播放模式下工作。也就是说,该应用程序运行完美,可以识别我的声音或任何其他语音输入并触发相关的应用程序内操作。
现在的问题是,一旦我构建到 Android phone,连接到互联网(Watson 需要互联网连接才能在我的应用程序和云之间发送数据),打开应用设置中应用权限的 microphone 选项,它无法识别我的语音输入或任何其他人的语音输入。但在编辑器中,它工作正常。我已经尽我所能,完成了所有我知道的调试,语音识别仍然无法在 Cardboard 上工作。
感谢您的宝贵时间。
Android 构建无法连接到 TLS 1.2 端点。请将您的端点更改为
conversation
https://gateway-tls10.watsonplatform.net/conversation/api
speech to text
https://stream-tls10.watsonplatform.net/speech-to-text/api