使用 Google Home 或 Alexa 的 TTS
Utilizing Google Home or Alexa's TTS
我正在尝试为 Google Home 或 Alexa 构建一个端点,这样我就可以在应用程序中处理文本,并为任一设备发出响应以使用其文本到语音。
我查看了 Google's Actions SDK 并设置了示例项目,但我对使用 Google 的云平台的目的是什么感到有点困惑。是云平台将用户的语音处理成文本,还是 Google Home 做的?
一个语音应用通常由几个元素组成:
- 音频输入 通过支持语音的设备
- 语音识别,由 Alexa 或 Google Actions
等语音平台完成
- 自然语言理解,理解文本
- 代码,它使用NLU提供的数据和returns一个文本来响应用户
对于您关于 Google 操作的具体问题,Google 平台上的操作执行 语音识别 ,通常 Google 动作的自然语言理解 部分由 Dialogflow 完成。
当您在 Google SDK 上使用 Actions 时,Google 云平台用于托管您应用的 代码。如果您想将 JSON 托管在其他地方,您也可以自己解析它,或者使用像 Jovo, which allows you to host voice applications on your own server or on AWS Lambda. Here's a simple tutorial for Google Actions: https://www.jovo.tech/blog/google-action-tutorial-nodejs/
这样的框架
如果您真的只是对使用文本到语音输出感兴趣,您还可以考虑其他方式,例如您可以使用 Amazon Polly,一项允许您以编程方式或手动方式执行 TTS 的服务,尽管它现在不提供 Alexa 语音。
我正在尝试为 Google Home 或 Alexa 构建一个端点,这样我就可以在应用程序中处理文本,并为任一设备发出响应以使用其文本到语音。
我查看了 Google's Actions SDK 并设置了示例项目,但我对使用 Google 的云平台的目的是什么感到有点困惑。是云平台将用户的语音处理成文本,还是 Google Home 做的?
一个语音应用通常由几个元素组成:
- 音频输入 通过支持语音的设备
- 语音识别,由 Alexa 或 Google Actions 等语音平台完成
- 自然语言理解,理解文本
- 代码,它使用NLU提供的数据和returns一个文本来响应用户
对于您关于 Google 操作的具体问题,Google 平台上的操作执行 语音识别 ,通常 Google 动作的自然语言理解 部分由 Dialogflow 完成。
当您在 Google SDK 上使用 Actions 时,Google 云平台用于托管您应用的 代码。如果您想将 JSON 托管在其他地方,您也可以自己解析它,或者使用像 Jovo, which allows you to host voice applications on your own server or on AWS Lambda. Here's a simple tutorial for Google Actions: https://www.jovo.tech/blog/google-action-tutorial-nodejs/
这样的框架如果您真的只是对使用文本到语音输出感兴趣,您还可以考虑其他方式,例如您可以使用 Amazon Polly,一项允许您以编程方式或手动方式执行 TTS 的服务,尽管它现在不提供 Alexa 语音。