从 MVA 迁移到 MLK
Migrate from MVA to MLK
4 个月以来,我一直在使用 Mobile Vision Android [MVA]. Which only require to use the play service and this tutorial Codelab. However since the beginning of the month Google came with a new version Machine Learning Kit [MLK] 和 :
开展一个项目
with new capabilities.
他们 :
strongly encourage us to try it out
我的问题是新的 MLK 是基础 Firebase。也就是说,我们必须使用一个 google 开发帐户,这个 Setup 和很多烦人的东西 link 我们的项目 Google (在我心里,说错了告诉我).
我的第一个问题 [由@Ian Barber 回答] 是:有没有一种方法可以在不使用 firebase 进行所有这些设置的情况下使用 MLK ?或者像我使用 MVA 一样使用它,只需实现一个依赖项就可以了?
编辑:
我的应用程序使用 Codelab of [MVA]. Which mean I was able to detect text in video stream (from the camera). All the optimisation of frame capture, processing etc... was taking into account by multiple well constructed thread. But now there is no example of video processing with [MLK]。如果没有 MVA 功能的工作,仅使用 MLK,Camera Source 和 Preview 的实现看起来几乎是不可能的。
我的第二个问题(根据迁移)是:如何使用CameraSource、CameraSourcePreview。就像我们在 MVA 中使用相机源进行文本检测
ML Kit 具有比 mobilevision 更广泛的功能集,因此有些功能依赖于 Firebase 项目。也就是说,如果您只想在设备上使用,您不应该比现在更依赖于 Google:虽然有更多步骤,但您不必实际使用任何其他 Firebase 或 ML如果你不想的话,套件服务!
Firebase 的唯一额外应用更改(除了添加依赖项)是设置插件。这实际上只是一个将 Firebase 中的配置文件处理为资源文件的便利工具。您可以在 documentation 中看到它在做什么 - 如果您愿意,只需自己对资源值进行硬编码。
关于你问题的第二部分:
how to use the CameraSource, CameraSourcePreview. Like we used in MVA to work on a camera source for text Detection?
你能看看Android ML Kit Quickstart app吗?它包含示例应用程序代码,用于使用相机源并通过 ML Kit 进行预览。
4 个月以来,我一直在使用 Mobile Vision Android [MVA]. Which only require to use the play service and this tutorial Codelab. However since the beginning of the month Google came with a new version Machine Learning Kit [MLK] 和 :
开展一个项目with new capabilities.
他们 :
strongly encourage us to try it out
我的问题是新的 MLK 是基础 Firebase。也就是说,我们必须使用一个 google 开发帐户,这个 Setup 和很多烦人的东西 link 我们的项目 Google (在我心里,说错了告诉我).
我的第一个问题 [由@Ian Barber 回答] 是:有没有一种方法可以在不使用 firebase 进行所有这些设置的情况下使用 MLK ?或者像我使用 MVA 一样使用它,只需实现一个依赖项就可以了?
编辑: 我的应用程序使用 Codelab of [MVA]. Which mean I was able to detect text in video stream (from the camera). All the optimisation of frame capture, processing etc... was taking into account by multiple well constructed thread. But now there is no example of video processing with [MLK]。如果没有 MVA 功能的工作,仅使用 MLK,Camera Source 和 Preview 的实现看起来几乎是不可能的。
我的第二个问题(根据迁移)是:如何使用CameraSource、CameraSourcePreview。就像我们在 MVA 中使用相机源进行文本检测
ML Kit 具有比 mobilevision 更广泛的功能集,因此有些功能依赖于 Firebase 项目。也就是说,如果您只想在设备上使用,您不应该比现在更依赖于 Google:虽然有更多步骤,但您不必实际使用任何其他 Firebase 或 ML如果你不想的话,套件服务!
Firebase 的唯一额外应用更改(除了添加依赖项)是设置插件。这实际上只是一个将 Firebase 中的配置文件处理为资源文件的便利工具。您可以在 documentation 中看到它在做什么 - 如果您愿意,只需自己对资源值进行硬编码。
关于你问题的第二部分:
how to use the CameraSource, CameraSourcePreview. Like we used in MVA to work on a camera source for text Detection?
你能看看Android ML Kit Quickstart app吗?它包含示例应用程序代码,用于使用相机源并通过 ML Kit 进行预览。