可以使用自定义 CPU 构建 TensorFlow lite 吗?
Can TensorFlow lite can be build with custom CPU?
我正在寻找 TF Lite Android 应用程序
可以在 GIT 上找到:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite/java/demo
如何编译 tensorflow lite 框架以使用优化的 "atom" cpu 类型?
是否可以在 MAC os 上使用 "atom" cpu 的 CPU 优化来编译它?
我想 运行 具有 "Intel Atom" 处理器的 Android 设备 (SDK 22) 上的应用程序。
当我 运行 应用程序没有通过 Android Studio 进行任何更改时,速率约为每帧 1200 毫秒 。
比较安装在我的 Galaxy S9(arm - snapdragon 处理器)上的相同 APK 每帧大约 30 毫秒。
在 "build.gradle" 中有这个部分:
dependencies {
...
compile 'org.tensorflow:tensorflow-lite:0.0.0-nightly'
...
}
看来是在下载框架,
如何使用 CPU 优化在本地编译它并设置应用程序使用它而不是下载非优化的夜间版本?
我试过运行这个教程:
使用 cpu 标志从 Sources 安装 TensorFlow,但不确定它如何帮助我解决 Android 场景..
假设您的 Atom 设备是 x86,使用 --fat_apk_cpu
标志指定 x86
ABI:
$ bazel build -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo
如果您正在为 64 位设备构建,请将 x86
切换为 x86_64
。
构建的 APK,可在 bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk
获得,将包含 x86 .so
文件:
$ zipinfo bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk | grep lib
-rw---- 2.0 fat 1434712 b- defN 80-Jan-01 00:00 lib/x86/libtensorflowlite_jni.so
如果您的设备已连接,您可以使用 bazel mobile-install
而不是 bazel build
直接安装应用程序:
$ bazel mobile-install -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
--start_app \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo
我正在寻找 TF Lite Android 应用程序
可以在 GIT 上找到:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite/java/demo
如何编译 tensorflow lite 框架以使用优化的 "atom" cpu 类型?
是否可以在 MAC os 上使用 "atom" cpu 的 CPU 优化来编译它?
我想 运行 具有 "Intel Atom" 处理器的 Android 设备 (SDK 22) 上的应用程序。 当我 运行 应用程序没有通过 Android Studio 进行任何更改时,速率约为每帧 1200 毫秒 。 比较安装在我的 Galaxy S9(arm - snapdragon 处理器)上的相同 APK 每帧大约 30 毫秒。
在 "build.gradle" 中有这个部分:
dependencies {
...
compile 'org.tensorflow:tensorflow-lite:0.0.0-nightly'
...
}
看来是在下载框架,
如何使用 CPU 优化在本地编译它并设置应用程序使用它而不是下载非优化的夜间版本?
我试过运行这个教程: 使用 cpu 标志从 Sources 安装 TensorFlow,但不确定它如何帮助我解决 Android 场景..
假设您的 Atom 设备是 x86,使用 --fat_apk_cpu
标志指定 x86
ABI:
$ bazel build -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo
如果您正在为 64 位设备构建,请将 x86
切换为 x86_64
。
构建的 APK,可在 bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk
获得,将包含 x86 .so
文件:
$ zipinfo bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk | grep lib
-rw---- 2.0 fat 1434712 b- defN 80-Jan-01 00:00 lib/x86/libtensorflowlite_jni.so
如果您的设备已连接,您可以使用 bazel mobile-install
而不是 bazel build
直接安装应用程序:
$ bazel mobile-install -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
--start_app \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo