可以使用自定义 CPU 构建 TensorFlow lite 吗?

Can TensorFlow lite can be build with custom CPU?

我正在寻找 TF Lite Android 应用程序

可以在 GIT 上找到:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite/java/demo

如何编译 tensorflow lite 框架以使用优化的 "atom" cpu 类型?

是否可以在 MAC os 上使用 "atom" cpu 的 CPU 优化来编译它?

我想 运行 具有 "Intel Atom" 处理器的 Android 设备 (SDK 22) 上的应用程序。 当我 运行 应用程序没有通过 Android Studio 进行任何更改时,速率约为每帧 1200 毫秒 。 比较安装在我的 Galaxy S9(arm - snapdragon 处理器)上的相同 APK 每帧大约 30 毫秒

在 "build.gradle" 中有这个部分:

dependencies {
...    
compile 'org.tensorflow:tensorflow-lite:0.0.0-nightly'

...
}

看来是在下载框架,

如何使用 CPU 优化在本地编译它并设置应用程序使用它而不是下载非优化的夜间版本?

我试过运行这个教程: 使用 cpu 标志从 Sources 安装 TensorFlow,但不确定它如何帮助我解决 Android 场景..

假设您的 Atom 设备是 x86,使用 --fat_apk_cpu 标志指定 x86 ABI:

$ bazel build -c opt --cxxopt='--std=c++11' \ 
    --fat_apk_cpu=x86 \
    //tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo 

如果您正在为 64 位设备构建,请将 x86 切换为 x86_64

构建的 APK,可在 bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk 获得,将包含 x86 .so 文件:

$ zipinfo bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk | grep lib
-rw----     2.0 fat  1434712 b- defN 80-Jan-01 00:00 lib/x86/libtensorflowlite_jni.so 

如果您的设备已连接,您可以使用 bazel mobile-install 而不是 bazel build 直接安装应用程序:

$ bazel mobile-install -c opt --cxxopt='--std=c++11' \ 
  --fat_apk_cpu=x86 \ 
  --start_app \
  //tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo