1. 引言
在 Android 设备上运行 Python 代码通常面临性能、兼容性和封装等挑战。尤其是当你希望在 Android 应用中使用 Python 编写的计算密集型算法时,直接运行 Python 代码可能导致较高的 CPU 占用和较差的性能。为了解决这个问题,我们可以使用 Cython 将 Python 代码编译成 C 扩展,并通过 JNI(Java Native Interface) 在 Android 上调用这些 C 代码,从而实现高效的 Python 代码执行。
本教程将介绍如何在 Android 设备上使用 Cython 和 JNI,将 Python 代码转换为 Android 可用的本地库,并通过 Java 代码调用它。我们将以一个简单的 手势识别 算法为例,展示完整的实现过程。
2. 项目概述
本教程的目标是:
- 使用 Cython 将 Python 代码转换为 C 语言扩展,提高执行效率。
- 使用 JNI 将 C 语言扩展封装成 Android 可调用的库。
- 在 Android App 中集成 并调用这个 Python 代码转换的本地库。
我们假设你的 Python 代码是一个 基于 MediaPipe 的手部关键点检测算法,并希望它在 Android 设备上运行并返回检测结果。
3. 环境准备
在开始之前,确保你已经安装了以下工具和软件:
- Android Studio(用于 Android 开发)
- NDK(Native Development Kit)(用于编译 JNI 代码)
- Python 3.x
- Cython
- Linux 或 Windows 环境
- 一个 Python 代码库(包含手势识别算法)
如果你使用的是 Windows,建议安装 WSL(Windows Subsystem for Linux) 或者使用 MSYS2 进行交叉编译。
4. 准备 Python 代码
首先,我们假设你已经有一个 Python 代码 hand_tracking.py
,该代码使用 MediaPipe 识别手部关键点,并返回关键点坐标。
hand_tracking.py
import mediapipe as mp
import cv2
import numpy as npmp_hands = mp.solutions.hands
hands = mp_hands.Hands()def detect_hand(image):image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)results = hands.process(image)if results.multi_hand_landmarks:return [(lm.x, lm.y) for lm in results.multi_hand_landmarks[0].landmark]return []
该函数接收 OpenCV 读取的 image
,然后使用 MediaPipe 进行手部关键点检测,并返回关键点的 (x, y) 坐标。
5. 使用 Cython 将 Python 代码转换为 C 语言
5.1 编写 Cython 代码
Cython 允许我们将 Python 代码编译为 C 语言模块,从而提高执行效率。我们需要创建 hand_tracking.pyx
并将 hand_tracking.py
代码迁移到 Cython 代码中。
hand_tracking.pyx
from libc.stdlib cimport malloc, free
import mediapipe as mp
import cv2
import numpy as np
cimport numpy as npmp_hands = mp.solutions.hands
hands = mp_hands.Hands()def detect_hand(unsigned char[:] image_data, int width, int height):cdef np.ndarray[np.uint8_t, ndim=3] image = np.array(image_data).reshape((height, width, 3))image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)results = hands.process(image)if results.multi_hand_landmarks:return [(lm.x, lm.y) for lm in results.multi_hand_landmarks[0].landmark]return []
这里的 detect_hand
现在使用了 Cython 的类型注解,从而提高执行效率。
5.2 创建 setup.py
编译 Cython 代码
from setuptools import setup
from Cython.Build import cythonize
import numpysetup(ext_modules=cythonize("hand_tracking.pyx"),include_dirs=[numpy.get_include()]
)
运行以下命令进行编译:
python setup.py build_ext --inplace
成功后会生成一个 .so
或 .pyd
文件,这是我们的 C 语言扩展。
6. 使用 JNI 调用 Cython 生成的 C 代码
6.1 创建 JNI C 代码
在 jni/
目录下创建 hand_tracking_jni.c
:
#include <jni.h>
#include <stdio.h>JNIEXPORT jstring JNICALL
Java_com_example_myapp_HandTracking_detectHand(JNIEnv *env, jobject thiz, jbyteArray imageData, jint width, jint height) {// 这里调用 Cython 生成的 C 代码return (*env)->NewStringUTF(env, "手势检测结果");
}
6.2 配置 Android.mk
和 Application.mk
Android.mk
LOCAL_PATH := $(call my-dir)include $(CLEAR_VARS)
LOCAL_MODULE := hand_tracking
LOCAL_SRC_FILES := hand_tracking_jni.c
LOCAL_LDLIBS := -llog
include $(BUILD_SHARED_LIBRARY)
Application.mk
APP_ABI := armeabi-v7a arm64-v8a
APP_PLATFORM := android-21
然后使用 NDK 编译:
ndk-build
7. 在 Android App 中调用本地库
在 MainActivity.java
中调用 JNI 代码:
package com.example.myapp;public class HandTracking {static {System.loadLibrary("hand_tracking");}public native String detectHand(byte[] imageData, int width, int height);
}
在 MainActivity.java
里调用:
HandTracking handTracking = new HandTracking();
String result = handTracking.detectHand(imageData, width, height);
Log.d("HandTracking", "检测结果: " + result);
8. 运行和调试
-
构建 Cython 代码:
python setup.py build_ext --inplace
-
使用 NDK 编译 JNI 代码:
ndk-build
-
运行 Android Studio 并在真机上测试。
如果运行成功,你应该能看到 Java 代码成功调用了 detect_hand
,并返回了手势检测的结果。
9. 结论
本教程展示了如何 使用 Cython + JNI 在 Android 上运行 Python 代码,实现高效的 Python 计算逻辑封装到 Android 应用中。你可以使用相同的方法,将 机器学习、图像处理、语音识别等 Python 代码迁移到 Android,大大提升 Android 设备上的 AI 处理能力。
如果你想进一步优化,可以考虑:
- 使用 TensorFlow Lite 替代 MediaPipe
- 使用 OpenCL / Vulkan 进行 GPU 加速
- 封装多个 Python 模块 到动态库
希望本教程对你有所帮助!🚀