Desde Android 10, la API de redes neuronales (NNAPI) proporciona funciones para admitir el almacenamiento en caché de artefactos de compilación, lo que reduce el tiempo utilizado para la compilación cuando se inicia una aplicación. Con esta función de almacenamiento en caché, el controlador no necesita administrar ni limpiar los archivos almacenados en caché. Esta es una función opcional que se puede implementar con NN HAL 1.2. Para obtener más información sobre esta función, consulte ANeuralNetworksCompilation_setCaching
.
El controlador también puede implementar el almacenamiento en caché de compilación independiente de la NNAPI. Esto se puede implementar ya sea que se usen o no las características de almacenamiento en caché de NNAPI NDK y HAL. AOSP proporciona una biblioteca de utilidades de bajo nivel (un motor de almacenamiento en caché). Para obtener más información, consulte Implementación de un motor de almacenamiento en caché .
Descripción general del flujo de trabajo
Esta sección describe los flujos de trabajo generales con la función de almacenamiento en caché de compilación implementada.
Información de almacenamiento en caché proporcionada y coincidencia de caché
- La aplicación pasa un directorio de almacenamiento en caché y una suma de verificación única para el modelo.
- El tiempo de ejecución de NNAPI busca los archivos de caché en función de la suma de comprobación, la preferencia de ejecución y el resultado de la partición y encuentra los archivos.
- La NNAPI abre los archivos de caché y pasa los identificadores al controlador con
prepareModelFromCache
. - El controlador prepara el modelo directamente desde los archivos de caché y devuelve el modelo preparado.
Información de almacenamiento en caché proporcionada y pérdida de caché
- La aplicación pasa una suma de verificación única para el modelo y un directorio de almacenamiento en caché.
- El tiempo de ejecución de NNAPI busca los archivos de caché en función de la suma de comprobación, la preferencia de ejecución y el resultado de la partición y no encuentra los archivos de caché.
- La NNAPI crea archivos de caché vacíos en función de la suma de comprobación, la preferencia de ejecución y la partición, abre los archivos de caché y pasa los identificadores y el modelo al controlador con
prepareModel_1_2
. - El controlador compila el modelo, escribe información de almacenamiento en caché en los archivos de caché y devuelve el modelo preparado.
Información de almacenamiento en caché no proporcionada
- La aplicación invoca la compilación sin proporcionar ninguna información de almacenamiento en caché.
- La aplicación no pasa nada relacionado con el almacenamiento en caché.
- El tiempo de ejecución de NNAPI pasa el modelo al controlador con
prepareModel_1_2
. - El controlador compila el modelo y devuelve el modelo preparado.
Información de almacenamiento en caché
La información de almacenamiento en caché que se proporciona a un controlador consiste en un token y identificadores de archivo de caché.
Simbólico
El token es un token de almacenamiento en caché de longitud Constant::BYTE_SIZE_OF_CACHE_TOKEN
que identifica el modelo preparado. Se proporciona el mismo token cuando se guardan los archivos de caché con prepareModel_1_2
y se recupera el modelo preparado con prepareModelFromCache
. El cliente del conductor debe elegir un token con una baja tasa de colisión. El conductor no puede detectar una colisión simbólica. Una colisión da como resultado una ejecución fallida o una ejecución exitosa que produce valores de salida incorrectos.
Identificadores de archivos de caché (dos tipos de archivos de caché)
Los dos tipos de archivos de caché son caché de datos y caché de modelo .
- Caché de datos: se utiliza para almacenar en caché datos constantes, incluidos los búferes de tensor transformados y preprocesados. Una modificación en la memoria caché de datos no debería tener un efecto peor que generar valores de salida incorrectos en el momento de la ejecución.
- Caché de modelo: se usa para almacenar en caché datos sensibles a la seguridad, como el código de máquina ejecutable compilado en el formato binario nativo del dispositivo. Una modificación en la memoria caché del modelo podría afectar el comportamiento de ejecución del controlador y un cliente malintencionado podría hacer uso de esto para ejecutar más allá del permiso otorgado. Por lo tanto, el controlador debe verificar si la memoria caché del modelo está dañada antes de preparar el modelo desde la memoria caché. Para obtener más información, consulte Seguridad .
El controlador debe decidir cómo se distribuye la información de caché entre los dos tipos de archivos de caché e informar cuántos archivos de caché necesita para cada tipo con getNumberOfCacheFilesNeeded
.
El tiempo de ejecución de NNAPI siempre abre identificadores de archivos de caché con permisos de lectura y escritura.
Seguridad
En el almacenamiento en caché de compilación, el modelo de caché puede contener datos sensibles a la seguridad, como código de máquina ejecutable compilado en el formato binario nativo del dispositivo. Si no se protege adecuadamente, una modificación en la memoria caché del modelo puede afectar el comportamiento de ejecución del controlador. Debido a que el contenido del caché se almacena en el directorio de la aplicación, el cliente puede modificar los archivos del caché. Un cliente con errores puede corromper accidentalmente la memoria caché, y un cliente malicioso podría hacer uso de esto intencionalmente para ejecutar código no verificado en el dispositivo. Dependiendo de las características del dispositivo, esto puede ser un problema de seguridad. Por lo tanto, el controlador debe poder detectar posibles daños en la memoria caché del modelo antes de preparar el modelo desde la memoria caché.
Una forma de hacer esto es que el controlador mantenga un mapa desde el token hasta un hash criptográfico de la memoria caché del modelo. El controlador puede almacenar el token y el hash de la memoria caché de su modelo al guardar la compilación en la memoria caché. El controlador comprueba el nuevo hash de la memoria caché del modelo con el token registrado y el par de hash al recuperar la compilación de la memoria caché. Esta asignación debe ser persistente durante los reinicios del sistema. El controlador puede usar el servicio de almacenamiento de claves de Android , la biblioteca de utilidades en framework/ml/nn/driver/cache
o cualquier otro mecanismo adecuado para implementar un administrador de mapeo. Tras la actualización del controlador, este administrador de mapas debe reiniciarse para evitar la preparación de archivos de caché de una versión anterior.
Para evitar ataques de tiempo de verificación a tiempo de uso (TOCTOU), el controlador debe calcular el hash registrado antes de guardarlo en el archivo y calcular el nuevo hash después de copiar el contenido del archivo en un búfer interno.
Este código de ejemplo demuestra cómo implementar esta lógica.
bool saveToCache(const sp<V1_2::IPreparedModel> preparedModel,
const hidl_vec<hidl_handle>& modelFds, const hidl_vec<hidl_handle>& dataFds,
const HidlToken& token) {
// Serialize the prepared model to internal buffers.
auto buffers = serialize(preparedModel);
// This implementation detail is important: the cache hash must be computed from internal
// buffers instead of cache files to prevent time-of-check to time-of-use (TOCTOU) attacks.
auto hash = computeHash(buffers);
// Store the {token, hash} pair to a mapping manager that is persistent across reboots.
CacheManager::get()->store(token, hash);
// Write the cache contents from internal buffers to cache files.
return writeToFds(buffers, modelFds, dataFds);
}
sp<V1_2::IPreparedModel> prepareFromCache(const hidl_vec<hidl_handle>& modelFds,
const hidl_vec<hidl_handle>& dataFds,
const HidlToken& token) {
// Copy the cache contents from cache files to internal buffers.
auto buffers = readFromFds(modelFds, dataFds);
// This implementation detail is important: the cache hash must be computed from internal
// buffers instead of cache files to prevent time-of-check to time-of-use (TOCTOU) attacks.
auto hash = computeHash(buffers);
// Validate the {token, hash} pair by a mapping manager that is persistent across reboots.
if (CacheManager::get()->validate(token, hash)) {
// Retrieve the prepared model from internal buffers.
return deserialize<V1_2::IPreparedModel>(buffers);
} else {
return nullptr;
}
}
Casos de uso avanzados
En ciertos casos de uso avanzado, un controlador requiere acceso al contenido de la memoria caché (lectura o escritura) después de la llamada de compilación. Ejemplos de casos de uso incluyen:
- Compilación justo a tiempo: La compilación se retrasa hasta la primera ejecución.
- Compilación de varias etapas: Inicialmente se realiza una compilación rápida y posteriormente se realiza una compilación optimizada opcional, según la frecuencia de uso.
Para acceder al contenido de la memoria caché (lectura o escritura) después de la llamada de compilación, asegúrese de que el controlador:
- Duplica los identificadores de archivos durante la invocación de
prepareModel_1_2
oprepareModelFromCache
y lee/actualiza el contenido de la memoria caché en un momento posterior. - Implementa la lógica de bloqueo de archivos fuera de la llamada de compilación normal para evitar que se produzca una escritura al mismo tiempo que una lectura u otra escritura.
Implementación de un motor de almacenamiento en caché
Además de la interfaz de almacenamiento en caché de la compilación NN HAL 1.2, también puede encontrar una biblioteca de utilidades de almacenamiento en caché en el directorio frameworks/ml/nn/driver/cache
. El subdirectorio nnCache
contiene código de almacenamiento persistente para que el controlador implemente el almacenamiento en caché de compilación sin utilizar las funciones de almacenamiento en caché NNAPI. Esta forma de almacenamiento en caché de compilación se puede implementar con cualquier versión de NN HAL. Si el controlador elige implementar el almacenamiento en caché desconectado de la interfaz HAL, el controlador es responsable de liberar los artefactos almacenados en caché cuando ya no se necesiten.