Exécutions intensives et files d'attente de messages rapides

HAL 1.2 des réseaux de neurones introduit le concept d'exécutions par rafale. Les exécutions intensives sont une séquence d'exécutions du même modèle préparé qui se succèdent rapidement, telles que celles exécutées au niveau des trames d'une capture d'échantillons audio successifs tirés d'une caméra. Un objet burst permet de contrôler un ensemble d'exécutions burst et de préserver les ressources entre les exécutions, ce qui permet de réduire la surcharge des exécutions. Les objets de rafale permettent trois optimisations :

  1. Un objet burst est créé avant une séquence d'exécutions et libéré lorsque la séquence est terminée. Pour cette raison, la durée de vie de l'objet burst indique à un pilote combien de temps il doit rester dans un état de hautes performances.
  2. Un objet burst peut préserver les ressources entre les exécutions. Par exemple, un pilote peut mapper un objet mémoire lors de la première exécution et mettre en cache le mappage dans l'objet burst pour le réutiliser lors des exécutions suivantes. Toute ressource mise en cache peut être libérée lorsque l'objet burst est détruit ou lorsque le runtime NNAPI informe l'objet burst que la ressource n'est plus requise.
  3. Un objet burst utilise des files d'attente de messages rapides (FMQ) pour communiquer entre les processus d'application et de pilote. Cela peut réduire la latence, car la FMQ contourne HIDL et transmet les données directement à un autre processus via un FIFO circulaire atomique en mémoire partagée. Le processus consommateur sait qu'il doit retirer un élément de la file d'attente et commencer le traitement en interrogeant le nombre d'éléments dans la FIFO ou en attendant le signalement du flag d'événement de la FMQ par le producteur. Cet indicateur d'événement est un mutex (futex) rapide de l'espace utilisateur.

Une FMQ est une structure de données de bas niveau qui n'offre aucune garantie de durée de vie entre les processus et qui ne dispose d'aucun mécanisme intégré permettant de déterminer si le processus à l'autre extrémité de la FMQ s'exécute comme prévu. Par conséquent, si le producteur de la FMQ meurt, le consommateur peut être bloqué en attendant des données qui n'arriveront jamais. Une solution à ce problème consiste à ce que le pilote associe les FMQ à l'objet de rafale de niveau supérieur pour détecter la fin de l'exécution de la rafale.

Étant donné que les exécutions par rafale fonctionnent sur les mêmes arguments et renvoient les mêmes résultats que les autres chemins d'exécution, les FMQ sous-jacentes doivent transmettre les mêmes données aux pilotes de service NNAPI et à partir de ceux-ci. Toutefois, les FMQ ne peuvent transférer que des types de données simples. Le transfert de données complexes s'effectue en sérialisant et en désérialisant les tampons imbriqués (types de vecteurs) directement dans les FMQ, et en utilisant des objets de rappel HIDL pour transférer les handles de pool de mémoire à la demande. Le côté producteur de la FMQ doit envoyer les messages de requête ou de résultat au consommateur de manière atomique en utilisant MessageQueue::writeBlocking si la file d'attente est bloquante, ou en utilisant MessageQueue::write si la file d'attente n'est pas bloquante.

Interfaces de rafale

Les interfaces de rafale pour le HAL des réseaux de neurones se trouvent dans hardware/interfaces/neuralnetworks/1.2/ et sont décrites ci-dessous. Pour en savoir plus sur les interfaces de rafale dans la couche NDK, consultez frameworks/ml/nn/runtime/include/NeuralNetworks.h.

types.hal

types.hal définit le type de données envoyées via la FMQ.

  • FmqRequestDatum : élément unique d'une représentation sérialisée d'un objet Request d'exécution et d'une valeur MeasureTiming, qui est envoyé dans la file d'attente de messages rapides.
  • FmqResultDatum : élément unique d'une représentation sérialisée des valeurs renvoyées par une exécution (ErrorStatus, OutputShapes et Timing), qui est renvoyé via la file d'attente de messages rapides.

IBurstContext.hal

IBurstContext.hal définit l'objet d'interface HIDL qui réside dans le service Neural Networks.

  • IBurstContext : objet de contexte permettant de gérer les ressources d'un burst.

IBurstCallback.hal

IBurstCallback.hal définit l'objet d'interface HIDL pour un rappel créé par le runtime Neural Networks et est utilisé par le service Neural Networks pour récupérer les objets hidl_memory correspondant aux identifiants de slot.

  • IBurstCallback : objet de rappel utilisé par un service pour récupérer des objets de mémoire.

IPreparedModel.hal

IPreparedModel.hal est étendu dans HAL 1.2 avec une méthode permettant de créer un objet IBurstContext à partir d'un modèle préparé.

  • configureExecutionBurst : Configure un objet burst utilisé pour exécuter plusieurs inférences sur un modèle préparé en succession rapide.

Gérer les exécutions intensives dans un pilote

Le moyen le plus simple de prendre en charge les objets burst dans un service HIDL NNAPI consiste à utiliser la fonction utilitaire burst ::android::nn::ExecutionBurstServer::create, qui se trouve dans ExecutionBurstServer.h et est incluse dans les bibliothèques statiques libneuralnetworks_common et libneuralnetworks_util. Cette fonction de fabrique comporte deux surcharges :

  • Une surcharge accepte un pointeur vers un objet IPreparedModel. Cette fonction utilitaire utilise la méthode executeSynchronously dans un objet IPreparedModel pour exécuter le modèle.
  • Une surcharge accepte un objet IBurstExecutorWithCache personnalisable, qui peut être utilisé pour mettre en cache les ressources (telles que les mappages hidl_memory) qui persistent sur plusieurs exécutions.

Chaque surcharge renvoie un objet IBurstContext (qui représente l'objet burst) qui contient et gère son propre thread d'écouteur dédié. Ce thread reçoit les requêtes de la FMQ requestChannel, effectue l'inférence, puis renvoie les résultats via la FMQ resultChannel. Ce thread et toutes les autres ressources contenues dans l'objet IBurstContext sont automatiquement libérés lorsque le client du burst perd sa référence à IBurstContext.

Vous pouvez également créer votre propre implémentation de IBurstContext qui comprend comment envoyer et recevoir des messages sur les FMQ requestChannel et resultChannel transmis à IPreparedModel::configureExecutionBurst.

Les fonctions utilitaires de burst se trouvent dans ExecutionBurstServer.h.

/**
 * Create automated context to manage FMQ-based executions.
 *
 * This function is intended to be used by a service to automatically:
 * 1) Receive data from a provided FMQ
 * 2) Execute a model with the given information
 * 3) Send the result to the created FMQ
 *
 * @param callback Callback used to retrieve memories corresponding to
 *     unrecognized slots.
 * @param requestChannel Input FMQ channel through which the client passes the
 *     request to the service.
 * @param resultChannel Output FMQ channel from which the client can retrieve
 *     the result of the execution.
 * @param executorWithCache Object which maintains a local cache of the
 *     memory pools and executes using the cached memory pools.
 * @result IBurstContext Handle to the burst context.
 */
static sp<ExecutionBurstServer> create(
        const sp<IBurstCallback>& callback, const FmqRequestDescriptor& requestChannel,
        const FmqResultDescriptor& resultChannel,
        std::shared_ptr<IBurstExecutorWithCache> executorWithCache);

/**
 * Create automated context to manage FMQ-based executions.
 *
 * This function is intended to be used by a service to automatically:
 * 1) Receive data from a provided FMQ
 * 2) Execute a model with the given information
 * 3) Send the result to the created FMQ
 *
 * @param callback Callback used to retrieve memories corresponding to
 *     unrecognized slots.
 * @param requestChannel Input FMQ channel through which the client passes the
 *     request to the service.
 * @param resultChannel Output FMQ channel from which the client can retrieve
 *     the result of the execution.
 * @param preparedModel PreparedModel that the burst object was created from.
 *     IPreparedModel::executeSynchronously will be used to perform the
 *     execution.
 * @result IBurstContext Handle to the burst context.
 */
  static sp<ExecutionBurstServer> create(const sp<IBurstCallback>& callback,
                                         const FmqRequestDescriptor& requestChannel,
                                         const FmqResultDescriptor& resultChannel,
                                         IPreparedModel* preparedModel);

Vous trouverez ci-dessous une implémentation de référence d'une interface de rafale dans l'exemple de pilote de réseaux de neurones à l'adresse frameworks/ml/nn/driver/sample/SampleDriver.cpp.

Return<void> SamplePreparedModel::configureExecutionBurst(
        const sp<V1_2::IBurstCallback>& callback,
        const MQDescriptorSync<V1_2::FmqRequestDatum>& requestChannel,
        const MQDescriptorSync<V1_2::FmqResultDatum>& resultChannel,
        configureExecutionBurst_cb cb) {
    NNTRACE_FULL(NNTRACE_LAYER_DRIVER, NNTRACE_PHASE_EXECUTION,
                 "SampleDriver::configureExecutionBurst");
    // Alternatively, the burst could be configured via:
    // const sp<V1_2::IBurstContext> burst =
    //         ExecutionBurstServer::create(callback, requestChannel,
    //                                      resultChannel, this);
    //
    // However, this alternative representation does not include a memory map
    // caching optimization, and adds overhead.
    const std::shared_ptr<BurstExecutorWithCache> executorWithCache =
            std::make_shared<BurstExecutorWithCache>(mModel, mDriver, mPoolInfos);
    const sp<V1_2::IBurstContext> burst = ExecutionBurstServer::create(
            callback, requestChannel, resultChannel, executorWithCache);
    if (burst == nullptr) {
        cb(ErrorStatus::GENERAL_FAILURE, {});
    } else {
        cb(ErrorStatus::NONE, burst);
    }
    return Void();
}