À partir du 27 mars 2025, nous vous recommandons d'utiliser android-latest-release
au lieu de aosp-main
pour créer et contribuer à AOSP. Pour en savoir plus, consultez la section Modifications apportées à AOSP.
Interaction dans Android
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page explique comment Android traite les différentes entrées qu'il reçoit du clavier, des capteurs, etc.
Technologie tactile
Le sous-système haptique Android fait référence aux fonctionnalités matérielles et logicielles qui contribuent à la création de stimuli via le sens du toucher. Cette section fournit des conseils et des instructions de conformité sur l'utilisation optimale des API haptiques Android.
Le sous-système d'entrée Android se compose nominalement d'un pipeline d'événements qui traverse plusieurs couches du système. Au niveau de la couche la plus basse, le périphérique d'entrée physique produit des signaux qui décrivent les changements d'état tels que les pressions sur les touches et les points de contact tactiles.
API Neural Networks
L'API Android Neural Networks (NNAPI) exécute des opérations nécessitant beaucoup de ressources de calcul pour le machine learning. Ce document explique comment implémenter un pilote d'API de réseaux de neurones pour Android 9.
Périphériques et accessoires
À l'aide d'une suite de protocoles standards, vous pouvez implémenter des périphériques et d'autres accessoires attrayants qui étendent les fonctionnalités d'Android sur une large gamme d'appareils Android.
Capteurs
Les capteurs Android permettent aux applications d'accéder aux capteurs physiques sous-jacents d'un appareil mobile. Il s'agit d'appareils virtuels fournissant des données définis par sensors.h
, la couche d'abstraction matérielle (HAL) du capteur.
Environnement d'exécution du hub contextuel
L'environnement d'exécution du hub contextuel (CHRE) fournit une plate-forme commune pour exécuter des applications au niveau du système sur un processeur à faible consommation d'énergie, avec une API simple, standardisée et adaptée à l'intégration. La CHRE permet aux OEM d'appareils de décharger facilement le traitement du processeur d'application, d'économiser la batterie et d'améliorer divers aspects de l'expérience utilisateur, et de permettre une classe de fonctionnalités toujours activées et sensibles au contexte.
Le contenu et les exemples de code de cette page sont soumis aux licences décrites dans la Licence de contenu. Java et OpenJDK sont des marques ou des marques déposées d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/27 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/07/27 (UTC)."],[],[],null,["# Interaction in Android\n\nThis page explains how Android processes the various inputs it receives from\nthe keyboard, sensors, and more.\n\nHaptics\n-------\n\nThe Android haptics subsystem refers to hardware and software features that\ncontribute to the creation of stimuli through the sense of touch. This section\nprovides guidance and compliance instructions on the best use of Android haptics\nAPIs.\n\nInput\n-----\n\nThe Android input subsystem nominally consists of an event pipeline that\ntraverses multiple layers of the system. At the lowest layer, the physical input\ndevice produces signals that describe state changes such as key presses and\ntouch contact points.\n\nNeural Networks API\n-------------------\n\nThe Android Neural Networks API (NNAPI) runs computationally intensive\noperations for machine learning. This document provides an overview on how to\nimplement a Neural Networks API driver for Android 9.\n\nPeripherals and accessories\n---------------------------\n\nUsing a suite of standard protocols, you can implement compelling peripherals\nand other accessories that extend Android capabilities in a wide range of\nAndroid-powered devices.\n\nSensors\n-------\n\nAndroid sensors give apps access to a mobile device's underlying\nphysical sensors. They are data-providing virtual devices defined by\n`sensors.h`, the sensor Hardware Abstraction Layer (HAL).\n\nContext Hub Runtime Environment\n-------------------------------\n\nContext Hub Runtime Environment (CHRE) provides a common platform for running\nsystem-level apps on a low-power processor, with a simple, standardized,\nembedded-friendly API. CHRE makes it easy for device OEMs to offload processing\nfrom the applications processor, to save battery and improve various areas of\nthe user experience, and enable a class of always-on, contextually aware\nfeatures."]]