A partir de 27 de março de 2025, recomendamos usar android-latest-release
em vez de aosp-main
para criar e contribuir com o AOSP. Para mais informações, consulte Mudanças no AOSP.
Interação no Android
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Esta página explica como o Android processa as várias entradas recebidas do
teclado, sensores e muito mais.
Retorno tátil
O subsistema de haptics do Android se refere aos recursos de hardware e software que
contribuem para a criação de estímulos pelo sentido do tato. Esta seção
oferece orientações e instruções de compliance sobre o melhor uso das APIs de retorno tátil
do Android.
O subsistema de entrada do Android consiste nominalmente em um pipeline de eventos que
atravessa várias camadas do sistema. Na camada mais baixa, o dispositivo de entrada
físico produz sinais que descrevem mudanças de estado, como pressionamentos de tecla e
pontos de contato por toque.
API Neural Networks
A API Android Neural Networks (NNAPI) executa operações com uso intenso de recursos computacionais
para aprendizado de máquina. Este documento apresenta uma visão geral de como
implementar um driver da API Neural Networks para o Android 9.
Periféricos e acessórios
Usando um conjunto de protocolos padrão, é possível implementar periféricos atraentes
e outros acessórios que estendem os recursos do Android em uma ampla variedade de
dispositivos com tecnologia Android.
Sensores
Os sensores do Android dão aos apps acesso aos sensores físicos
subjacentes de um dispositivo móvel. Eles são dispositivos virtuais que fornecem dados definidos por
sensors.h
, a camada de abstração de hardware (HAL) do sensor.
Ambiente de execução do hub de contexto
O ambiente de execução do hub de contexto (CHRE, na sigla em inglês) oferece uma plataforma comum para executar
apps no nível do sistema em um processador de baixo consumo, com uma API simples, padronizada
e integrada. A CHRE facilita para os OEMs de dispositivos o processamento de desativação
do processador de aplicativos, para economizar bateria e melhorar várias áreas da
experiência do usuário e ativar uma classe de recursos sempre ativos e
contextualizados.
O conteúdo e os exemplos de código nesta página estão sujeitos às licenças descritas na Licença de conteúdo. Java e OpenJDK são marcas registradas da Oracle e/ou suas afiliadas.
Última atualização 2025-07-27 UTC.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-27 UTC."],[],[],null,["# Interaction in Android\n\nThis page explains how Android processes the various inputs it receives from\nthe keyboard, sensors, and more.\n\nHaptics\n-------\n\nThe Android haptics subsystem refers to hardware and software features that\ncontribute to the creation of stimuli through the sense of touch. This section\nprovides guidance and compliance instructions on the best use of Android haptics\nAPIs.\n\nInput\n-----\n\nThe Android input subsystem nominally consists of an event pipeline that\ntraverses multiple layers of the system. At the lowest layer, the physical input\ndevice produces signals that describe state changes such as key presses and\ntouch contact points.\n\nNeural Networks API\n-------------------\n\nThe Android Neural Networks API (NNAPI) runs computationally intensive\noperations for machine learning. This document provides an overview on how to\nimplement a Neural Networks API driver for Android 9.\n\nPeripherals and accessories\n---------------------------\n\nUsing a suite of standard protocols, you can implement compelling peripherals\nand other accessories that extend Android capabilities in a wide range of\nAndroid-powered devices.\n\nSensors\n-------\n\nAndroid sensors give apps access to a mobile device's underlying\nphysical sensors. They are data-providing virtual devices defined by\n`sensors.h`, the sensor Hardware Abstraction Layer (HAL).\n\nContext Hub Runtime Environment\n-------------------------------\n\nContext Hub Runtime Environment (CHRE) provides a common platform for running\nsystem-level apps on a low-power processor, with a simple, standardized,\nembedded-friendly API. CHRE makes it easy for device OEMs to offload processing\nfrom the applications processor, to save battery and improve various areas of\nthe user experience, and enable a class of always-on, contextually aware\nfeatures."]]