A partire dal 27 marzo 2025, ti consigliamo di utilizzare android-latest-release
anziché aosp-main
per compilare e contribuire ad AOSP. Per ulteriori informazioni, vedi Modifiche ad AOSP.
Interazione in Android
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Questa pagina spiega come Android elabora i vari input che riceve dalla tastiera, dai sensori e altro ancora.
Tecnologia aptica
Il sottosistema di tecnologia aptica di Android si riferisce alle funzionalità hardware e software che contribuiscono alla creazione di stimoli tramite il senso del tatto. Questa sezione fornisce indicazioni e istruzioni di conformità per l'utilizzo ottimale delle API di tecnologia aptica Android.
Il sottosistema di input di Android è costituito nominalmente da una pipeline di eventi che attraversa più livelli del sistema. Al livello più basso, il dispositivo di input fisico produce segnali che descrivono le modifiche dello stato, ad esempio le pressioni dei tasti e i punti di contatto touch.
API Neural Networks
L'API Android Neural Networks (NNAPI) esegue operazioni di calcolo intensivo per il machine learning. Questo documento fornisce una panoramica su come implementare un driver dell'API Neural Networks per Android 9.
Periferiche e accessori
Utilizzando una suite di protocolli standard, puoi implementare periferiche interessanti e altri accessori che estendono le funzionalità di Android in una vasta gamma di dispositivi con Android.
Sensori
I sensori Android consentono alle app di accedere ai sensori fisici di base di un dispositivo mobile. Si tratta di dispositivi virtuali che forniscono dati definiti da
sensors.h
, il livello di astrazione hardware (HAL) del sensore.
Ambiente di runtime di Context Hub
Context Hub Runtime Environment (CHRE) fornisce una piattaforma comune per l'esecuzione di app a livello di sistema su un processore a basso consumo, con un'API semplice, standardizzata e adatta all'integrazione. CHRE consente agli OEM di dispositivi di scaricare facilmente l'elaborazione dal processore delle applicazioni, di risparmiare batteria e migliorare varie aree dell'esperienza utente e di attivare una classe di funzionalità sempre attive e sensibili al contesto.
I campioni di contenuti e codice in questa pagina sono soggetti alle licenze descritte nella Licenza per i contenuti. Java e OpenJDK sono marchi o marchi registrati di Oracle e/o delle sue società consociate.
Ultimo aggiornamento 2025-07-27 UTC.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-07-27 UTC."],[],[],null,["# Interaction in Android\n\nThis page explains how Android processes the various inputs it receives from\nthe keyboard, sensors, and more.\n\nHaptics\n-------\n\nThe Android haptics subsystem refers to hardware and software features that\ncontribute to the creation of stimuli through the sense of touch. This section\nprovides guidance and compliance instructions on the best use of Android haptics\nAPIs.\n\nInput\n-----\n\nThe Android input subsystem nominally consists of an event pipeline that\ntraverses multiple layers of the system. At the lowest layer, the physical input\ndevice produces signals that describe state changes such as key presses and\ntouch contact points.\n\nNeural Networks API\n-------------------\n\nThe Android Neural Networks API (NNAPI) runs computationally intensive\noperations for machine learning. This document provides an overview on how to\nimplement a Neural Networks API driver for Android 9.\n\nPeripherals and accessories\n---------------------------\n\nUsing a suite of standard protocols, you can implement compelling peripherals\nand other accessories that extend Android capabilities in a wide range of\nAndroid-powered devices.\n\nSensors\n-------\n\nAndroid sensors give apps access to a mobile device's underlying\nphysical sensors. They are data-providing virtual devices defined by\n`sensors.h`, the sensor Hardware Abstraction Layer (HAL).\n\nContext Hub Runtime Environment\n-------------------------------\n\nContext Hub Runtime Environment (CHRE) provides a common platform for running\nsystem-level apps on a low-power processor, with a simple, standardized,\nembedded-friendly API. CHRE makes it easy for device OEMs to offload processing\nfrom the applications processor, to save battery and improve various areas of\nthe user experience, and enable a class of always-on, contextually aware\nfeatures."]]