Interaktion in Android

Auf dieser Seite wird erklärt, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren und mehr erhält.

Haptik

Das Haptik-Subsystem von Android bezieht sich auf Hardware- und Softwarefunktionen, die zur Erzeugung von Reizen durch den Tastsinn beitragen. Dieser Abschnitt enthält Anleitungen und Compliance-Anweisungen zur optimalen Verwendung von Android-Haptik-APIs.

Eingang

Das Android-Eingabesubsystem besteht nominell aus einer Ereignispipeline, die mehrere Schichten des Systems durchquert. Auf der untersten Ebene erzeugt das physische Eingabegerät Signale, die Zustandsänderungen wie Tastendrücke und Berührungskontaktpunkte beschreiben.

API für neuronale Netze

Die Android Neural Networks API (NNAPI) führt rechenintensive Operationen für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick über die Implementierung eines Neural Networks API-Treibers für Android 9.

Peripheriegeräte und Zubehör

Mithilfe einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, die die Android-Funktionen in einer Vielzahl von Android-Geräten erweitern.

Sensoren

Android-Sensoren ermöglichen Apps Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Dabei handelt es sich um datenbereitstellende virtuelle Geräte, die durch sensors.h , den Hardware Abstraction Layer (HAL) des Sensors, definiert werden.

Context Hub-Laufzeitumgebung

Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Apps auf Systemebene auf einem Prozessor mit geringem Stromverbrauch mit einer einfachen, standardisierten, eingebetteten API. CHRE macht es Geräte-OEMs leicht, die Verarbeitung vom Anwendungsprozessor zu entlasten, Batterie zu sparen, verschiedene Bereiche des Benutzererlebnisses zu verbessern und eine Klasse ständig verfügbarer, kontextbezogener Funktionen zu ermöglichen.