Interaktion in Android

Auf dieser Seite wird erläutert, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren und mehr erhält.

Haptik

Das haptische Subsystem von Android bezieht sich auf Hardware- und Softwarefunktionen, die zur Erzeugung von Reizen durch den Tastsinn beitragen. Dieser Abschnitt enthält Anleitungen und Compliance-Anweisungen zur optimalen Verwendung von Android-Haptik-APIs.

Eingang

Das Android-Eingabesubsystem besteht nominell aus einer Ereignispipeline, die mehrere Schichten des Systems durchläuft. Auf der untersten Ebene erzeugt das physische Eingabegerät Signale, die Zustandsänderungen wie Tastendrücke und Berührungskontaktpunkte beschreiben.

Neuronale Netze

Die Android Neural Networks API (NNAPI) führt rechenintensive Vorgänge für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick über die Implementierung eines API-Treibers für neuronale Netzwerke für Android 9.

Peripherie und Zubehör

Mit einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, das die Android-Funktionen in einer Vielzahl von Android-Geräten erweitert.

Sensoren

Android-Sensoren geben Apps Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Sie sind datenbereitstellende virtuelle Geräte, die von sensors.h , dem Hardware Abstraction Layer (HAL) des Sensors, definiert werden.

Context Hub-Laufzeitumgebung

Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Anwendungen auf Systemebene auf einem Prozessor mit geringem Stromverbrauch mit einer einfachen, standardisierten, eingebetteten API. CHRE macht es Geräte-OEMs leicht, die Verarbeitung vom Anwendungsprozessor zu entlasten, Batterie zu sparen und verschiedene Bereiche der Benutzererfahrung zu verbessern und eine Klasse von immer verfügbaren, kontextsensitiven Funktionen zu ermöglichen.