Auf dieser Seite wird erläutert, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren usw. erhält.
Haptik
Das Android-Haptik-Subsystem bezieht sich auf Hardware- und Softwarefunktionen, die zur Stimulation des Tastsinns beitragen. Dieser Abschnitt enthält Anleitungen und Compliance-Anweisungen für die optimale Verwendung von Android-Haptik-APIs.
Eingabe
Das Android-Eingabe-Subsystem besteht normalerweise aus einer Ereignispipeline, die mehrere Schichten des Systems durchläuft. Auf der untersten Schicht erzeugt das physische Eingabegerät Signale, die Statusänderungen wie Tastenbetätigungen und Berührungskontakte beschreiben.
Neural Networks API
Die Android Neural Networks API (NNAPI) führt rechenintensive Vorgänge für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick darüber, wie Sie einen Neural Networks API-Treiber für Android 9 implementieren.
Peripheriegeräte und Zubehör
Mit einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, das die Android-Funktionen für eine Vielzahl von Android-Geräten erweitert.
Sensoren
Android-Sensoren gewähren Apps Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Sie sind virtuelle Geräte, die Daten bereitstellen und von sensors.h
, der Hardware Abstraction Layer (HAL) des Sensors, definiert werden.
Context Hub-Laufzeitumgebung
Die Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Systemanwendungen auf einem leistungseffizienten Prozessor mit einer einfachen, standardisierten, eingebetteten API. CHRE erleichtert es Geräte-OEMs, die Verarbeitung vom Anwendungsprozessor zu entlasten, um den Akku zu schonen, verschiedene Bereiche der Nutzererfahrung zu verbessern und eine Klasse immer aktiver, kontextsensitiver Funktionen zu ermöglichen.