Interaktionen unter Android

Auf dieser Seite wird erläutert, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren usw. erhält.

Haptik

Das Android-Haptik-Subsystem bezieht sich auf Hardware- und Softwarefunktionen, die zur Stimulation des Tastsinns beitragen. Dieser Abschnitt enthält Anleitungen und Compliance-Anweisungen für die optimale Verwendung von Android-Haptik-APIs.

Eingabe

Das Android-Eingabe-Subsystem besteht normalerweise aus einer Ereignispipeline, die mehrere Schichten des Systems durchläuft. Auf der untersten Schicht erzeugt das physische Eingabegerät Signale, die Statusänderungen wie Tastenbetätigungen und Berührungskontakte beschreiben.

Neural Networks API

Die Android Neural Networks API (NNAPI) führt rechenintensive Vorgänge für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick darüber, wie Sie einen Neural Networks API-Treiber für Android 9 implementieren.

Peripheriegeräte und Zubehör

Mit einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, das die Android-Funktionen für eine Vielzahl von Android-Geräten erweitert.

Sensoren

Android-Sensoren gewähren Apps Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Sie sind virtuelle Geräte, die Daten bereitstellen und von sensors.h, der Hardware Abstraction Layer (HAL) des Sensors, definiert werden.

Context Hub-Laufzeitumgebung

Die Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Systemanwendungen auf einem leistungseffizienten Prozessor mit einer einfachen, standardisierten, eingebetteten API. CHRE erleichtert es Geräte-OEMs, die Verarbeitung vom Anwendungsprozessor zu entlasten, um den Akku zu schonen, verschiedene Bereiche der Nutzererfahrung zu verbessern und eine Klasse immer aktiver, kontextsensitiver Funktionen zu ermöglichen.