Interaktionen unter Android

Auf dieser Seite wird beschrieben, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren usw. erhält.

Haptik

Das Android-Haptik-Subsystem bezieht sich auf Hardware- und Softwarefunktionen, die zur Erzeugung von Reizen über den Tastsinn beitragen. In diesem Abschnitt finden Sie Anleitungen und Compliance-Hinweise zur optimalen Verwendung der Android-Haptik-APIs.

Eingabe

Das Android-Eingabesubsystem besteht nominell aus einer Ereignispipeline, die mehrere Ebenen des Systems durchläuft. Auf der untersten Ebene erzeugt das physische Eingabegerät Signale, die Zustandsänderungen wie Tastendrücke und Berührungspunkte beschreiben.

Neural Networks API

Die Android Neural Networks API (NNAPI) führt rechenintensive Vorgänge für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick darüber, wie Sie einen Neural Networks API-Treiber für Android 9 implementieren.

Peripheriegeräte und Zubehör

Mit einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, die die Android-Funktionen auf einer Vielzahl von Android-Geräten erweitern.

Sensoren

Android-Sensoren ermöglichen Apps den Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Sie sind datenliefernde virtuelle Geräte, die durch die Sensor-Hardwareabstraktionsschicht (HAL) sensors.h definiert werden.

Context Hub-Laufzeitumgebung

Die Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Apps auf Systemebene auf einem Prozessor mit geringem Stromverbrauch und einer einfachen, standardisierten, eingebettungsfreundlichen API. Mit CHRE können Geräte-OEMs die Verarbeitung ganz einfach vom Anwendungsprozessor auslagern, um Akku zu sparen und verschiedene Bereiche der Nutzererfahrung zu verbessern. Außerdem können sie eine Klasse von Always-on-Funktionen mit Kontextbezug aktivieren.