Interakcja na Androidzie

Na tej stronie wyjaśniamy, jak Android przetwarza różne dane wejściowe otrzymywane z klawiatury, czujników i innych źródeł.

Reakcja na dotyk

Podsystem haptyczny Androida to funkcje sprzętowe i programowe, które przyczyniają się do tworzenia bodźców za pomocą zmysłu dotyku. Ta sekcja zawiera wskazówki i instrukcje dotyczące zgodności w zakresie optymalnego wykorzystania interfejsów API wibracji na Androidzie.

Urządzenie wejściowe

Podsystem wejścia na Androidzie składa się z potoku zdarzeń, który przechodzi przez wiele warstw systemu. Na najniższym poziomie fizyczne urządzenie wejściowe generuje sygnały opisujące zmiany stanu, takie jak naciśnięcia klawiszy i punkty kontaktu dotykowego.

Neural Networks API

Interfejs Android Neural Networks API (NNAPI) wykonuje wymagające obliczeniowo operacje uczenia maszynowego. Ten dokument zawiera omówienie sposobu implementacji sterownika interfejsu Neural Networks API na Androidzie 9.

Urządzenia peryferyjne i akcesoria

Korzystając z zestawu standardowych protokołów, możesz wdrażać atrakcyjne urządzenia peryferyjne i inne akcesoria, które rozszerzają możliwości Androida na szerokiej gamie urządzeń z tym systemem.

Czujniki

Czujniki Androida zapewniają aplikacjom dostęp do fizycznych czujników urządzenia mobilnego. Są to wirtualne urządzenia dostarczające dane, zdefiniowane przez sensors.h, czyli warstwę abstrakcji sprzętu czujnika (HAL).

Środowisko wykonawcze Context Hub

Środowisko wykonawcze Context Hub (CHRE) to wspólna platforma do uruchamiania aplikacji na poziomie systemu na procesorze o niskim poborze mocy, z prostym, standardowym interfejsem API, który jest łatwy do wbudowania. CHRE ułatwia producentom urządzeń przenoszenie przetwarzania z procesora aplikacji, co pozwala oszczędzać baterię i zwiększać wygodę użytkowników w różnych obszarach oraz umożliwia korzystanie z funkcji, które są zawsze włączone i dostosowane do kontekstu.