Od 27 marca 2025 r. zalecamy używanie android-latest-release
zamiast aosp-main
do kompilowania i wspołtworzenia AOSP. Więcej informacji znajdziesz w artykule o zmianach w AOSP.
Interakcja na Androidzie
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Na tej stronie wyjaśniamy, jak Android przetwarza różne dane wejściowe otrzymywane od klawiatury, czujników i innych komponentów.
Reakcja na dotyk
Podsystem haptyczny Androida to funkcje sprzętowe i programowe, które przyczyniają się do tworzenia bodźców za pomocą zmysłu dotyku. W tej sekcji znajdziesz wskazówki i instrukcje dotyczące zgodności z zasadami korzystania z interfejsów API haptycznych Androida.
Podsystem danych wejściowych Androida składa się nominalnie z przekaźnika zdarzeń, który przechodzi przez wiele warstw systemu. Na najniższej warstwie fizyczne urządzenie wejściowe generuje sygnały opisujące zmiany stanu, takie jak naciśnięcia klawiszy i punkty styczności dotykowej.
Neural Networks API
Interfejs API sieci neuronowych na Androida (NNAPI) wykonuje operacje o wysokich wymaganiach obliczeniowych na potrzeby uczenia maszynowego. Ten dokument zawiera omówienie implementacji interfejsu Neural Networks API w Androidzie 9.
Urządzenia peryferyjne i akcesoria
Korzystając z zestawu standardowych protokołów, możesz wdrażać atrakcyjne urządzenia peryferyjne i inne akcesoria, które rozszerzają możliwości Androida na szerokiej gamie urządzeń z Androidem.
Czujniki
Czujniki Androida zapewniają aplikacjom dostęp do podstawowych czujników fizycznych urządzenia mobilnego. Są to wirtualne urządzenia dostarczające dane zdefiniowane przez sensors.h
, czyli warstwę abstrakcji sprzętowej (HAL) czujnika.
Środowisko wykonawcze Context Hub
Środowisko wykonawcze Context Hub (CHRE) to wspólna platforma do uruchamiania aplikacji na poziomie systemu na procesorze niskonapięciowym przy użyciu prostego, standardowego interfejsu API, który ułatwia implementację. CHRE ułatwia producentom urządzeń przeniesienie przetwarzania z procesora aplikacji, aby oszczędzać baterię i ulepszać różne aspekty wygody użytkowników oraz udostępniać klasę funkcji zawsze włączonych i świadomych kontekstu.
Treść strony i umieszczone na niej fragmenty kodu podlegają licencjom opisanym w Licencji na treści. Java i OpenJDK są znakami towarowymi lub zastrzeżonymi znakami towarowymi należącymi do firmy Oracle lub jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2025-07-27 UTC.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-07-27 UTC."],[],[],null,["# Interaction in Android\n\nThis page explains how Android processes the various inputs it receives from\nthe keyboard, sensors, and more.\n\nHaptics\n-------\n\nThe Android haptics subsystem refers to hardware and software features that\ncontribute to the creation of stimuli through the sense of touch. This section\nprovides guidance and compliance instructions on the best use of Android haptics\nAPIs.\n\nInput\n-----\n\nThe Android input subsystem nominally consists of an event pipeline that\ntraverses multiple layers of the system. At the lowest layer, the physical input\ndevice produces signals that describe state changes such as key presses and\ntouch contact points.\n\nNeural Networks API\n-------------------\n\nThe Android Neural Networks API (NNAPI) runs computationally intensive\noperations for machine learning. This document provides an overview on how to\nimplement a Neural Networks API driver for Android 9.\n\nPeripherals and accessories\n---------------------------\n\nUsing a suite of standard protocols, you can implement compelling peripherals\nand other accessories that extend Android capabilities in a wide range of\nAndroid-powered devices.\n\nSensors\n-------\n\nAndroid sensors give apps access to a mobile device's underlying\nphysical sensors. They are data-providing virtual devices defined by\n`sensors.h`, the sensor Hardware Abstraction Layer (HAL).\n\nContext Hub Runtime Environment\n-------------------------------\n\nContext Hub Runtime Environment (CHRE) provides a common platform for running\nsystem-level apps on a low-power processor, with a simple, standardized,\nembedded-friendly API. CHRE makes it easy for device OEMs to offload processing\nfrom the applications processor, to save battery and improve various areas of\nthe user experience, and enable a class of always-on, contextually aware\nfeatures."]]