2025 年 3 月 27 日より、AOSP のビルドとコントリビューションには aosp-main
ではなく android-latest-release
を使用することをおすすめします。詳細については、AOSP の変更をご覧ください。
Android でのインタラクション
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
このページでは、Android がキーボード、センサーなどから受信するさまざまな入力を処理する方法について説明します。
ハプティクス
Android ハプティクス サブシステムは、触覚を通した刺激を生成するハードウェアとソフトウェアの機能です。このセクションでは、Android ハプティクス API を最大限に活用するためのガイダンスとコンプライアンスについて説明します。
Android の入力サブシステムは、通常、システムの複数のレイヤを走査するイベント パイプラインで構成されます。最下層では、物理的な入力デバイスが、キーの押下やタッチ接触点などの状態変化を表す信号を生成します。
Neural Networks API
Android Neural Networks API(NNAPI)は、演算負荷の高い機械学習処理を実行します。このドキュメントでは、Android 9 用の Neural Networks API ドライバの実装方法についての概要を説明します。
周辺機器とアクセサリ
標準のプロトコル スイートを使用することで、さまざまな Android 搭載デバイスで Android の機能を拡張できる優れた周辺機器やアクセサリの実装が行えます。
センサー
Android センサーは、アプリがモバイル デバイスの基盤となる物理センサーにアクセスできるようにします。このセンサーは、センサーのハードウェア抽象化レイヤ(HAL)である sensors.h
によって定義されるデータ提供型仮想デバイスです。
Context Hub Runtime Environment
Context Hub Runtime Environment(CHRE)は、埋め込みに配慮したシンプルな標準化 API により、低消費電力プロセッサでシステムレベルのアプリを実行するための共通プラットフォームを実現します。CHRE を使用すると、デバイス OEM はアプリ プロセッサから処理を容易にオフロードできるようになります。また、バッテリーを節約してさまざまなユーザー エクスペリエンスを改善し、常時稼働のコンテンツ ターゲット機能のクラスを提供できます。
このページのコンテンツやコードサンプルは、コンテンツ ライセンスに記載のライセンスに従います。Java および OpenJDK は Oracle および関連会社の商標または登録商標です。
最終更新日 2025-04-04 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-04-04 UTC。"],[],[],null,["# Interaction in Android\n\nThis page explains how Android processes the various inputs it receives from\nthe keyboard, sensors, and more.\n\nHaptics\n-------\n\nThe Android haptics subsystem refers to hardware and software features that\ncontribute to the creation of stimuli through the sense of touch. This section\nprovides guidance and compliance instructions on the best use of Android haptics\nAPIs.\n\nInput\n-----\n\nThe Android input subsystem nominally consists of an event pipeline that\ntraverses multiple layers of the system. At the lowest layer, the physical input\ndevice produces signals that describe state changes such as key presses and\ntouch contact points.\n\nNeural Networks API\n-------------------\n\nThe Android Neural Networks API (NNAPI) runs computationally intensive\noperations for machine learning. This document provides an overview on how to\nimplement a Neural Networks API driver for Android 9.\n\nPeripherals and accessories\n---------------------------\n\nUsing a suite of standard protocols, you can implement compelling peripherals\nand other accessories that extend Android capabilities in a wide range of\nAndroid-powered devices.\n\nSensors\n-------\n\nAndroid sensors give apps access to a mobile device's underlying\nphysical sensors. They are data-providing virtual devices defined by\n`sensors.h`, the sensor Hardware Abstraction Layer (HAL).\n\nContext Hub Runtime Environment\n-------------------------------\n\nContext Hub Runtime Environment (CHRE) provides a common platform for running\nsystem-level apps on a low-power processor, with a simple, standardized,\nembedded-friendly API. CHRE makes it easy for device OEMs to offload processing\nfrom the applications processor, to save battery and improve various areas of\nthe user experience, and enable a class of always-on, contextually aware\nfeatures."]]