Interaktion in Android

Auf dieser Seite wird erläutert, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren usw. erhält.

Haptik

Das Android-Haptik-Subsystem bezieht sich auf Hardware- und Softwarefunktionen, die zur Erzeugung von Reizen durch den Tastsinn beitragen. Dieser Abschnitt enthält Anleitungen und Konformitätsanweisungen zur optimalen Verwendung von Android-Haptik-APIs.

Eingang

Das Android-Eingabesubsystem besteht nominell aus einer Ereignispipeline, die mehrere Ebenen des Systems durchläuft. Auf der untersten Ebene erzeugt das physische Eingabegerät Signale, die Zustandsänderungen wie Tastendrücke und Berührungskontaktpunkte beschreiben.

Neuronale Netze

Die Android Neural Networks API (NNAPI) führt rechenintensive Operationen für maschinelles Lernen aus. Dieses Dokument bietet einen Überblick über die Implementierung eines API-Treibers für neuronale Netze für Android 9.

Peripheriegeräte und Zubehör

Mithilfe einer Reihe von Standardprotokollen können Sie überzeugende Peripheriegeräte und anderes Zubehör implementieren, die die Android-Funktionen in einer Vielzahl von Android-Geräten erweitern.

Sensoren

Mit Android-Sensoren können Apps auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts zugreifen. Es handelt sich um sensors.h virtuelle Geräte, die von sensors.h , der Sensor Hardware Abstraction Layer (HAL), definiert werden.

Context Hub-Laufzeitumgebung

Die Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform für die Ausführung von Apps auf Systemebene auf einem Prozessor mit geringem Stromverbrauch und einer einfachen, standardisierten, eingebetteten API. CHRE erleichtert es Geräteherstellern, die Verarbeitung vom Anwendungsprozessor zu entladen, Batterie zu sparen, verschiedene Bereiche der Benutzererfahrung zu verbessern und eine Klasse von ständig aktiven, kontextsensitiven Funktionen zu ermöglichen.