Auf dieser Seite wird erläutert, wie Android die verschiedenen Eingaben verarbeitet, die es von der Tastatur, den Sensoren usw. erhält.
Haptik
Das Android-Haptik-Subsystem bezieht sich auf Hardware- und Softwarefunktionen, die zur Schaffung von Reizen über den Tastsinn beitragen. In diesem Abschnitt finden Sie Richtlinien und Compliance-Anleitungen für die optimale Verwendung von Android-Haptik-APIs.
Eingabe
Das Android-Eingabe-Subsystem besteht normalerweise aus einer Ereignispipeline, die mehrere Schichten des Systems durchläuft. Auf der untersten Schicht erzeugt das physische Eingabegerät Signale, die Statusänderungen wie Tastendrücke und Berührungspunkte beschreiben.
Neural Networks API
Die Android Neural Networks API (NNAPI) führt rechenintensive Vorgänge für maschinelles Lernen aus. In diesem Dokument erhalten Sie einen Überblick darüber, wie Sie einen Neural Networks API-Treiber für Android 9 implementieren.
Peripheriegeräte und Zubehör
Mit einer Reihe von Standardprotokollen können Sie leistungsstarke Peripheriegeräte und anderes Zubehör implementieren, das die Android-Funktionen auf einer Vielzahl von Android-Geräten erweitert.
Sensoren
Android-Sensoren gewähren Apps Zugriff auf die zugrunde liegenden physischen Sensoren eines Mobilgeräts. Sie sind virtuelle Geräte, die Daten bereitstellen und von sensors.h
, der Sensor-Hardware-Abstraktionsschicht (HAL), definiert werden.
Context Hub-Laufzeitumgebung
Die Context Hub Runtime Environment (CHRE) bietet eine gemeinsame Plattform zum Ausführen von Systemanwendungen auf einem leistungseffizienten Prozessor mit einer einfachen, standardisierten, eingebetteten API. Mit CHRE können Gerätehersteller die Verarbeitung ganz einfach vom Anwendungsprozessor auf andere Prozessoren auslagern, um den Akku zu schonen, verschiedene Bereiche der Nutzerfreundlichkeit zu verbessern und eine Reihe von immer aktiven, kontextsensitiven Funktionen zu ermöglichen.