Interakcja na Androidzie

Na tej stronie wyjaśniamy, jak Android przetwarza różne dane wejściowe otrzymywane od klawiatury, czujników i innych komponentów.

Reakcja na dotyk

Podsystem haptyczny Androida to funkcje sprzętowe i programowe, które przyczyniają się do tworzenia bodźców za pomocą zmysłu dotyku. W tej sekcji znajdziesz wskazówki i instrukcje dotyczące zgodności z zasadami korzystania z interfejsów API haptycznych Androida.

Urządzenie wejściowe

Podsystem danych wejściowych Androida składa się nominalnie z przekaźnika zdarzeń, który przechodzi przez wiele warstw systemu. Na najniższej warstwie fizyczne urządzenie wejściowe generuje sygnały opisujące zmiany stanu, takie jak naciśnięcia klawiszy i punkty styczności dotykowej.

Neural Networks API

Interfejs API sieci neuronowych na Androida (NNAPI) wykonuje operacje wymagające dużych zasobów obliczeniowych na potrzeby uczenia maszynowego. Ten dokument zawiera omówienie implementacji sterownika interfejsu Neural Networks API w Androidzie 9.

Urządzenia peryferyjne i akcesoria

Korzystając z zestawu standardowych protokołów, możesz wdrażać atrakcyjne urządzenia peryferyjne i inne akcesoria, które rozszerzają możliwości Androida na szerokiej gamie urządzeń z Androidem.

Czujniki

Czujniki Androida zapewniają aplikacjom dostęp do podstawowych czujników fizycznych urządzenia mobilnego. Są to wirtualne urządzenia dostarczające dane zdefiniowane przez sensors.h, czyli warstwę abstrakcji sprzętowej (HAL) czujnika.

Środowisko wykonawcze Context Hub

Środowisko wykonawcze Context Hub (CHRE) to wspólna platforma do uruchamiania aplikacji na poziomie systemu na procesorze niskonapięciowym przy użyciu prostego, standardowego interfejsu API, który ułatwia implementację. CHRE ułatwia producentom urządzeń OEM przenoszenie przetwarzania z procesora aplikacji na procesor kontekstowy, co pozwala oszczędzać energię baterii i ulepszać różne aspekty wygody użytkowników oraz udostępniać klasę funkcji zawsze włączonych i świadomych kontekstu.