Testy kamery ITS

Na tej stronie znajdziesz obszerną listę testów w ramach pakietu testów obrazu aparatu (ITS), który jest częścią weryfikatora pakietu testów zgodności Androida (CTS). Testy ITS to testy funkcjonalne, które nie mierzą jakości obrazu, ale sprawdzają, czy wszystkie reklamowane funkcje aparatu działają zgodnie z oczekiwaniami. Z tego dokumentu deweloperzy i testerzy dowiedzą się, do czego służą poszczególne testy i jak debugować błędy testów.

Testy ITS aparatu są przeprowadzane według wymaganych właściwości aparatu, poziomu interfejsu API i poziomu klasy wydajności multimediów (MPC). W przypadku poziomu interfejsu API ITS używa parametru ro.product.first_api_level do stosowania testów dodanych na określonym poziomie interfejsu API, które sprawdzają, czy funkcje na niższych poziomach interfejsu API nie powodują negatywnych doświadczeń użytkowników. ITS używa ro.vendor.api_level do testowania funkcji dodanych na określonym poziomie interfejsu API, które wymagają nowych możliwości sprzętowych. Jeśli dla urządzenia określona jest wartość ro.odm.build.media_performance_class, ITS wymaga wykonania określonych testów w zależności od poziomu MPC.

Testy są grupowane według sceny w ten sposób:

Opisy poszczególnych scen znajdziesz w odpowiednich sekcjach.

scene0

Testy Scene0 nie wymagają żadnych konkretnych informacji o scenie. Podczas testowania żyroskopu i wibracji telefon musi być jednak nieruchomy.

test_jitter

Mierzy jitter w sygnaturach czasowych kamery.

Testowane interfejsy API:

Przechodzi: różnica między klatkami wynosi co najmniej 30 ms.

test_jitter_plot.png

test_jitter_plot.png (zwróć uwagę na mały zakres osi y. Jitter jest na tym wykresie niewielki.

test_metadata

Sprawdza poprawność wpisów metadanych. Sprawdza wyniki przechwytywania i cechy aparatu. Ten test używa wartości auto_capture_request ekspozycji i wzmocnienia, ponieważ treść obrazu nie jest ważna.

Testowane interfejsy API:

Przechodzi: tagi rollingShutterSkew, frameDuration, timestampSource, croppingType, blackLevelPattern, pixel_pitch, FoV i hyperfocal distance są obecne i mają prawidłowe wartości.

test_request_capture_match

Testuje, czy urządzenie zapisuje prawidłowe wartości ekspozycji i wzmocnienia, odczytując metadane z sesji.

Testowane interfejsy API:

Prześlij: wartości metadanych żądania i zapisu są zgodne we wszystkich ujęciach.

test_sensor_events

Testuje zapytania urządzenia i wypisuje zdarzenia czujnika na urządzeniach, które reklamują obsługę fuzji czujników. Wymagane czujniki to akcelerometr, żyroskop i magnetometr. Ten test działa tylko wtedy, gdy ekran jest włączony, co oznacza, że urządzenie nie jest w stanie gotowości.

Testowane interfejsy API:

Prześlij: otrzymywane są zdarzenia z każdego czujnika.

test_solid_color_test_pattern

Testuje, czy testowe wzory jednolitych kolorów są prawidłowo generowane w przypadku wyciszenia kamery. Jeśli wyciszenie aparatu jest obsługiwane, należy obsługiwać testowe wzory w jednolitym kolorze. Jeśli wyciszanie kamery nie jest obsługiwane, testowe wzory jednolitych kolorów są testowane tylko wtedy, gdy funkcja jest reklamowana.

Jeśli obrazy RAW są obsługiwane, testowane jest też przypisywanie kolorów. Testowane kolory to czarny, biały, czerwony, niebieski i zielony. W przypadku aparatów, które nie obsługują obrazów RAW, testowany jest tylko czarny kolor.

Testowane interfejsy API:

Przeszedł: obsługiwane jednolite wzory testowe mają prawidłowy kolor, a obraz ma niską zmienność.

test_test_pattern

Testuje parametr android.sensor.testPatternMode, aby rejestrować klatki dla każdego prawidłowego wzoru testowego, i sprawdza, czy klatki są generowane prawidłowo w przypadku jednolitych kolorów i pasków kolorów. Ten test obejmuje te kroki:

  1. Wykonywanie zdjęć według wszystkich obsługiwanych wzorów testowych.
  2. Przeprowadza prostą weryfikację poprawności wzoru testowego jednolitego koloru i pasków kolorów.

Testowane interfejsy API:

Przeszedł: obsługiwane wzorce testowe są generowane prawidłowo.

test_test_patterns_2

test_test_patterns_2.jpg

test_tonemap_curve

Testuje konwersję testowego wzorca z formatu RAW na YUV z użyciem mapowania tonalnego liniowego. Ten test wymaga parametru android.sensor.testPatternMode = 2 (COLOR_BARS), aby wygenerować idealny wzór obrazu do konwersji mapy tonacji. Sprawdzanie, czy pipeline ma odpowiednie wyjścia kolorów z mapą tonalną liniową i idealnym wejściem obrazu (oparte na test_test_patterns).

Testowane interfejsy API:

Przechodzi: obrazy YUV i RAW są do siebie podobne.

test_tonemap_curve_raw_2

test_tonemap_curve_raw_2.jpg

test_tonemap_curve_yuv_2.jpg

test_tonemap_curve_yuv_2.jpg

test_unified_timestamp

Sprawdza, czy zdarzenia związane z obrazem i czujnikiem ruchu znajdują się w tym samym zakresie czasowym.

Testowane interfejsy API:

Przejście: sygnatury czasowe ruchu znajdują się między sygnaturami czasowymi dwóch obrazów.

test_vibration_restriction

Sprawdza, czy wibracje urządzenia działają zgodnie z oczekiwaniami.

Testowane interfejsy API:

Przechodzi: urządzenie nie wibruje, gdy wyciszenie zostanie zastosowane przez interfejs API ograniczeń dźwięku w aparacie.

scene1

scene1 to wykres w kolorze szarym. Szara tabela musi zajmować 30% pola widzenia kamery. Wyraźnie szarego wykresu nie można uznać za 3A (automatyczna ekspozycja, automatyczna równowaga bieli, automatyczny autofokus), ponieważ środkowy obszar nie zawiera żadnych cech. Jednak żądanie przechwytywania określa całą scenę, która zawiera wystarczającą liczbę cech, aby 3A mogła się zbliżyć.

Kamery RFoV można testować w ramach platformy testowej WFoV lub RFoV. Jeśli kamera RFoV jest testowana w ramach platformy testowej WFoV, wykres jest skalowany o 2/3, aby zapewnić pewne granice dla szarego wykresu w przypadku pola widzenia, co ułatwia konwergencję 3A. Bardziej szczegółowe opisy urządzeń do testowania kamer znajdziesz w artykule ITS-in-a-box.

scene1

scene1: wykres w pełnej wielkości (po lewej). Wykres po skalowaniu do ⅔ (po prawej).

test_ae_precapture_trigger

Testuje maszynę stanów AE przy użyciu wyzwalacza przed przechwyceniem. Pokazuje 5 ręcznych żądań z wyłączonym AE. Ostatnia prośba zawiera funkcję przedprzechwytywania AE, która powinna zostać zignorowana, ponieważ AE jest wyłączona.

Testowane interfejsy API:

Pass: AE zbiega się.

test_auto_vs_manual

Testy, które uchwyciły zdjęcia automatyczne i ręczne, wyglądają tak samo.

Testowane interfejsy API:

Pass: ręczne wzmocnienie i transformacja balansu bieli podawane w każdym wyniku rejestracji odpowiadają automatycznemu balansowi bieli estimate z algorytmu 3A aparatu.

test_auto_vs_manual_auto

test_auto_vs_manual_auto.jpg

test_auto_vs_manual_wb

test_auto_vs_manual_wb.jpg

test_auto_vs_manual_manual_wb_tm

test_auto_vs_manual_manual_wb_tm.jpg

test_black_white

Testuje, czy urządzenie wyświetla prawidłowo obrazy czarno-białe. Wykonuje 2 zrzuty: pierwszy z bardzo niskim wzmocnieniem i krótkim czasem naświetlania, co powoduje powstanie czarnego zdjęcia, a drugi z bardzo wysokim wzmocnieniem i długim czasem naświetlania, co powoduje powstanie białego zdjęcia.

Testowane interfejsy API:

Przejście: generuje czarno-białe obrazy. Nasycony kanał białych obrazów ma wartości RGB [255, 255, 255] z marginesem błędu poniżej 1%.

test_black_white_black test_black_white_black
test_black_white_black.jpg test_black_white_white.jpg

test_black_white_plot_means

test_black_white_plot_means.png

test_burst_capture

Sprawdzanie, czy cały potok przechwytywania może nadążać za szybkością przechwytywania w pełnej rozdzielczości i czasem procesora.

Testowane interfejsy API:

Pass: rejestruje serię zdjęć w pełnym rozmiarze, sprawdza utratę klatek i jasność obrazu.

test_burst_sameness_manual

Wykonuje 5 serii po 50 zdjęć przy użyciu ustawień ręcznych i sprawdza, czy są one identyczne. Ten test pozwala określić, czy występują sporadyczne klatki, które są przetwarzane inaczej lub zawierają artefakty.

Testowane interfejsy API:

Prześlij: obrazy są wizualnie identyczne i mają identyczne wartości RGB.

Niepowodzenie: pokazuje skok lub spadek średniej wartości RGB na początku każdego wybuchu.

  • Tolerancja wynosi 3%, gdy first_API_level < 30
  • Tolerancja wynosi 2%, gdy first_API_level >= 30

test_burst_sameness_manual_mean

test_burst_sameness_manual_mean.jpg

test_burst_sameness_manual_plot_means

test_burst_sameness_manual_plot_means.png

test_capture_result

Testuje, czy prawidłowe dane zwracają się w obiektach CaptureResult. Czy ręcznie, automatycznie czy automatycznie.

Testowane interfejsy API:

Przepuść: metadane są ważne dla wszystkich przechwycięć, a ustawienia ręczne nie są przekazywane do drugiego automatycznego przechwycenia. Rysuje korektę cieniowania obiektywu dla wykonanych zdjęć.

test_capture_result_plot_lsc_auto_ch0

test_capture_result_plot_lsc_auto_ch0.png

test_crop_region_raw

Sprawdzanie, czy strumienie RAW nie mogą być usuwane.

Testowane interfejsy API:

Prześlij: obrazy YUV są przycinane w środku, ale nie obrazy RAW.

test_crop_region_raw_comp_raw_crop

test_crop_region_raw_comp_raw_crop.jpg

test_crop_region_raw_comp_raw_full

test_crop_region_raw_comp_raw_full.jpg

test_crop_region_raw_comp_yuv_crop

test_crop_region_raw_comp_yuv_crop.jpg

test_crop_region_raw_yuv_full

test_crop_region_raw_yuv_full.jpg

test_crop_regions

Sprawdzanie, czy działają regiony przycinania. Przejmuje pełny obraz i tworzy łaty w 5 różnych regionach (narożniki i środku). Wykonuje zdjęcia z przycięciem ustawionym dla 5 regionów. Porównuje wartości pliku obrazu z pliku z przyciętym obrazem.

Testowane interfejsy API:

Pozytywny: obraz przyciętego obszaru jest zgodny z obszarem odpowiadającym przyciętym obrazem.

test_dng_noise_model

Sprawdzanie, czy parametry modelu DNG w formacie RAW są prawidłowe. Wykres przedstawia zmierzoną odchylenie w przypadku środkowego fragmentu szarego karty w nieprzetworzonych zdjęciach wykonanych przy różnych czułościach. Wartości te są porównywane z wartościami odchylenia oczekiwanymi przy każdej czułości przez model szumu DNG w interfejsie HAL aparatu (na podstawie parametrów O i S zwróconych w obiektach wyników rejestracji). Aby dowiedzieć się więcej o modelu szumu DNG, pobierz ten dokument na temat modelu szumu DNG.

Testowane interfejsy API:

Prześlij: parametry modelu surowego DNG są prawidłowe. Oczekiwane wartości RGB są zgodne z rzeczywistymi zmierzonymi wartościami RGB.

test_dng_noise_model_plog

test_dng_noise_model_plog.png

test_ev_compensation_advanced

Testuje, czy zastosowano kompensację wartości ekspozycji (EV). Test polega na zwiększaniu ekspozycji w 8 krokach i sprawdzaniu zmierzonej jasności w porównaniu z oczekiwaną jasnością. Wartości oczekiwane są obliczane na podstawie jasności obrazu bez kompensacji EV. Jeśli obliczone wartości przekroczą rzeczywisty zakres wartości obrazu, wartość oczekiwana zostanie nasycona. Test kończy się niepowodzeniem, jeśli oczekiwane wartości i zmierzone wartości nie są zgodne lub jeśli w ciągu 5 kroków obrazy są nadmiernie naświetlone.

Testowane interfejsy API:

Przechodzi: obrazy pokazują zwiększenie ekspozycji bez prześwietlenia w ciągu 5 kroków.

test_ev_compensation_advanced_plot_means

test_ev_compensation_advanced_plot_means.png

test_ev_compensation_basic

Sprawdzanie, czy kompensacja EV jest stosowana za pomocą zakresu utworzonego za pomocą funkcji CONTROL_AE_COMPENSATION_STEP. W przypadku każdego z tych wartości rejestrowanych jest 8 klatek.

Testowane interfejsy API:

Pass: rejestruje wzrost luminacji przy zwiększonym ustawieniu kompensacji EV. 8 ujęć zarejestrowanych dla każdego ustawienia kompensacji EV ma stabilne wartości luminacji.

test_ev_compensation_basic

test_ev_compensation_basic.png

test_exposure_x_iso

Testy, które sprawdzają, czy przy różnych wartościach ISO i czasu naświetlania uzyskuje się stały czas naświetlania. Wykonuje serię ujęć, w których czas naświetlania i wartość ISO są dobrane tak, aby się równoważyły. Wyniki powinny mieć tę samą jasność, ale w trakcie sekwencji obraz powinien stać się bardziej szumny. Sprawdza, czy średnie wartości próbek pikseli są zbliżone do siebie. Upewnij się, że obrazy nie są ograniczone do wartości 0 i 1 (co sprawiłoby, że wyglądałyby jak proste linie). Test można też uruchomić z obrazami RAW, ustawiając w pliku konfiguracji flagę debug.

Testowane interfejsy API:

Pass: zdjęcia mają tę samą jasność, ale są bardziej zaszumione przy wyższym ISO. Płaskie płaszczyzny RGB występują, gdy wartość ISO*ekspozycji jest stała w przypadku testowanej przestrzeni wzmocnienia.

Mechanizm awarii:

  • W test_exposure_plot_means.png wraz ze wzrostem wartości mnożnika wzmocnienia (oś X) uśrednione wartości na płaszczyźnie RGB (oś Y) zaczynają odbiegać od wartości mnożnika przy niskim wzmocnieniu.

test_exposure_plot_means

test_exposure_plot_means.png

test_exposure_mult=1.00 test_exposure_mult=64.00
test_exposure_mult=1.00.jpg test_exposure_mult=64.00.jpg

test_jpeg

Testy przekonwertowanych obrazów YUV i obrazów JPEG z urządzenia wyglądają tak samo. Test pobiera 10% obrazu w środku i oblicza wartość RGB, a następnie sprawdza, czy są one zgodne.

Testowane interfejsy API:

Przechodzi: średnia różnica w kolorze RGB między obrazami jest mniejsza niż 3%.

test_jpeg_fmt=jpg.jpg test_jpeg=fmt=yuv.jpg
test_jpeg_fmt=jpg.jpg test_jpeg=fmt=yuv.jpg

test_latching

Testuje, czy ustawienia (ekspozycja i wzmocnienie) są zablokowane na prawidłowej klatce w przypadku kamer FULLLEVEL_3. Wykonuje serię ujęć za pomocą kolejnych żądań, zmieniając parametry żądania między ujęciami. Sprawdza, czy obrazy mają oczekiwane właściwości.

Testowane interfejsy API:

Przechodzi: obrazy [2, 3, 6, 8, 10, 12, 13] mają zwiększone ISO lub ekspozycję i wyświetlają się z wyższymi wartościami średnich RGB na test_latching_plot_means.png.

test_latching_i=00.jpg test_latching_i=01.jpg test_latching_i=02.jpg
test_latching_i=00.jpg test_latching_i=01.jpg test_latching_i=02.jpg
test_latching_i=03.jpg test_latching_i=04.jpg test_latching_i=05.jpg
test_latching_i=03.jpg test_latching_i=04.jpg test_latching_i=05.jpg
test_latching_i=06.jpg test_latching_i=07.jpg test_latching_i=08.jpg
test_latching_i=06.jpg test_latching_i=07.jpg test_latching_i=08.jpg
test_latching_i=09.jpg test_latching_i=10.jpg test_latching_i=11.jpg
test_latching_i=09.jpg test_latching_i=10.jpg test_latching_i=11.jpg
test_latching_i=12.jpg
test_latching_i=12.jpg

test_latching_plot_means

test_latching_plot_means.png

test_linearity

Testuje, czy przetwarzanie na urządzeniu może być odwrócone do pikseli liniowych. Rejestruje sekwencję ujęć, kierując urządzenie na jednolity obiekt.

Testowane interfejsy API:

Pass: wartości R, G i B muszą wzrastać liniowo wraz ze wzrostem czułości.

test_linearity_plot_means

test_linearity_plot_means.png

test_locked_burst

Testuje blokowanie 3A i burst YUV (z użyciem ustawienia automatycznego). Ten test jest zaprojektowany tak, aby zdać go nawet na urządzeniach z ograniczonymi możliwościami, które nie mają MANUAL_SENSOR ani PER_FRAME_CONTROLS. Test sprawdza spójność obrazu YUV, a sprawdzanie częstotliwości klatek odbywa się w CTS.

Testowane interfejsy API:

Prześlij: nagrania są spójne.

test_locked_burst_frame0

test_locked_burst_frame0.jpg

test_locked_burst_frame1

test_locked_burst_frame1.jpg

test_locked_burst_frame2

test_locked_burst_frame2.jpg

test_param_color_correction

Sprawdzanie, czy parametry android.colorCorrection.* są stosowane po ustawieniu. Wykonuje zdjęcia z różnymi wartościami przekształcenia i wzmocnienia, a następnie sprawdza, czy różnią się one od siebie. Transformacja i wzmocnienie są wybierane tak, aby sygnał wyjściowy był coraz bardziej czerwony lub niebieski. Używa mapy tonacji liniowej. Mapowanie tonacji to technika wykorzystywana do przetwarzania obrazu, która polega na mapowaniu jednego zbioru kolorów na inny w celu zbliżenia wyglądu obrazów o dużym zakresie dynamicznym do medium o bardziej ograniczonym zakresie dynamicznym.

Testowane interfejsy API:

Pass: wartości R i B są wzmacniane zgodnie z transformacją.

test_param_color_correction_plot_means

test_param_color_correction_plot_means.png

*Oś X to żądania rejestracji: 0 = jedność, 1=czerwony boost, 2= niebieski boost

test_param_color_correction_req=0

test_param_color_correction_req=0.jpg

test_param_color_correctness_req=1

test_param_color_correctness_req=1.jpg (R boost)

test_param_color_correction_req=2

test_param_color_correction_req=2.jpg (wzmocnienie B)

test_param_flash_mode

Testuje, czy parametr android.flash.mode jest stosowany. Ręcznie ustawia ekspozycję na ciemną stronę, aby było oczywiste, czy błysk został użyty, czy nie, i używa mapy tonacji liniowej. Sprawdza środek obrazu kafelka, aby sprawdzić, czy występuje duży gradient, który służy do weryfikacji, czy błysk został uruchomiony.

Testowane interfejsy API:

Przeszedł:środek obrazu w płytce ma duży gradient, co oznacza, że błysk został użyty.

test_param_flash_mode_1

test_param_flash_mode_1.jpg

test_param_flash_mode_1_tile

test_param_flash_mode_1_tile.jpg

test_param_flash_mode_2

test_param_flash_mode_2.jpg

test_param_flash_mode_2_tile

test_param_flash_mode_2_tile.jpg

test_param_noise_reduction

Testuje, czy parametr android.noiseReduction.mode jest prawidłowo stosowany po ustawieniu. rejestrowanie obrazów w przyciemnionym pomieszczeniu; Używa wysokiego wzmocnienia analogowego, aby zapewnić prawidłowy obraz. Rejestruje 3 zdjęcia: z wyłączoną redukcją szumów, „szybko” i „wysoka jakość”. Wykonuje też zdjęcie z małym wzmocnieniem i wyłączonym redukcją szumów, a różnicę między nimi wykorzystuje jako wartość bazową. Im wyższy współczynnik SNR (stosunek sygnału do szumu), tym lepsza jakość obrazu.

Testowane interfejsy API:

Pass: SNR zmienia się w zależności od różnych trybów redukcji szumów i działa podobnie jak na wykresie poniżej.

test_param_noise_reduction_plot_SNRs

test_param_noise_reduction_plot_SNRs.png

0: OFF, 1: FAST, 2: HQ, 3: MIN , 4: ZSL

test_param_noise_reduction_high_gain_nr=0

test_param_noise_reduction_high_gain_nr=0.jpg

test_param_noise_reduction_high_gain_nr=1

test_param_noise_reduction_high_gain_nr=1.jpg

test_param_noise_reduction_high_gain_nr=2

test_param_noise_reduction_high_gain_nr=2.jpg

test_param_noise_reduction_high_gain_nr=3

test_param_noise_reduction_high_gain_nr=3.jpg

test_param_noise_reduction_low_gain

test_param_noise_reduction_low_gain.jpg

test_param_shading_mode

Testuje, czy parametr android.shading.mode jest stosowany.

Testowane interfejsy API:

Pass: tryb cieniowania jest przełączany, a mapy cieniowania obiektywu są modyfikowane zgodnie z oczekiwaniami.

test_param_shading_mode_ls_maps_mode_0_loop_0

test_param_shading_mode_ls_maps_mode_0_loop_0.png

test_param_shading_mode_ls_maps_mode_1_loop_0

test_param_shading_mode_ls_maps_mode_1_loop_0.png

test_param_shading_mode_ls_maps_mode_2_loop_0

test_param_shading_mode_ls_maps_mode_2_loop_0.png

test_param_tonemap_mode

Testuje, czy parametr android.tonemap.mode jest stosowany. Stosuje różne krzywe mapowania odcieni do każdego kanału R, G i B oraz sprawdza, czy obrazy wyjściowe są zmodyfikowane zgodnie z oczekiwaniami. Ten test składa się z 2 testów: test1 i test2.

Testowane interfejsy API:

Pass:

  • test1: oba obrazy mają liniową mapę tonalną, ale n=1 ma ostrzejszy gradient. Kanał G (zielony) jest jaśniejszy w przypadku obrazu n=1.
  • test2: ta sama mapa tonacji, ale o innej długości. Obrazy są identyczne.
test_param_tonemap_mode_n=0.jpg test_param_tonemap_mode_n=1.jpg
test_param_tonemap_mode_n=0.jpg test_param_tonemap_mode_n=1.jpg

test_post_raw_sensitivity_boost

Sprawdzanie wzmocnienia czułości RAW. Wykonuje serię zdjęć RAW i YUV o różnej czułości, publikuje kombinację wzmocnienia czułości RAW i sprawdza, czy średnia wartości pikseli wyjściowych odpowiada ustawieniom żądania.

Testowane interfejsy API:

Przepuszczenie: zdjęcia RAW stają się ciemniejsze, gdy wzmacnianie jest zwiększane, a obrazy YUV pozostają o stałej jasności.

test_post_raw_sensitivity_boost_raw_s=3583_boost=0100

test_post_raw_sensitivity_boost_raw_s=3583_boost=0100.jpg

test_post_raw_sensitivity_boost_raw_s=1792_boost=0200

test_post_raw_sensitivity_boost_raw_s=1792_boost=0200.jpg

test_post_raw_sensitivity_boost_raw_s=0896_boost=0400

test_post_raw_sensitivity_boost_raw_s=0896_boost=0400.jpg

test_post_raw_sensitivity_boost_raw_s=0448_boost=0800

test_post_raw_sensitivity_boost_raw_s=0448_boost=0800.jpg

test_post_raw_sensitivity_boost_raw_s=0224_boost=1600

test_post_raw_sensitivity_boost_raw_s=0224_boost=1600.jpg

test_post_raw_sensitivity_boost_raw_s=0112_boost=3199

test_post_raw_sensitivity_boost_raw_s=0112_boost=3199.jpg

test_post_raw_sensitivity_boost_raw_plot_means

test_post_raw_sensitivity_boost_raw_plot_means.png

test_post_raw_sensitivity_boost_yuv_s=0112_boost=3199

test_post_raw_sensitivity_boost_yuv_s=0112_boost=3199.jpg

test_post_raw_sensitivity_boost_yuv_s=0448_boost=0800

test_post_raw_sensitivity_boost_yuv_s=0448_boost=0800.jpg

test_post_raw_sensitivity_boost_yuv_s=0896_boost=0400

test_post_raw_sensitivity_boost_yuv_s=0896_boost=0400.jpg

test_post_raw_sensitivity_boost_yuv_s=1792_boost=0200

test_post_raw_sensitivity_boost_yuv_s=1792_boost=0200.jpg

test_post_raw_sensitivity_boost_yuv_s=3585_boost=0100

test_post_raw_sensitivity_boost_yuv_s=3585_boost=0100.jpg

test_post_raw_sensitivity_boost_yuv_plot_means

test_post_raw_sensitivity_boost_yuv_plot_means.png

test_raw_burst_sensitivity

Wykonuje serię obrazów w formacie RAW z rosnącym wzmocnieniem i mierzy szum. rejestruje tylko w formacie RAW w trybie seryjnym.

Testowane interfejsy API:

Pass: każde kolejne ujęcie jest bardziej szumne od poprzedniego, ponieważ wzrasta wzmocnienie.

Używa wariancji komórki siatki statystyk pośrodku.

test_raw_burst_sensitivity_variance

test_raw_burst_sensitivity_variance.png

test_raw_exposure

rejestruje zestaw obrazów w formacie RAW z rosnącym czasem ekspozycji i mierzy wartości pikseli.

Testowane interfejsy API:

Pass: zwiększenie ISO (wzmocnienie) powoduje, że piksele stają się bardziej wrażliwe na światło, więc wykres przesuwa się w lewo.

test_raw_exposure_s=55

test_raw_exposure_s=55.png

(10⁰ to 1 ms, 10¹ to 10 ms, 10⁻¹ to 0,1 ms)

test_raw_exposure_s=132

test_raw_exposure_s=132.png

test_raw_exposure_s=209

test_raw_exposure_s=209.png

test_raw_exposure_s=286

test_raw_exposure_s=286.png

test_raw_exposure_s=363

test_raw_exposure_s=363.png

test_raw_exposure_s=440

test_raw_exposure_s=440.png

test_raw_sensitivity

Wykonuje serię zdjęć w formacie RAW z rosnącą czułością i mierzy szum (wariancję) w środku 10% obrazu. Sprawdzanie, czy każdy kolejny obraz jest bardziej zniekształcony niż poprzedni.

Testowane interfejsy API:

Pass: zmienność wzrasta z każdym strzałem.

test_raw_sensitivity_variance

test_raw_sensitivity_variance.png

test_reprocess_noise_reduction

Testuje, czy android.noiseReduction.mode jest stosowany do ponownego przetwarzania żądań. Zdjęcie przetworzone z użyciem słabo oświetlonego aparatu. Używa wysokiego wzmocnienia analogowego, aby zapewnić prawidłowy obraz. Rejestruje 3 przetworzone obrazy: bez NR, „szybki” i „wysoka jakość”. Wykonuje przetworzony ponownie obraz z małym wzmocnieniem i wyłączonym redukcją szumów, a następnie używa wariancji tego obrazu jako wartości bazowej.

Testowane interfejsy API:

Przepuszczenie: FAST >= OFF, HQ >= FAST, HQ >> OFF

Typowy wykres SNR vs. NR_MODE

Typowy wykres SNR vs NR_MODE

test_tonemap_sequence

Testuje sekwencję ujęć z różnymi krzywą mapowania tonacji. Wykonywanie 3 ujęć ręcznych z tonacją liniową. Wykonywanie 3 ujęć ręcznych z domyślną mapą tonalną. Oblicza różnicę między każdą kolejną parą klatek.

Testowane interfejsy API:

Pozytywny wynik: 3 identyczne klatki, a następnie inny zestaw 3 identycznych klatek.

test_tonemap_sequence_i=0

test_tonemap_sequence_i=0.jpg

test_tonemap_sequence_i=1

test_tonemap_sequence_i=1.jpg

test_tonemap_sequence_i=2

test_tonemap_sequence_i=2.jpg

test_tonemap_sequence_i=3

test_tonemap_sequence_i=3.jpg

test_tonemap_sequence_i=4

test_tonemap_sequence_i=4.jpg

test_tonemap_sequence_i=5

test_tonemap_sequence_i=5.jpg

test_yuv_jpeg_all

Sprawdzanie, czy wszystkie zgłaszane rozmiary i formaty do przechwytywania obrazu działają prawidłowo. Używa żądania ręcznego z tonowaniem liniowym, aby YUV i JPEG wyglądały tak samo po przekonwertowaniu przez moduł image_processing_utils. Obrazy nie są zapisywane domyślnie, ale można je zapisać, włączając funkcję debug_mode.

Testowane interfejsy API:

Przechodzi: wszystkie środki obrazu mają maksymalną wartość RMS (wartość RMS sygnału) różnicy w obrazach przekonwertowanych do formatu RGB z 3% obrazu YUV o najwyższej rozdzielczości.

test_yuv_jpeg_all

test_yuv_jpeg_all.png

test_yuv_plus_dng

Testuje, czy zgłaszane rozmiary i formaty do przechwytywania obrazu działają.

Testowane interfejsy API:

Przeszedł: test się zakończył i zwrócił żądane obrazy.

test_yuv_plus_dng

test_yuv_plus_dng.jpg

test_yuv_plus_jpeg

Testuje przechwytywanie pojedynczej klatki jako danych wyjściowych YUV i JPEG. Używa żądania ręcznego z tonowaniem liniowym, aby YUV i JPEG wyglądały tak samo po przekonwertowaniu przez moduł image_processing_utils.

Testowane interfejsy API:

Przechodzi: obrazy YUV i JPEG są podobne i różnią się o mniej niż 1% RMS (wartość średniokwadratowa pierwiastka z wartości sygnału).

test_yuv_plus_jpg_jpg.jpg test_yuv_plus_jpeg_yuv.jpg
test_yuv_plus_jpg_jpg.jpg test_yuv_plus_jpeg_yuv.jpg

test_yuv_plus_raw

Testuje przechwytywanie pojedynczej klatki jako wyjścia RAW/RAW10/RAW12 i YUV (jeśli jest obsługiwane). Używa żądania ręcznego z tonowaniem liniowym, więc spodziewane jest, że formaty raw i YUV będą takie same. Porównuje wartości RGB obrazu przekształconego do formatu RGB w centrum obrazu o wartości 10%. Dziennikiandroid.shading.mode.

Testowane interfejsy API:

Prześlij: obrazy YUV i w formacie RAW są podobne i różnią się o mniej niż 3,5% RMS (wartość średniokwadratowa pierwiastka z wartości sygnału).

test_yuv_plus_raw_shading=1_raw.jpg test_yuv_plus_raw_shading=1_yuv.jpg
test_yuv_plus_raw_shading=1_raw.jpg test_yuv_plus_raw_shading=1_yuv.jpg

scene2_a

Scena scene2_a przedstawia 3 osoby na szarym tle w neutralnych ubraniach. Twarze mają różne odcienie skóry. Aby wykrywanie twarzy działało optymalnie, wykres musi mieć prawidłową orientację.

scene2_a

scene2_a

test_autoframing

Testuje zachowanie automatycznego kadrowania aparatu. Wykonuje duże powiększenie, aby żadne z twarzy w scenie nie było widoczne, włącza tryb automatycznego kadrowania, ustawiając wartość AUTOFRAMINGCaptureRequest na True, i sprawdza, czy wszystkie twarze w pierwotnej scenie można wykryć, gdy stan się zbliża (czyli gdy AUTOFRAMING_STATECaptureResult ma wartość AUTOFRAMING_STATE_CONVERGED).

Testowane interfejsy API:

Prześlij: wykryto wszystkie 3 twarze.

test_display_p3

Testy Display P3 przechwytują w formacie JPEG za pomocą interfejsu API ColorSpaceProfiles. Sprawdzanie, czy przechwycony plik JPEG zawiera odpowiedni profil ICC w nagłówku i czy zawiera kolory spoza zakresu sRGB.

Testowane interfejsy API:

Przeszedł: plik JPEG zawiera profil ICC Display P3 i kolory spoza gamy sRGB.

test_effects

Wykonuje ujęć dla obsługiwanych efektów aparatu i sprawdza, czy są one generowane prawidłowo. Test sprawdza tylko efekty OFF i MONO, ale zapisuje obrazy dla wszystkich obsługiwanych efektów.

Testowane interfejsy API:

Pass: rejestruje obraz sceny z efektami OFF oraz obraz monochromatyczny z efektami ustawionymi na MONO.

test_effects_MONO

test_effects_MONO.jpg

test_format_combos

Testowanie różnych kombinacji formatów wyjściowych.

Testowane interfejsy API:

Powodzenie: wszystkie kombinacje zostały prawidłowo zarejestrowane.

test_num_faces

Testuje wykrywanie twarzy.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

test_num_faces_fd_mode_1

test_num_faces_fd_mode_1.jpg

test_reprocess_uv_swap

Testuje, czy przetwarzanie YUV nie powoduje zamiany płaszczyzn U i V. Jest to wykrywane przez zsumowanie bezwzględnych różnic (SAD) między przetworzonym obrazem a nieprzetworzonym obrazem. Jeśli zamiana płaszczyzn U i V w przetworzonych danych wejściowych powoduje wzrost SAD, przyjmuje się, że dane wyjściowe mają prawidłowe płaszczyzny U i V.

Testowane interfejsy API:

Przechodzi: płaszczyzny U i V nie są zamieniane.

test_reprocess_uv_swap

test_reprocess_uv_swap.png

scene2_b

test_num_faces

Testowanie wykrywania twarzy z większą różnorodnością odcieni skóry w scenach z twarzami.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

test_num_faces_fd_mode_1

test_num_faces_fd_mode_1.jpg

test_yuv_jpeg_capture_sameness

Wykonywanie dwóch zdjęć w największych wspólnych formatach YUV i JPEG o tych samych proporcjach co największy format JPEG, ale nieprzekraczający rozdzielczości 1920 x 1440. Ustawia jpeg.quality na 100 i przechwytuje żądanie dotyczące dwóch powierzchni. Konwertuje oba obrazy na tablice RGB i oblicza 3D root mean square (RMS) difference between the two images.

Test ten sprawdza też, czy dane wyjściowe YUV we wszystkich obsługiwanych przypadkach użycia strumieni są w wystarczającym stopniu podobne do danych YUV w przypadku użycia STILL_CAPTURE.

Testowane interfejsy API:

Prześlij: obrazy YUV i JPEG w przypadku użycia STILL_CAPTURE różnią się o mniej niż 3% RMS (wartość RMS sygnału); obrazy YUV we wszystkich obsługiwanych przypadkach użycia różnią się o mniej niż 10% RMS od obrazów YUV w przypadku użycia STILL_CAPTURE.

scene2_c

test_num_faces

Testowanie wykrywania twarzy z większą różnorodnością odcieni skóry w scenach z twarzami.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

test_num_faces_fd_mode_1

test_num_faces_fd_mode_1.jpg

test_jpeg_capture_perf_class

Testowanie opóźnienia rejestrowania JPEG w przypadku aparatów o klasie wydajności S zgodnie z opisem w sekcji 2.2.7.2 Aparat w CDD.

Przyjęcie: KAMERA 2 MUSI mieć opóźnienie w zapisie JPEG < 1000 ms w rozdzielczości 1080p zmierzone przez test wydajności aparatu CTS w warunkach oświetlenia ITS (3000 K) dla obu głównych aparatów.

test_camera_launch_perf_class

Testy opóźnienia uruchamiania aparatu w przypadku urządzeń o klasie wydajności S zgodnie z opisem w sekcji 2.2.7.2 Camera w dokumentacji CDD.

Pozytywny: czas oczekiwania na uruchomienie aplikacji camera2 (od otwarcia aparatu do pierwszego podglądu) MUSI wynosić mniej niż 600 ms, co jest mierzone przez test wydajności aparatu CTS w warunkach oświetlenia (3000 K) dla obu głównych aparatów.

test_default_camera_hdr

Testuje, czy domyślne przechwytywanie kamery jest w przypadku klasy wydajności 15 w trybie ultra HDR zgodnie z sekcją 2.2.7.2 Camera w CDD.

Prześlij: domyślne przechwytywanie pakietu z kamery MUSI być w formacie ultra HDR na urządzeniu o klasie wydajności 15.

scene2_d

test_num_faces

Testowanie wykrywania twarzy z większą różnorodnością odcieni skóry w scenach z twarzami.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

scene2_e

test_continuous_picture

50 ramek w rozdzielczości VGA jest rejestrowanych za pomocą pierwszego ustawienia żądania rejestracji. android.control.afMode = 4 (CONTINUOUS_PICTURE).

Testowane interfejsy API:

Przechodzi: system 3A stabilizuje się do końca przechwytywania 50 klatek.

test_num_faces

Testowanie wykrywania twarzy z większą różnorodnością odcieni skóry w scenach z twarzami.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

scene2_f

Scena 2 f zawiera 3 twarze na białym tle i w białej odzieży. Twarze mają szeroki zakres odcieni skóry i wysoki kontrast z tłem.

scene2_f.png

scene2_f

test_num_faces

Testowanie wykrywania twarzy z większą różnorodnością odcieni skóry w scenach z twarzami.

Testowane interfejsy API:

Pass: znajduje 3 twarze.

test_num_faces_fd_mode_1

test_num_faces_fd_mode_1.jpg

scene3

Scena 3 wykorzystuje wykres ISO 12233, a większość testów używa metody wyodrębniania wykresów, aby znaleźć wykres w scenie. Z tego powodu większość zapisanych obrazów nie ma ramek, jak w przypadku scen 1, 2 lub 4, tylko sam wykres. Aby wyszukiwarka wykresów działała optymalnie, wykres musi być w prawidłowej orientacji.

test_edge_enhancement

Sprawdza, czy parametr android.edge.mode jest prawidłowo stosowany. Przechwytuje obrazy nieprzetworzone w przypadku każdego trybu krawędzi i zwraca ostrość obrazu wyjściowego oraz metadane wyniku przechwycenia. Przetwarza żądanie rejestrowania z użyciem danego trybu krawędzi, czułości, czasu ekspozycji, odległości ogniskowej i parametru powierzchni wyjściowej.

Przepuść: tryb HQ (2) jest ostrzejszy niż tryb OFF (0). Tryb FAST (1) jest (1) ostrzejszy niż tryb OFF. Tryb HQ jest ostrzejszy lub równy trybowi FAST.

Testowane interfejsy API:

Parametry aparatu, których dotyczy problem:

  • EDGE_MODE

test_edge_enhancement_edge=0

test_edge_enhancement_edge=0.jpg

test_edge_enhancement_edge=1

test_edge_enhancement_edge=1.jpg (tryb szybki)

test_edge_enhancement_edge=2

test_edge_enhancement_edge=2.jpg (tryb wysokiej jakości)

test_flip_mirror

Sprawdza, czy obraz jest prawidłowo zorientowany zgodnie z CDD sekcja 7.5.2 Przedni aparat [C-1-5].

Obrazy odbite lustrzaniem, odwrócone lub obrócone można rozpoznać po diamencie w pobliżu środka.

Pozytywny: obraz nie jest odwrócony, odbity czy obrócony.

test_flip_mirror_scene_patch

test_flip_mirror_scene_patch.jpg

test_imu_drift

Sprawdza, czy jednostka pomiarowa bezwładności (IMU) ma stabilne dane wyjściowe przez 30 sekund, gdy urządzenie jest nieruchome i robi podgląd w wysokiej rozdzielczości.

Testowane interfejsy API:

Pass:

  • Odchylenie żyroskopu w czasie testu jest mniejsze niż 0,01 rad.
  • Odchylenie standardowe odczytu żyroskopu jest mniejsze niż 1E-7 rad2/s2/Hz w czasie testu.
  • Odchylenie wektora obrotu jest mniejsze niż 0,01 rad w czasie testu.
  • (nie jest to jeszcze wymagane) odchylenie żyroskopu jest mniejsze niż 1 stopień na sekundę.

test_imu_drift_gyro_drift.png

test_imu_drift_gyro_drift.png

test_imu_drift_rotation_vector_drift.png

test_imu_drift_rotation_vector_drift.png

test_landscape_to_portrait

Sprawdza, czy przełączanie orientacji z poziomej na pionową działa prawidłowo w przypadku czujników w orientacji poziomej.

Testowane interfejsy API:

Przeszedł: test jest w stanie zlokalizować wykres z oczekiwaną rotacją (0 stopni, gdy zastąpienie orientacji poziomej przez pionową jest wyłączone, 90 stopni, gdy jest włączone).

test_landscape_to_portrait

test_landscape_to_portrait.png

test_lens_movement_reporting

Sprawdzanie, czy flaga ruchu obiektywu jest prawidłowo zgłaszana. Wykonuje serię 24 obrazów, z których pierwsze 12 jest rejestrowane z optymalną odległością ostrości (znalezioną przez 3A), a ostatnie 12 z minimalną odległością ostrości. W okolicach kadru 12 obiektyw się porusza, co powoduje spadek ostrości. Ostrość w końcu się ustabilizuje, gdy obiektyw osiągnie ostateczną pozycję. Flaga ruchu obiektywu powinna być zaznaczona we wszystkich klatkach, w których ostrość jest pośrednia lub większa niż ostrość w pierwszych kilku klatkach z obiektywem nieruchomym w optymalnej odległości ogniskowej oraz w ostatnich kilku klatkach z obiektywem nieruchomym w minimalnej odległości ogniskowej. Nie ma znaczenia, w którym dokładnie ujęciu obiektyw się porusza: sprawdzamy tylko, czy flaga ruchu jest ustawiona, gdy obiektyw się porusza.

Testowane interfejsy API:

Przechodzi: flaga ruchu obiektywu ma wartość True w ramce z zmianą ostrości.

Mechanizmy niepowodzenia:

  • lens_moving: True(android.hardware.camera2.CaptureResult#LENS_STATE = 1) w test_log.DEBUG jest zaznaczone tylko w ramkach, w których ostrość nie zmienia się.
  • Klatki z wartością lens_moving: False(android.hardware.camera2.CaptureResult#LENS_STATE = 0) w elementach test_log.DEBUG mają inną ostrość niż pierwsze kilka klatek przy optymalnej odległości ogniskowej lub ostatnie kilka klatek przy minimalnej odległości ogniskowej.

test_reprocess_edge_enhancement

Testuje, czy obsługiwane metody ponownego przetwarzania w celu wzmocnienia krawędzi działają prawidłowo. Przetwarza żądanie przechwycenia z określonym trybem ponownego przetwarzania krawędzi i porównuje różne tryby przechwycenia z wyłączonymi trybami ponownego przetwarzania krawędzi.

Testowane interfejsy API:

Prześlij: ostrość w różnych trybach krawędzi jest prawidłowa. HQ (tryb 2) jest ostrzejszy niż OFF (tryb 0), a poprawa między różnymi trybami jest podobna.

test_reprocess_edge_enhancement_plot

test_reprocess_edge_enhancement_plot.png

scene4

Scena 4 to czarny okrąg na białym tle w kwadracie. Testy w scenie4 mogą być wrażliwe na wyrównanie, dlatego od wersji 15 możesz użyć opcji check_alignment.py w katalogu narzędzi, aby włączyć sprawdzanie wyrównania testowanego obiektu i wykresu.

scene4

scene4

test_30_60fps_preview_fov_match

Sprawdzanie, czy filmy w podglądzie w 30 FPS i 60 FPS mają ten sam kąt widzenia. Test rejestruje 2 filmy: jeden z 30 FPS, a drugi z 60 FPS. Z każdego filmu wybierany jest reprezentatywny kadr, który jest analizowany, aby sprawdzić, czy zmiany pola widzenia w obu filmach są zgodne ze specyfikacją. Testuje, czy współczynnik kształtu koła pozostaje stały, środek koła pozostaje stabilny, a promień koła pozostaje stały.

Testowane interfejsy API:

Prześlij: obrazy nie są rozciągnięte, środek obrazów nie różni się o więcej niż 3%, a maksymalna zmiana współczynnika proporcji między filmami w 30 FPS i 60 FPS nie przekracza 7,5%.

Mechanizmy niepowodzenia:

  • Krąg z filmu w 30 FPS jest znacznie mniejszy niż z filmu w 60 FPS.
  • Okrąg na zrobionym zdjęciu jest zniekształcony przez łańcuch przetwarzania.
  • Okrąg na zarejestrowanym obrazie jest przycięty z powodu skrajnie małej wysokości lub szerokości obrazu w prośbie o zapisanie.
  • Okrąg na zrobionym zdjęciu ma odbicie w środku i nie jest w pełni wypełniony.

test_aspect_ratio_and_crop

Sprawdza, czy obrazy nie są zniekształcone lub nieoczekiwanie przycięte w systemie przetwarzania obrazów. Robi zdjęcia koła w różnych formatach. Sprawdzanie, czy okrąg nie jest zniekształcony, czy nie przesuwa się z poziomu środka obrazu i czy nie zmienia nieprawidłowo rozmiaru przy różnych formatach obrazu lub rozdzielczościach.

Testowane interfejsy API:

Pozytywny: obrazy nie są rozciągnięte, różnica w centrum obrazów nie przekracza 3%, a maksymalne możliwe pole widzenia (FOV) jest zachowane.

Mechanizmy niepowodzenia:

  • Kamera nie jest wyrównana z kółkiem wyświetlanym na tablecie na środku sceny.
  • Okrąg na zrobionym zdjęciu jest zniekształcony przez łańcuch przetwarzania.
  • Obraz o niższej rozdzielczości jest dwukrotnie przycięty w przepływie przetwarzania obrazu, co powoduje inny kąt widzenia w przypadku obrazów w wysokiej i niskiej rozdzielczości.
  • Okrąg na zarejestrowanym obrazie jest przycięty z powodu skrajnie małej wysokości lub szerokości obrazu w prośbie o zapisanie.
  • Okrąg na zrobionym zdjęciu ma odbicie w środku i nie jest w pełni wypełniony.

test_multi_camera_alignment

Testuje parametry kalibracji kamery związane z pozycjonowaniem kamery w systemach wielokamerowych. Korzystanie z fizycznych kamer podrzędnych w ramach multikamery do zrobienia zdjęcia za pomocą jednej z fizycznych kamer. Znajduje środek okręgu. Przekształca punkt środkowy koła na współrzędne globalne dla każdej kamery. Porównuje różnicę między środkami okręgów kamer w współrzędnych globalnych. Przeprojektowuje współrzędne geograficzne na współrzędne pikseli i porównuje je z oryginalnymi wartościami w celu sprawdzenia poprawności. Porównuje rozmiary kółek, sprawdzając, czy ogniskowa aparatów jest inna.

Testowane interfejsy API:

Przeszedł: centra i rozmiary okręgów są zgodne z oczekiwaniami w projekcjach obrazów w porównaniu z obrazami zarejestrowanymi przy użyciu danych kalibracji aparatu i ogniskowych długości ogniskowych.

Mechanizmy niepowodzenia:

  • Wartości LENS_INTRINSIC_CALIBRATION, LENS_POSE_TRANSLATION lub LENS_POSE_ROTATION to wartości projektowe, a nie rzeczywiste dane kalibracji.
  • System kamer nie jest odpowiedni do konfiguracji testowej. Możesz na przykład przetestować system kamery szerokokątnej i ultraszerokokątnej za pomocą urządzenia do testów RFoV. Więcej informacji znajdziesz w artykule z odpowiedziami na najczęstsze pytania dotyczące zestawu ITS-in-a-box1.

test_preview_aspect_ratio_and_crop

Podobnie jak test test_aspect_ratio_and_crop w przypadku zdjęć, ten test sprawdza obsługiwane formaty podglądu, aby upewnić się, że ramki podglądu nie są nieprawidłowo rozciągnięte ani przycięte. Sprawdzanie, czy format obrazu koła nie ulega zmianie, czy przycięte obrazy zawierają koło w środku kadru i czy rozmiar koła nie zmienia się w przypadku formatu stałego lub różnych rozdzielczości (sprawdzanie pola widzenia).

Testowane interfejsy API:

Pozytywny: obrazy nie są rozciągnięte, różnica w centrum obrazów nie przekracza 3%, a zachowana jest maksymalna możliwa wartość FoV (pole widzenia).

test_preview_stabilization_fov

Sprawdzanie obsługiwanych rozmiarów podglądu, aby upewnić się, że pole widzenia jest odpowiednio przycięte. Podczas testu rejestrowane są 2 filmy: jeden ze stabilizacja podgląduON, a drugi bez niejOFF. Z każdego filmu wybierany jest reprezentatywny kadr, który jest analizowany pod kątem zmiany pola widzenia w obu filmach, aby upewnić się, że zmiany pola widzenia są zgodne ze specyfikacją.

Testowane interfejsy API:

Przechodzi: stosunek boków koła pozostaje mniej więcej stały, środek koła pozostaje stabilny, a rozmiar koła zmienia się nie więcej niż o 20%.

test_video_aspect_ratio_and_crop

Nagrywa filmy w kształcie koła w kwadracie we wszystkich formatach wideo. Wyodrębnia kluczowe klatki i sprawdza, czy proporcje koła się nie zmieniają, czy przycięte obrazy zawierają koło w środku, czy rozmiar koła nie zmienia się w przypadku stałego formatu lub innej rozdzielczości (sprawdzanie pola widzenia).

Testowane interfejsy API:

Przechodzi: klatki wideo nie są rozciągnięte, środek klatek nie różni się o więcej niż 3%, a maksymalne możliwe pole widzenia (FOV) jest zachowane.

scene5

W przypadku sceny 5 wymagana jest szara scena o jednolitym oświetleniu. Jest to możliwe dzięki dyfuzorowi umieszczonemu na obiektywie. Zalecamy użycie tego dyfuzora: www.edmundoptics.com/optics/window-diffusers/optical-diffusers/opal-diffusing-glass/46168.

Aby przygotować scenę, zamontuj dyfuzor przed aparatem i skieruj go na źródło światła o natężeniu około 2000 luksów. Obrazy wykonane w scenie 5 wymagają rozproszonego oświetlenia bez widocznych elementów. Oto przykładowy obraz:

scene5

scene5 capture

test_lens_shading_and_color_uniformity

Sprawdza, czy korekcja cieniowania obiektywu jest prawidłowo zastosowana, a kolor jednolitej sceny monochromatycznej jest równomiernie rozłożony. Wykonuje ten test na podstawie ramki YUV z automatycznym 3A. Zacienienie obiektywu jest oceniane na podstawie kanału y. Mierzy średnią wartość y dla każdego określonego bloku próbek i określa, czy test się powiódł, czy nie, porównując wynik z wartością środkową y. Test jednolitości kolorów jest oceniany w przestrzeni r/g i b/g.

Testowane interfejsy API:

Pozytywny: aby przejść test, w przypadku obrazu o określonym promieniu odchylenie wartości r/g i b/g musi być mniejsze niż 20%.

scene6

Scena 6 to siatka małych kółek z kwadratem w jednym rogu, który wskazuje orientację. Małe kółka są potrzebne do testowania funkcji powiększania w dużej odległości. Testy w scenie6 mogą być wrażliwe na wyrównanie, dlatego od wersji 15 możesz używać opcji check_alignment.py w katalogu narzędzi, aby włączyć sprawdzanie wyrównania DUT i wykresu.

scene6

scene6

test_in_sensor_zoom

Testuje działanie funkcji zoomu na matrycy, która umożliwia kadrowanie zdjęć w formacie RAW.

Gdy ustawienie przypadku strumienia jest ustawione na CROPPED_RAW, test wykonuje 2 zrzuty w zakresie zoomu: pełny obraz RAW z pełnym polem widzenia (FoV) oraz przycięty obraz RAW. Test konwertuje obrazy na tablice RGB, zmniejsza rozmiar pełnowymiarowego przyciętego obrazu RAW do rozmiaru podanego przez SCALER_RAW_CROP_REGION i oblicza 3D root mean square (RMS) różnicy między 2 obrazami.

Testowane interfejsy API:

Przeszedł: różnica średniokwadratowa 3D (RMS) między pomniejszoną przyciętą kopią obrazu RAW a obrazem RAW w pełnym polu widzenia jest mniejsza niż próg ustawiony w teście.

test_zoom

Testuje zachowanie zoomu aparatu. Wykonuje zdjęcia w różnych zakresach zoomu i sprawdza, czy koła stają się większe, gdy kamera przybliża obraz. W przypadku każdego formatu (YUV, JPEG) do konwertowania 3A i przechwytywania obrazów służy ta sama sesja przechwytywania kamery.

Testowane interfejsy API:

Prześlij: względna wielkość uchwytowanego okręgu jest zgodna z żądanym współczynnikiem powiększenia, co gwarantuje prawidłowe działanie funkcji powiększania.

test_zoom

test_zoom, aby znaleźć kontur koła najbliższego środka.

test_low_latency_zoom

Testuje zachowanie zoomu o niskim opóźnieniu w kamerze. Wykonuje przechwytywanie w zakresie zoomu android.control.settingsOverride = 1 (SETTINGS_OVERRIDE_ZOOM) i sprawdza, czy koła na obrazach wyjściowych odpowiadają współczynnikowi powiększenia w metadanych przechwytywania. Ta sama sesja rejestrowania za pomocą aparatu jest używana do konwergencji 3A i do wykonywania zdjęć.

Testowane interfejsy API:

Przechodzi: względna wielkość uchwyconego okręgu jest zgodna z metadanymi wyników współczynnika powiększenia.

test_preview_video_zoom_match

Testuje, czy podczas nagrywania i powiększania podgląd wideo i wyjście wideo wyświetlają i nagrywają ten sam materiał. Oblicza rozmiar koła najbliższego środka przy różnych współczynnikach powiększenia i sprawdza, czy rozmiar koła zwiększa się wraz ze wzrostem współczynnika powiększenia.

Testowane interfejsy API:

Prześlij: względna wielkość uchwyconego okręgu jest zgodna z żądanym współczynnikiem powiększenia w filmie i podglądzie.

VGA_640x480_key_frame.png

VGA_640x480_key_frame.png (przed powiększeniem)

preview_640x480_key_frame.png

preview_640x480_key_frame.png (przed powiększeniem)

VGA_640x480_key_frame_zoomed.png

VGA_640x480_key_frame.png (po powiększeniu)

preview_640x480_key_frame_zoomed.png

preview_640x480_key_frame.png (po powiększeniu)

test_preview_zoom

Sprawdzanie, czy współczynnik powiększenia każdej ramki podglądu jest zgodny z odpowiednimi metadanymi rejestrowania. Test pobiera klatki podglądu w zakresie zoomu i wyznacza kontur koła najbliższego środka. Test sprawdza, czy wybrane kółko staje się większe i czy środek kółka oddala się od środka obrazu, gdy kamera przybliża obraz.

Testowane interfejsy API:

Prześlij: względna wielkość wybranego okręgu jest zgodna z raportowanym współczynnikiem powiększenia odpowiadającego wyniku przechwycenia we wszystkich ramkach podglądu. Odległość względna wybranego okręgu od środka obrazu jest zgodna z raportowanym współczynnikiem powiększenia uzyskanym w wyniku przechwycenia wszystkich ramek podglądu.

test_zoom

test_preview_zoom images showing selected circle closest to the center

test_session_characteristics_zoom

Testuje zakres współczynnika powiększenia dla wszystkich obsługiwanych konfiguracji sesji wymienionych w CameraCharacteristics#INFO_SESSION_CONFIGURATION_QUERY_VERSION. W przypadku każdej z tych konfiguracji, jeśli CameraDeviceSetup#isSessionConfigurationSupported zwraca wartość true, test sprawdza, czy można osiągnąć zakres współczynnika powiększenia zwracany przez CameraDeviceSetup#getSessionCharacteristics.

Testowane interfejsy API:

Pass: w przypadku każdego obsługiwanego SessionConfiguration (CameraCharacteristics#INFO_SESSION_CONFIGURATION_QUERY_VERSION) można uzyskać zarówno minimalny, jak i maksymalny współczynnik powiększenia.

scene7

Scene7 to prostokątny kadr podzielony na 4 równe kwadranty, z których każdy jest wypełniony innym kolorem. Pośrodku prostokąta znajduje się wykres nachylonej krawędzi do sprawdzania ostrości. Cztery znaczniki ArUco są wyrównane z 4 zewnętrznymi narożnikami prostokąta, aby ułatwić uzyskanie dokładnych współrzędnych ramki głównej prostokąta przy różnych współczynnikach powiększenia.

scene7

scene7

test_multi_camera_switch

Ten test sprawdza, czy podczas nagrywania podglądu przy różnych współczynnikach zoomu przełączanie między obiektywami ultraszerokokątnym (UW) i szerokokątnym (W) daje podobne wartości RGB.

Test wykorzystuje różne współczynniki powiększenia w ramach zdefiniowanego zakresu, aby wykonać dynamiczny zapis podglądu i określić punkt, w którym zmienia się fizyczne powiększenie kamery. Ten punkt oznacza przejście z obiektywu UW na obiektyw W.

Ramki uchwycone w miejscu przecięcia i przed nim są analizowane pod kątem automatycznej ekspozycji (AE), automatycznej regulacji balansu bieli (AWB) i automatycznego ustawiania ostrości (AF).

Sprawdzanie AE zapewnia, że zmiana luminacji mieści się w oczekiwanym zakresie zarówno w przypadku zdjęć z obiektywem UW, jak i W. Sprawdzanie AWB weryfikuje, czy współczynniki R/G i B/G mieszczą się w wartościach progowych zarówno w przypadku obrazów z obiektywem UW, jak i z obiektywem W. Sprawdzanie AF ocenia wartość szacowania ostrości na podstawie średniej wielkości gradientu między obrazami z obiektywu UW i W.

Testowane interfejsy API:

Przeszedł: aby test zakończył się pomyślnie, wszystkie testy AE, AWB i AF muszą zakończyć się pomyślnie. Kryteria poszczególnych kontroli:

  • Sprawdzanie AE: zmiana luminacji między obrazami z obiektywu szerokokątnego i standardowego musi być mniejsza niż 0,5%.
  • Sprawdzanie AWB: różnica między wartościami R/G i B/G w przypadku obrazów z obiektywem szerokokątnym i standardowym musi być mniejsza niż 0,5%.
  • Sprawdzanie AF: zmiana ostrości obrazu między obrazami z obiektywem szerokokątnym i teleobiektywem musi wynosić mniej niż 2%.

scene8

Scene8 to prostokątny kadr podzielony na 4 równe obszary, z których każdy zawiera portret wykonany z różną ekspozycją lub nałożony z różnym odcieniem koloru (niebieski, zwiększona ekspozycja, zmniejszona ekspozycja, żółty). 4 znaczniki ArUco są wyrównane z 4 zewnętrznymi narożnikami prostokąta, aby uzyskać dokładne współrzędne głównej ramki prostokąta.

scene8

scene8

test_ae_awb_regions

Testuje, czy wartości RGB i luminancji różnią się podczas podglądu nagrania w różnych regionach automatycznej ekspozycji (AE) i automatycznego balansu bieli (AWB).

Test rejestruje 8-sekundowy podgląd, wykonując pomiar AE i AWB w każdym kwadracie przez 2 sekundy. Następnie test wyodrębnia z każdego nagrania podglądu pojedynczą klatkę i wykorzystuje ją do wykonania tych kontroli AE i AWB:

  • Sprawdzanie AE: sprawdza, czy klatka zmierzająca region o zmniejszonej ekspozycji ma zwiększoną wartość luminancji o więcej niż 1% w porównaniu z klatką zmierzającą region o zwiększonej ekspozycji. Sprawdza, czy obrazy są rozjaśniane podczas pomiaru ekspozycji w ciemnym obszarze.
  • Sprawdzanie AWB: sprawdza, czy stosunek koloru czerwonego do niebieskiego (średnich wartości RGB obrazu) w ramce z niebieskim obszarem pomiarowym jest o więcej niż 2% wyższy niż w ramce z żółtym obszarem pomiarowym. Dzięki temu obrazy mają zrównoważony kod RGB podczas pomiaru żółtego (ciepłego) lub niebieskiego (zimnego) regionu.

Testowane interfejsy API:

Przeszedł:oba testy AE i AWB zostały zaliczone.

Mechanizmy niepowodzenia:

  • Dokładne wykrywanie wszystkich 4 znaczników ArUco jest niezbędne w przypadku tego testu. Jeśli początkowe wykrycie zawiedzie, system spróbuje wykryć twarz po raz drugi, używając czarno-białej wersji obrazu. Poniższy obraz w szarościach przedstawia dodatkowy etap przetwarzania.

    Niezgodność znaczników ArUco

scene9

Scena 9 składa się z tysięcy losowo wielkości i kolorów okręgów, aby utworzyć scenę o bardzo niskiej powtarzalności, która obciąża algorytmy kompresji JPEG.

scene9

scene9

test_jpeg_high_entropy

Testuje, czy kompresja JPEG w aparacie działa prawidłowo w scenie9 przy wysokiej entropii i współczynniku jakości JPEG ustawionym na 100%. Wzrost współczynnika powiększenia zapewnia, że obraz wyświetlany na tablecie wypełnia pole widzenia kamery.

Testowane interfejsy API:

Przeszedł:plik JPEG został prawidłowo skompresowany, zapisany i odczytany z dysku.

test_jpeg_quality

Testuje jakość kompresji JPEG w aparacie. Zmień ustawienia jakości JPEG za pomocą android.jpeg.quality i upewnij się, że tabele kwantyzacji zmieniają się prawidłowo.

Testowane interfejsy API:

Prześlij: macierz kwantowania zmniejsza się wraz ze wzrostem jakości. (Macierz reprezentuje współczynnik podziału).

test_jpeg_quality

Średnie wartości matrycy DQT luma/chroma aparatu tylnego Pixela 4 w porównaniu z jakością JPEG

test_jpeg_quality failed

Przykład nieudanego testu

Pamiętaj, że w przypadku obrazów o bardzo niskiej jakości (jpeg.quality < 50) nie ma zwiększenia kompresji w macierz kwantowania.

scene_video

Scena scene_video to scena wideo. Składa się z 4 kółek w różnych kolorach, które poruszają się w górę i w dół z różną częstotliwością klatek na białym tle.

scene_video

test_preview_frame_drop

Testuje, czy żądana częstotliwość klatek podglądu jest utrzymywana w dynamicznej scenie. Ten test jest przeprowadzany na wszystkich kamerach, które są dostępne dla aplikacji innych firm.

Testowane interfejsy API:

Przeszedł: częstotliwość klatek podglądu jest maksymalną wartością z zakresu żądanej częstotliwości klatek, a średnia odchylenie między kolejnymi klatkami jest mniejsze od względnej tolerancji ustawionej w teście.

scene_extensions

Testy scene_extensions dotyczą rozszerzeń aparatu i wymagają korzystania z urządzenia Camera ITS-in-a-Box, ponieważ wymagają precyzyjnego kontrolowania środowiska testowego. Dodatkowo należy kontrolować wszelkie wycieki światła. Może to wymagać przykrycia stanowiska testowego, urządzenia testowego i tabletu szmatką oraz wyeliminowania wycieku światła z ekranu przedniego urządzenia testowego.

scene_hdr

Scena scene_hdr składa się z portretu po lewej stronie i kodu QR o niskim kontraście po prawej.

scene_hdr

scene_hdr

test_hdr_extension

Testuje rozszerzenie HDR. Wykonuje uchwyty z włączoną i wyłączoną wtyczką i sprawdza, czy wtyczka ułatwia wykrywanie kodu QR.

Testowane interfejsy API:

Przepuść: rozszerzenie HDR zmniejsza liczbę zmian kontrastu potrzebnych do wykrycia kodu QR lub zmniejsza gradient w przypadku kodu QR.

scene_low_light

Scena scene_low_light składa się z siatki kwadratów w różnych odcieniach szarości na czarnym tle. Siatkę kwadratów ogranicza czerwona obwódka. Kwadraty są ułożone w orientacji krzywej Hilberta.

scene_low_light

scene_low_light

test_night_extension

Testuje rozszerzenie Nocny tryb. Wykonuje przechwytywanie z włączonym rozszerzeniem i wykonuje te czynności:

  • Wykrywanie obecności 20 kwadratów
  • Oblicza luminancję ograniczoną przez każdy kwadrat.
  • Oblicza średnią wartość luminacji dla pierwszych 6 kwadratów zgodnie z orientacją siatki krzywej Hilberta
  • Oblicza różnicę wartości luminancji kolejnych kwadratów (np. kwadrat2 – kwadrat1) do kwadratu 5 i 6 (kwadrat6 – kwadrat5) oraz oblicza średnią z 5 obliczonych różnic.

Testowane interfejsy API:

Pozytywny wynik: średnia wartość luma pierwszych 6 kwadratów musi wynosić co najmniej 85, a średnia różnica wartości luma kolejnych kwadratów do kwadratu 5 i 6 musi wynosić co najmniej 17.

Na wykresie luminancji widać, jak wygląda wynik testu, który kwalifikuje się do przejścia.

scene_low_light_night_pass

test_low_light_boost_extension

Testowanie trybu AE Boost w słabym oświetleniu. Jeśli Camera2 obsługuje tryb AE z wzmocnieniem w warunkach słabego oświetlenia, test jest wykonywany w przypadku Camera2. Jeśli rozszerzenie aparatu w trybie nocnym jest obsługiwane i obsługuje tryb AE z ulepszonym trybem automatycznym w przypadku słabego oświetlenia, test jest również przeprowadzany w przypadku rozszerzenia aparatu w trybie nocnym. Ten test ustawia tryb AE na wzmocnienie w warunkach słabego oświetlenia, pobiera kadr z podglądu i wykonuje te czynności:

  • Wykrywa obecność 20 pudeł
  • Oblicza luminancję ograniczoną przez każdy kwadrat
  • Oblicza średnią wartość luminacji dla pierwszych 6 kwadratów zgodnie z orientacją siatki krzywej Hilberta
  • Oblicza różnicę wartości luminancji kolejnych kwadratów (np. kwadrat2 – kwadrat1) do kwadratu 5 i 6 (kwadrat6 – kwadrat5) oraz oblicza średnią z 5 obliczonych różnic.

Testowane interfejsy API:

Pozytywny wynik: średnia wartość luminancji pierwszych 6 kwadratów musi wynosić co najmniej 70, a średnia różnica wartości luminancji kolejnych kwadratów do kwadratu 5 i 6 musi wynosić co najmniej 17.

scene_flash

Testy scene_flash wymagają ciemnej sceny w polu sensor fusion.

test_auto_flash

Testuje, czy automatyczna lampa błyskowa jest włączana w ciemnych warunkach dla tylnego i przedniego aparatu. W przypadku przednich aparatów automatyczna lampa błyskowa używa ekranu do oświetlenia sceny, a nie fizycznej lampy błyskowej. Test sprawdza, czy automatyczne włączanie lampy błyskowej działa prawidłowo, sprawdzając, czy środek obrazu kafelka jest jaśniejszy, gdy włączona jest automatyczna lampa błyskowa. Aby włączyć automatyczne miganie, światła w urządzeniu testowym muszą być wyłączone. Można je wyłączyć automatycznie za pomocą kontrolera Arduino. Aby test działał prawidłowo, scena musi być całkowicie ciemna. Przed testowaniem na urządzeniu musisz zainstalować aplikację Jetpack Camera (JCA). Automatyczna lampa błyskowa w przypadku tylnych aparatów zależy od stanu AE, ale automatyczna lampa błyskowa w przypadku przednich aparatów nie zależy od AE i jest zawsze włączana.

Testowane interfejsy API:

Prześlij: środek obrazu kafelka z włączoną automatyczną lampą błyskową jest jaśniejszy niż oryginalny obraz sceny dla wszystkich kamer.

test_flash_strength

Testuje, czy kontrola siły błysku w trybie SINGLE jest prawidłowo zaimplementowana.

Sprawdza, czy gdy urządzenie obsługuje kontrolę siły błysku podczas korzystania z kamery w trybie SINGLE, siła błysku zmienia się w zależności od różnych poziomów siły. Sprawdzanie, czy kontrola siły błysku działa z użyciem różnych AE_MODES. Jeśli na przykład tryb automatycznej ekspozycji to ON lub OFF, poziom siły lampy błyskowej ma wpływ na jasność, a jeśli tryb to ON_AUTO_FLASH, poziom siły lampy błyskowej nie ma wpływu na jasność. Aby przeprowadzić test, należy wyłączyć światła w urządzeniu testowym. Światła można wyłączyć automatycznie za pomocą kontrolera Arduino. Aby test działał prawidłowo, scena musi być całkowicie ciemna.

Testowane interfejsy API:

Pass:

Gdy tryb automatycznej ekspozycji to ON lub OFF, jasność obszarów obrazu wzrasta wraz ze wzrostem poziomu siły błysku od braku błysku do FLASH_SINGLE_STRENGTH_MAX_LEVEL. Gdy tryb automatycznej ekspozycji to ON_AUTO_FLASH, różnica w jasności plam obrazu mieści się w tolerancji, ponieważ poziom siły błysku zwiększa się od braku błysku do FLASH_SINGLE_STRENGTH_MAX_LEVEL.

test_led_snapshot

Sprawdzanie, czy migawki LED nie nasycą ani nie zmienią odcienia obrazu.

Ten test dodaje do skrzynki sensora fuzji danych kontroler oświetlenia, aby móc sterować światłami. Gdy światła są ustawione na OFF, test wykonuje przechwycenie z ustawieniami trybu AUTO_FLASH na ON. Podczas tego testu wykonywana jest sekwencja przed zrobieniem zdjęcia z użyciem aePrecapture, w której parametr aePrecapture ma wartość START, a intencja robienia zdjęcia ma wartość Preview, aby wykonać zdjęcie przy użyciu lampy błyskowej.

Ponieważ obraz ma wyraźny punkt naświetlenia z powodu użycia lampy błyskowej, test oblicza średnią wartość obrazu z lampy błyskowej w całym obrazie i sprawdza, czy wartość mieści się w zakresie (68, 102). Aby sprawdzić, czy obraz jest odpowiednio zrównoważony pod względem bieli, test oblicza współczynniki R/G i B/G oraz sprawdza, czy mieszczą się one w zakresie 0,95–1,05.

Testowane interfejsy API:

Przeszedł: współczynniki R/G i B/G mieszczą się w zakresie od 0,95 do 1,05. Średnia wartość obrazu z błyskiem mieści się w zakresie (68, 102).

test_preview_min_frame_rate

Testuje, czy liczba klatek podglądu zmniejsza się prawidłowo w ciemnej scenie. Aby test działał prawidłowo, światła w urządzeniu testowym muszą być wyłączone przez kontroler lub ręcznie przez operatora testu.

Testowane interfejsy API:

Przeszedł test:liczba klatek w podglądzie jest równa minimalnej wartości z żądanego zakresu, a różnica między klatkami jest mniejsza niż bezwzględna tolerancja ustawiona w teście.

test_torch_strength

Testuje, czy kontrola siły błysku w trybie TORCH jest prawidłowo zaimplementowana.

Sprawdza, czy urządzenie obsługuje kontrolę siły błysku podczas korzystania z kamery w trybie TORCH, a moc latarki zmienia się w zależności od różnych poziomów siły. Sprawdzanie, czy kontrola siły błysku działa z użyciem różnych AE_MODES. Jeśli na przykład tryb automatycznej ekspozycji to ON lub OFF, poziom siły lampy błyskowej ma wpływ na jasność, a jeśli tryb to ON_AUTO_FLASH, poziom siły lampy błyskowej nie ma wpływu na jasność. Sprawdzanie, czy moc lampy pozostaje taka sama przez cały czas trwania migawki, symulując sesję nagrywania filmu. Aby przeprowadzić test, należy wyłączyć światła w testowanym urządzeniu. Można je wyłączyć automatycznie za pomocą kontrolera Arduino. Aby test działał prawidłowo, scena musi być całkowicie ciemna.

Testowane interfejsy API:

Przepustka:

Gdy tryb automatycznej ekspozycji to ON lub OFF, jasność plam z błysku wzrasta wraz ze wzrostem poziomu mocy błysku od braku błysku do FLASH_TORCH_STRENGTH_MAX_LEVEL. Gdy tryb automatycznej ekspozycji to ON_AUTO_FLASH, różnica w jasności poszczególnych ujęć w sekwencji mieści się w tolerancji, gdy poziom siły lampy błyskowej zwiększa się od braku lampy do FLASH_TORCH_STRENGTH_MAX_LEVEL.

sensor_fusion

Testy fuzji danych z czujników wymagają określonego ruchu telefonu przed szachownicą i znacznikami ArUco. Aby uzyskać optymalne wyniki, upewnij się, że karta testowa jest zamontowana na płasko. Wykresy, które nie są płaskie, wpływają na obliczenia rotacji w przypadku wielu testów. Wydrukowana na wymiar 17 x 17 cali (43 x 43 cm) musi wypełniać całą tylną część modułu sensora. Testy sensor_fusion można zautomatyzować za pomocą Sensor Fusion Box.

Wykres danych z wielu czujników

Wykres danych z wielu czujników

Wykres łączenia danych czujników w Rig

Wykres czujnika hybrydowego, który wypełnia tył pola czujnika hybrydowego

test_lens_intrinsic_calibration

Testuje, czy optyczny środek obiektywu zmienia się, gdy obiektyw porusza się z powodu optycznej stabilizacji obrazu (OIS). Jeśli są obsługiwane próbki obiektywu, sprawdza, czy optyczny środek próbek obiektywu zmienia się, gdy obiektyw porusza się z powodu optycznej stabilizacji obrazu (OIS).

Testowane interfejsy API:

Przechodzi: optyczny środek obiektywu zmienia się o co najmniej 1 piksel. Jeśli są obsługiwane próbki obiektywu, optyczne środki obiektywu próbek obiektywu zmieniają się o co najmniej 1 piksel.

test_lens_intrinsic_calibration_example.png

Przykład wykresu test_lens_intrinsic_calibration przedstawiającego zmiany głównych punktów w pikselach w przypadku każdego kadru

test_multi_camera_frame_sync

Testuje, czy sygnatury czasowe ramki uchwycone przez logiczną kamerę mieszczą się w zakresie 10 ms, obliczając kąty kwadratów w siatce, aby określić sygnaturę czasową.

Testowane interfejsy API:

Pass: kąt między obrazami z każdej kamery nie zmienia się znacząco podczas obracania telefonu.

test_preview_distortion

Sprawdzanie, czy zniekształcenia są korygowane w ramkach podglądu wykonanych przy różnych poziomach powiększenia. W przypadku każdej ramki podglądu test oblicza punkty idealne na podstawie informacji o właściwościach aparatu i o warunkach zewnętrznych. Na przykładowym obrazie punkty idealne są zaznaczone na zielono, a rzeczywiste – na czerwono. Błąd zniekształcenia jest obliczany na podstawie średniej kwadratowej (RMS) odległości w pikselach między rzeczywistymi punktami a idealnymi punktami. Zielone i czerwone wyróżnienia na obrazie służą do wizualnego wykrywania obszaru błędu zniekształcenia.

test_preview_distortion_example.jpg

Obraz kratki z zielonymi punktami idealnymi i czerwonymi punktami rzeczywistymi

Testowane interfejsy API:

Przeszedł: skumulowany błąd zniekształcenia w ramce podglądu jest mniejszy od progu ustawionego w teście.

test_preview_stabilization

Testy wykazały, że stabilizacja obrazu w podglądzie powoduje mniejsze obracanie niż żyroskop.

Testowane interfejsy API:

Przechodzi: maksymalny kąt obrotu w ramkach jest mniejszy niż 70% obrotu żyroskopu.

Poniżej znajdziesz przykładowe filmy z tą funkcją i bez niej.

  • Przykładowy film ze stabilizacja

  • Przykładowy film bez stabilizacji

test_sensor_fusion

Testuje różnicę w dacie i godzinie między kamerą a żyroskopem w przypadku aplikacji AR i VR. Telefon jest 10 razów obracany o 90 stopni przed szachownicą. Czas trwania ruchu to około 2 s. Ten test jest pomijany, jeśli nie ma sterownika żyroskopu lub jeśli parametr źródła sygnatury czasowej REALTIME nie jest włączony.

Test test_sensor_fusion generuje kilka wykresów. Dwa najważniejsze wykresy do debugowania to:

  • test_sensor_fusion_gyro_events: pokazuje zdarzenia żyroskopu telefonu podczas testu. Ruch w kierunkach x i y oznacza, że telefon nie jest pewnie zamocowany na płycie montażowej, co zmniejsza prawdopodobieństwo zaliczenia testu. Liczba cykli na wykresie zależy od szybkości zapisywania klatek.

    test_sensor_fusion_gyro_events.png

    test_sensor_fusion_gyro_events

  • test_sensor_fusion_plot_rotations: pokazuje wyrównanie żyroskopu i zdarzeń z kamery. Wykres musi pokazywać ruch zgodny między kamerą a żyroskopem z dokładnością do +/-1 ms.

    test_sensor_fusion_plot_rotations.png

    test_sensor_fusion_plot_rotations

Testowane interfejsy API:

Przechodzi: przesunięcie sygnału zegarowego z kamery i żyroskopu jest mniejsze niż 1 ms zgodnie z CDD sekcja 7.3.9 Wysokiej jakości czujniki [C-2-14].

Mechanizmy niepowodzenia:

  • Błąd przesunięcia: przesunięcie kamery-czujnika żyroskopu nie jest prawidłowo skalibrowane w zakresie +/-1 ms.
  • Utrata klatek: łańcuch przetwarzania nie jest wystarczająco szybki, aby zarejestrować 200 klatek pod rząd.
  • Błędy gniazda: adb nie może niezawodnie połączyć się z badanym urządzeniem przez wystarczająco długi czas, aby wykonać test.
  • Wykres nie jest płaski. Wykres test_sensor_fusion_plot_rotationszawiera klatki, w których obrót żyroskopu i kamery znacznie się różni, gdy kamera obraca się wokół części wykresu, które nie są płaskie.
  • Kamera nie jest zamontowana płasko. Wykres test_sensor_fusion_gyro_eventspokazuje ruch w płaszczyźnie XY. Ten błąd występuje częściej w przypadku przednich aparatów, ponieważ tylny aparat często ma uniesioną część, która jest wyższa od reszty obudowy telefonu, co powoduje przechylenie podczas montażu tylnej części telefonu na płycie montażowej.

test_video_stabilization

Testy wykazały, że stabilizacja wideo powoduje mniejsze obracanie niż żyroskop.

Testowane interfejsy API:

Przechodzi: maksymalny kąt obrotu w ramkach jest mniejszy niż 60% obrotu żyroskopu.

Poniżej znajdziesz przykładowe filmy z tą funkcją i bez niej.

  • Przykładowy film ze stabilizacja

  • Przykładowy film bez stabilizacji

feature_combination

Testy feature_combination sprawdzają, czy funkcje działają prawidłowo, gdy włączonych jest kilka funkcji aparatu jednocześnie. W tych testach używany jest ten sam obraz szachownicy, który jest używany w scenie fuzji danych z czujników.

test_feature_combination

Testuje wszystkie kombinacje różnych strumieni, stabilizacji podglądu, docelowego zakresu liczby klatek na sekundę, 10-bitowego filmu HDR i Ultra HDR, które są obsługiwane przez urządzenie z kamerą. Ten test wymaga dużej ilości pamięci, dlatego zalecamy użycie hosta z co najmniej 128 GB pamięci RAM.

W przypadku Androida 15 lub nowszego plik konfiguracji zawiera pole log_feature_combo_support, którego domyślna wartość to False. Gdy pole log_feature_combo_support ma wartość True, test wykonuje wszystkie kombinacje obsługiwanych funkcji i zapisują wyniki w pliku proto bez niepowodzenia testu. W przypadku testów zgodności pole log_feature_combo_support musi mieć wartość False.

Testowane interfejsy API:

Przekaz: w przypadku każdej obsługiwanej kombinacji funkcji:

  • Jeśli włączona jest stabilizacja podglądu, strumień podglądu jest stabilizowany.
  • Liczba klatek na sekundę w podglądzie mieści się w skonfigurowanym zakresie AE_TARGET_FPS_RANGE.
  • Przestrzeń kolorów nagranego strumienia podglądu jest zgodna z ustawieniami.
  • Zdjęcie w ultra HDR ma prawidłową mapę wzmocnienia.