Na początek próbka z YouTube. Ale wstrzymaj się jeszcze z osądzaniem - osobiście to ja nie ufam takim filmikom. Czekam na realne testy tu na forum od użytkowników.
Kilka słów o samym Aparacie.
Adaptive Pixel jest stale aktywny - telefon wybiera:
- Nagrywanie w pełnej rozdzielczości 108 MPx przy wystarczającym oświetleniu.
- 108MPx + 12MPx - kiedy światło nie jest już takie świetne.
- 12MPx „tylko”, gdy robi się zbyt ciemno; całość z klasycznym multiframeingiem.
Warunkiem dla Adaptive Pixel jest to, aby obraz o rozdzielczości 108 mpx był nadal możliwy. A więc tak, można nim poprawić obraz 108MPx - ale nie da się tego zrobić w drugą stronę. Więc podaj obrazowi 12 mpx więcej szczegółów.
Sam Samsung o tym pisze - przypis "2" :
Samsung Newsroom DE
Obrazy nie są tworzone w tym samym czasie i to jest ogromnym minusem tego Aparatu, ale całość działa świetnie, o ile na zdjęciu nic się nie porusza lub czasy naświetlania są dobre. Jak tylko światło będzie słabe, będziesz miał problemy z poruszającymi się przedmiotami - wystarczy zimowo jesienno letni podmuch wiatru - i ucierpi JAKOŚĆ.
A tutaj od Google na temat „jak to zrobić” takie nagrania:
https://ai.googleblog.com/2021/04/hdr-with-bracketing-on-pixel-phones.html
To wtedy BARDZO zależy od jakości zaplanowanego algorytmu, czy uzyskasz wyliczone „przesunięcie” na zdjęciach. Samsung łączy teraz całość z Adaptive Pixel. Zdecydowanie ciekawe podejście. Możesz teraz sterować jasnością nie tylko poprzez czas nagrywania i czułość, ale także poprzez „rozmiar piksela”. Z jednej strony może to mieć pozytywny wpływ poprzez krótsze czasy nagrywania „jasnych obrazów”. Lub po prostu: materiał źródłowy jest jakościowo lepszy i/lub potencjalnie masz mniej artefaktów z powodu ruchu. Równoległe przetwarzanie i nagrywanie byłoby możliwe, gdyby całość była prowadzona przez dwa różne czujniki. Ale nie zaszliśmy jeszcze tak daleko. Chodzi mi o to, że Huawei próbował tego wcześniej z czujnikami monochromatycznymi.