Chodzi o to ze algorytm zaszyty w aplikacji google lepiej (rzekomo)
rozpoznaje obiekty i ich krawedzie na "trudnym" tle, niz ten od samsunga.
Zdarzalo mi sie robic zdjecia w samsungowym trybie "wybiorcze pole
ostrosci" i oprogramowanie slabo rozpoznawalo krawedzie.
Zalaczam zdjecie w trybie "samsung" - zauwazcie ze ogonek liscia
jest nieostry (nie zostal poprawnie wykryty) oraz po lewej stronie
lisciasa biale śmiecie. Te śmiecie pochodza od oprogramowania.
Niestety nie mam zdjecia w wersji "google".
Krotko mowiac aplikacji google trzeba dac szanse w trudnych warunkach.