@kondziowy: gadasz od rzeczy. W Tegra 2 stockowy zegar to 300 i 333MHz (zależnie od tego czy SoC do smartfona czy tabletu) i GFLOPS były niezłe (4.8 GFLOPS w smartfonach i 5.6 w tabletach), bo w tym czasie rządziły na rynku PowerVR SGX540 @ 200 MHz (3.2 GFLOPS).
Tegra 3 miała stockowe zegary na 520MHz w zwykłych układach i 416 MHz w wersji z obniżonymi zegarami (T30L - ten z Nexus 7) i osiągał wydajność obliczeniową 12.5 GFLOPS i 10 GFLOPS. Mali400MP4 oscyluje wokół tych granic i w zależności od taktowania może być bardziej lub mniej wydajne (Mali400MP4 z SGS2 jest mniej wydajne, a z SGS3 jest bardziej wydajne).
OFC to tylko gadanie na temat wydajności obliczeniowej - sama w sobie o wydajności GPU jeszcze nie świadczy.
PS. Nvidii nie ratuje fakt, że gry są pod nią pisane... wręcz przeciwnie, bo właśnie to jest jej problemem, że nie są i jako jedyny na rynku normalny rasteryzer (jak w PC czy konsolach) musi mieć optymalizowane renderowanie sceny względem odległości od kamery i zasłaniania przez inne obiekty, a w grach mobilnych takiej optymalizacji nikt nie robi, bo rendering kafelkowy (adreno, mali, powervr) go nie potrzebuje. Jeśli gdy byłyby pod Tegrę optymalizowane to wydajność GFLOPS zupełnie trafiłaby znaczenie, bo Tegra 3, ma możliwości znane z OpenGL ES 3 i potrafi podczas jednego render passu zapisywać dane do 4rech tekstur jednocześnie, przez co to co Mali musi robić 4x przetwarzając wierzchołki i ich shadery to Tegra 3 potrafi zrobić za jednym razem i oszczędza sporo czasu, który Mali (starsze niż seria 600)/PowerVR (starsze niż nadchodząca seria 6) czy Adreno (starsze niż 300) marnuje na robienie wielokrotnie tego samego.
3dmark to najgorszy istniejący benchmark - zupełnie nie obciąża najważniejszej w grach kwestii - fillrate.
@Edit ze względu na edit ;p:
3dmark bada jedynie moc obliczeniową. Nie obciąża, ani jednostek teksturujących, ani ROPów, ani nic innego. Dlatego pokazuje śmieszne dane - przykładowo Adreno 225 ze śmiesznym fillrate (najważniejszy aspekt w grach) jest jenym z najlepszych GPU, i wyprzedza dużo lepiej zbalansowane i wydajniejsze we wszystkich grach Tegra 3 lub Mali400MP4 (oba z kilkukrotnie wyższym Fillrate). Pod Tegrę 3 trzeba tylko posortować rendering - silniki jak Unity/UE3 i inne to robią, więc nie ma wielkiego strachu o tą optymalizację - tylko gry robione przez małe firmy istniejące tylko na rynku mobilnym mają problemy. Co do tego co pisałem o MRT to w niewielu grach wykorzystano tę zaletę (tylko te z TegraZone), ale teraz wkraczamy w erę OpenGL ES 3 w którym MRT jest standardem w dokładnie takiej wersji jak na Tegra 3, więc na nowych grach i nowym podejściu zyskają też użytkownicy Tegra 3, a inne GPU z tego okresu dostaną po tyłku dostając okrojoną wersję względem Tegry 3 i GPU GLES3 jak Adreno320 i Mali T6xx.