od FotoABC 16. 8. 2013 15:56
Ganec - omyl: jak známo, tak detekce fáze funguje na podkladě vyhodnocení světelných paprsků, které NEJSOU zaostřené v rovině snímače, ale před rovinou snímače nebo za ní. Tudíž když prochází snímačem, neprochází tím pixelem, jehož obraz nesou, ale pixelem o 1,2,3, ...50 ....100 pixelů vedle. Pak logicky čím delší je senzor, tím více světla z těchto rozostřených paprsků pochytá a tím spíš odliší kontrast za špatného světla a tím spíše ten slabý kontrast odliší třeba i od šumu.
Jenže do každého pixelu přichází jak informace o tom rozostřeném obrazu vedle, který chceme, tak samozřejmě případně i zaostřená informace o správném korespondujícím objektu (což zrovna nechceme) a také paprsky nesoucí rozostřenou informaci o jiném kontrastu, který také neměříme. A to všechno se sumuje.
A teď: před AF senzorem jsou speciální optické členy, které dokáží odseparovat ty paprsky, které chceme, od těch, které nechceme, a díky větším pixelům i z té 1/3 světla získají třeba 3x víc, když je pixel jen 9x větší, což je ještě málo.
Na snímači s detekcí fáze máme 2 problémy: každý pixel je moc malý, protože rozlišení snímače je velké a jedinou separací chtěných a nechtěných paprsků je to, že bereme VNĚJŠÍ paprsky a VNITŘNÍ blokujeme. To je sice dobré, ale oproti speciálním optickým členům docela dost málo.
Takže každý AF proužek je složen z mnohem více pixelů když je na snímači, než když je na AF senzoru, tudíž na snímači nasbírá větší šum nehledě na to, že má před sebou RGB filtr Bayerovy masky, což je taky dost slušná nevýhoda.
Kromě toho je tam jen nejprimitivnější separace paprsků odstíněním vnitřní poloviny, což je žalostně málo oproti tomu, co může být na AF senzorech.