od FotoABC 9. 2. 2013 17:05
"to znie akoby výrobcovia externých RAW konvertorov už nemohli ponúkať žiadnu pridanú hodnotu..."
... ale samozřejmě můžou, RAW formát dat je stále ještě dost pružný. To je vcelku normální, že část postprocessu se udělá hardwarově/firmwarově ve foťáku do RAWu a část se udělá v PC RAW konvertorem.
Kdyby byl RAW nečitelný pro jiné firmy než pro výrobce, pak by stačilo dělat mnoho věcí až v PC, jenže výrobci fotoaparátů to bohužel nemohou zařídit, i když třeba Nikon se v historii o to mnohokrát snažil. Pak výrobcům ani nezbývá nic jiného, než mnoho věcí udělat ve foťáku aby pověst jejich výrobku nekazila RAW konverze cizích výrobců RAW konvertorů.
Nicméně tohle je podružný důvod. Ten hlavní důvod je ten, že to, co jde udělat před A/D konverzí, to je lépe udělat už s analogovým signálem a taktéž když už fotoaparát produkuje JPEG, pak tam ty algoritmy stejně musí být.
Podívejte se třeba na to, jaký problém byl zpočátku v tom, že objektivy pro m4/3 mají obrovské soudkovité zkreslení a standardem konverze se stalo srovnání. Když to nějaký konvertor neuměl, tak z toho byla nepříjemná ostuda.
No a všechny firmy si vypilávají Nikon barvy, Canon barvy, Olympus barvy, .... Tohle nemohou nechat ani na výrobcích snímačů ani na externích RAW konvertorech. Osobně jsem slyšel od zástupců Nikonu, že výroba snímačů je prakticky volný trh, na kterém se rozhoduje často dle ekonomických faktorů, výrobních kapacit a dle schopnosti a ochotě výrobce přizpůsobit všechno požadavkům výrobce fotoaparátu: konkrétní barvy RGB filtrů, konkrétní AA filtr, vyčítací kanály, nastavitelné výrobní tolerance, stabilita kalibrace, .... Pokud z toho jedno vyjde Sony, podruhé Aptina a potřetí Toshiba, musí ze všech lézt Nikon barvy dle představ designérů Nikonu, nesmí to být Toshiba barvy či Sony barvy. Prostě to, co se děje mimo buňky snímače, mnohem víc ovlivňuje výsledek, než vlastní děje v potential wells.
-- 9. 2. 2013 17:21 --
Vemte si základní fakt: 1EV, pouhý 1 EV je roven dvojnásobku elektronů v "potential well", tedy v buňce. Při ISO 100 za jednotku času dopadne na plochu jedné buňky snímače stále stejný světelný tok. Píše se jak mikročočky zvyšují efektivitu už asi 10 let. Snížením zadrátování se výrobci chlubí každou generaci také tak dlouho.
Od doby 6 MPx snímačů máme dnes u 24 MPx snímačů 4x menší plochu na dopad světla, To by bylo zhoršení o 2 EV při stejné efektivitě využití dopadlého světla.
Jenže on se šum i dynamický rozsah od té doby NAOPAK zlepšil O kolik? O 3EV? Dejmetomu. Takže výsledný zisk je 2EV + 3EV = 5EV.
Zdánlivě 32x lepší pochytání světla na stejné ploše.
Opravdu si někdo myslí, že bylo možné zlepšit využitelnou plochu snímače 32x ?????
Hloupost co?
Tak v čem to je?
V postprocessu, ve výkonu hardware navazujících obvodů a A/D převodníků a grafických snímačů, v podstatně chytřejším firmware a ve výkony procesorů umožňujících to zpracovat.
Ten zisk na snímači nebude od té doby 5 EV, ale tak 1-2 EV a zbytek je zpracování!!!! Zpracování!!! Know-how výrobců foťáků, výkon procesorů.
Schopnost ošidit náž zrak tím, jak rozpatlají neviditelné a softwarově doostří detaily.
Proto už výsledné obrázky nešumí jako kdysi pouze úměrně množství zachyceného signálu v buňce, ale šumí uměrně schopnosti prostprocessu to zpracovat. Takže když se podíváme na kontrastní technickou scénu testovacího zátiší na dpreview.com, tak se na ní foťáky překonávají, protože je jasné, co je hrana a co je plocha, co doostřit a co homogenně rozmáznout. Pokud vyfotíme krajinu s horizontem při východu slunce, je výkon fotoaparátů o něčem úplně jiném. Najednou vidíme vzdálenou travnatou louku jako zelenou plochu, protože ta tráva zdálky imituje šum a foťáky se na to chytí. Zatímco na testu dpreview.com správně detekují kresbu, jelikož je pravidelná, kontrastní, ....
-- 9. 2. 2013 17:33 --
Podívejte se na texturu starých digitálů a na texturu dnes. Obrovský rozdíl! Myslíte, že za ten kvalitativní rozdíl (zajímavá otázka je zda k lepšímu či také zčásti k horšímu) můžou jen snímače? Kdepak. Postprocess. Totálně se změnil už vůbec pohled na signál. Kdysi nám výrobci ukazovali, co opravdu snímač zachytil. Ty doby jsou nenávratně pryč. Dnes nám ukazují i v RAWu něco, co jen velmi komplikovaně lze srovnat se surovým signálem.
Radka Tezaur, která se tím v USA přímo jako matematička zabývá, psala jak strašně složité jsou matematické metody, které ovlivňují dopočtení třeba červeného kanálu z průběhu modrého a zeleného. A ty matematické metody prý potřebují stále více bitů přesnosti, i když už jsou tam vlastně nesmysly a dostaneme se rychle teoreticky pod úroveň 1 elektronu. A psala i o tom, jaké požehnání je pro tu matematiku více megapixelů. Ovšem kdyby výrobci nechtěli 100% rozlišení, to by se to dalo čarovat. Ale ono se to blíží. Matematici potřebují více dat na vstupu, než na výstupu. Zatim jim to výrobci nedávají, z 24MPx snímače chtějí 24MPx výstupních dat. Už aby byly 64MPx snímače s výstupem 16MPx dat. To byste viděli kresebnou kvalitu, kdyby mohly rovnou obvody snímače inteligentně produkovat 16MPx z 64MPx vstupu. Žádný AA filtr, jen matematika.