Skocz do zawartości

Dynamika tonalna - HDR


Adam_Jesion

Rekomendowane odpowiedzi

Pytania czy dobrze rozumiem:

HDR to punkt 3 czyli wiele expozycji???

 

Nierozumiem co takiego jest w rawie czego niema w 16bitowym Tifie lub Psd. (róznica między punktem 1 i 2 czy jest inna niz tylko narzędziowa?)

 

Tak jak napisal Sumas, RAW to nie obraz, a zapis wartosci szczytanych z matrycy. Przede wszystkim nie ma skonwertowanej informacji o kolorze. Jezeli by to porownac do obrazu, to najblizej mu do zdjecia BW ktore z kolorem na tym etapie nie ma nic wspolnego. Dopiero w czasie konwersji-interpolacji nastepuje odtworzenie koloru. Algorytmow na to jest sporo, kazdy radzi sobie z tym inaczej. W czasie tej operacji sporo informacji zostaje usunietych, a z drugiej strony powstaje sporo artefaktow (obwodki, ziarno wtorne, czesto wzmaga sie blooming etc.).

 

To co jest w pliku to jakby tylko informacja o obrazie - obraz utajony, to dobry synonim. Teraz od ciebie zalezy, jak to zinterpretujesz. Tak samo jak w filmie, zanim go nie wywolasz to obrazu nie ma - jest utajony.

 

Technologia "wywolywania" RAW z kazdym rokiem sie rozwija. Niesamowite jest to, ze mozesz sobie dzisiaj za pomoca np. PhaseOne lub ACR "wywolac" RAW z poczatkow np. 10D lub 300D - roznica jest ogromna (szczegolnie, jak ktos obrabial RAW oryginalnym softem z Canona - FileViewer'em), zarowno w ostrosci obrazu jak i dynamice/kolorze. Za rok znowu stare RAWy da sie lepiej obrobic. Dlatego firma Adobe chce to wszystko ustandaryzowac wprowadzajac nowy format - tzw. cyfrowy negatyw - DNG. Powoli trzeba sie do niego przyzwyczajac.

 

Kolejnym argumentem jest cecha nowych konwerterow, takich jak wlasnie ACR (Adobe Camera Raw), czyli odtwarzanie informacji w miejscach przepalonych. W pliku RGB nie mialoby to sensu, w zapisie stanu matrycy nie jest juz to takie glupie. W kazdym razie efekty czasami potrafia zaskoczyc. Nagle na przepalonym niebie pojawiaja sie detale. Zeby to zrozumiec muslalbys przejsc calkowicie przez system budowania koloru w dzisiejszych matrycach.

 

Co do samego HDR, chodzi tu o to, ze taki plik z definicji zawiera w sobie cala informacje o scenie. Scena ze swiecaca zarowka zapisana jest tak, ze plik wie, ze drucik w zarowce jest np. 12 tysiecy razy jasniejszy od obudowy. Teraz od ciebie zalezy, jak to bedziesz interpretowal. Mozesz jedna krzywa spowodowac, ze drucik bedzie tylko np. 10x jasniejszy.

 

Dzisiaj HDR w domowych warunkach mozna zbudowac tylko poprzez wielokrotne ekspozycje. Robisz np. 15 ekspozycji. Pierwsza ustawiasz tak, zeby szczegol naswietlil sie tylko na druciku w zarowce. Czyli pewnie czas typu 1/1000, albo i mniej. Potem czas zaczynasz wydluzac tak, zeby zarejestrowaly sie kolejne ciemniejsze elementy sceny. I tak az do zarejestrowania tego, co w cieniach. Zanim tego nie skonwertujesz do HDR masz mase pojedynczych ekspozycji. Moglbys je teoretycznie zmontowac w photoshopie, ale to zdecydowanie nie to samo. Po konwersji do HDR otrzymasz jeden plik 32bitowy, ktory zawiera pelny obraz przetworzony - jeden, a nie wiele ekspozycji. Teraz np. za pomoca krzywej mozesz zinterpretowac taka informacje mapujac informacje z danego przedzialu tonalnego do innego. Czyli spowodowac, ze zarowka nie bedzie tysiace razy jasniejsza, a tylko kilkadziesiat.

 

Gdyby odniesc to do fotografii nocnej, to jestes w stanie w HDR spowodowac, ze jedna fotografia zawiera w sobie noc i dzien. W takim pliku nie ma czegos takiego, jak ekspozycja. Sam mozesz sobie stworzyc dowolna ekspozycje.

 

Jezeli masz np. Photoshopa CS2 to moge ci przeslac plik HDR gdzie suwakiem "ekspozycji" bedziesz mogl sobie ustawic dowolna ilosc swiatla :)

 

Dla mnie niesamowite jest to, w jaki sposob program potrafi zmapowac te kilka ekspozycji i stworzyc z nich jeden spojny plik o pelnej przestrzeni tonalne widzialnego swiata.

Odnośnik do komentarza
Udostępnij na innych stronach

Adam - chyba przesadzasz aobo już pogubiłem się w tych obszernych wyjaśnieniach.

Matryca też ma jakąś krzywą ekspozycji i jej końce są mocno nieliniowe, tam wierność odwzorowania skali jasności jest tym gorsza im bardziej "skompresowana w pionie" jest ta krzywa. W dodatku naświetlenie rozlewa się na inne piksele. Wiara że w rawie czy jakimkolwiek innym zapisie danych z matrycy zawiera więcej niż tam jest (przy jednokrotym naświetleniu) jest wiarą w bajki. Nie byłaby potrzebna żądna migawka ani pomiar ekspozycji, gdyby matryca ZAPISYWAŁA RZECZYWISTOŚC. Potem po doskonałym obrobieniu programowym musielibyśmy patrzeć na zdjęcie Słońca przez przydymioną szybkę!

Edytowane przez cygnus
Odnośnik do komentarza
Udostępnij na innych stronach

Adam - chyba przesdzasz.

Matryca też ma jakąś krzywą ekspozycji i jej końce są mocno nieliniowe, tam wierność odwzorowania skali jasności jest tym gorsza im bardziej "skompresowana w pionie" jest ta krzywa. W dodatku naświetlenie rozlewa się na inne piksele.

 

Problemem matryc jest wlasnie ich liniowosc ekspozycji. Matryca sygnal rejestruje liniowo!

 

Reszty nie rozumiem. Mozesz zadac pytanie, tak zeby cos z niego wynikalo? Jezeli juz uzywasz slowa "przesadzasz" to prosze o argumenty, ale nie na zasadzie gdybania, a konkretow.

 

Mozesz tez rozwinac mysl, jakie ma znaczenie przy temacie HDR kwestia "rozlewania sie pikseli"? :)

Zakladam, ze wiesz o tym, ze w dzisiejszych matrycach trudno mowic o czyms takim jak piksel kolorowy - bo jego w ogole nie ma. Moze sie sygnal wylac np. z zielonego do czerwonego i na odwrot. Ale tak jak mowilem, zupelnie nie czaje, jaki to ma zwiazek z tym tematem?

Odnośnik do komentarza
Udostępnij na innych stronach

Adam - chyba przesadzasz aobo już pogubiłem się w tych obszernych wyjaśnieniach.

Matryca też ma jakąś krzywą ekspozycji i jej końce są mocno nieliniowe, tam wierność odwzorowania skali jasności jest tym gorsza im bardziej "skompresowana w pionie" jest ta krzywa. W dodatku naświetlenie rozlewa się na inne piksele. Wiara że w rawie czy jakimkolwiek innym zapisie danych z matrycy zawiera więcej niż tam jest (przy jednokrotym naświetleniu) jest wiarą w bajki. Nie byłaby potrzebna żądna migawka ani pomiar ekspozycji, gdyby matryca ZAPISYWAŁA RZECZYWISTOŚC. Potem po doskonałym obrobieniu programowym musielibyśmy patrzeć na zdjęcie Słońca przez przydymioną szybkę!

 

Jak ja lubie, jak sie edytuje posty...:szczerbaty:

 

A wiec jeszcze raz ci odpisuje, bo tu troche wiecej napisales. Niestety nie zrozumiales HDR, bo zwyczajnie nie przeczytales. Dlatego bardzo prosze abys swoje dosyc "ostry" komentarze zachowal do momentu, az przyswoisz temat, o ktorym tu dyskutujemy.

 

PS. Ja nie pisze tu o sprawach ktore "mi sie wydaja". RAW zawiera mase informacji, ktorej nie ma juz jpg, albo TIF. Nie wiem, z czym chcesz tu polemizowac.

Odnośnik do komentarza
Udostępnij na innych stronach

na każdy pixel padło tyle fotonów ile padło. fotony te po jakimś analogowym wzmacniaczu przechodzą konwersje A/D i mamy pixel z wartością. kolor nie przeliczony to oczywiste ale nie widze możliwości zdjęcia z rawu więcej dynamiki niż tam jest. może dyskutujmy na zasadzie BMP BW. ile bitów dynamiki da się wyciągnąć z jednego pixela w rawie? 12? 16? 32 więcej? skoro przetwornik A/D jest tylko 12bit.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie byłaby potrzebna żądna migawka ani pomiar ekspozycji, gdyby matryca ZAPISYWAŁA RZECZYWISTOŚC. Potem po doskonałym obrobieniu programowym musielibyśmy patrzeć na zdjęcie Słońca przez przydymioną szybkę!

 

Tak tez wlasnie bedzie "in the future". Nie bedzie zadnej migawki. Jezeli nie wiesz, to powiem ci, ze w tej chwili sa juz dzialajace matryce z 3 i wiecej sensorami na jeden pixel. W tym 2-komorkowa matryca jest seryjnie produkowana. Co to oznacza? Ze w jednym shot'ie zapisywane sa jakby 3 obrazki o 3 roznych czulosciach. Chyba nie musze tlumaczyc, czym w takim wypadku bedzie taki RAW HDR. Jezeli dojdzie do tego zmienna dynamika sensora na poziomie pixela to bedziesz juz mogl w jednym strzale zrobic taka fotke o pelnej dynamice pod slonce.

 

To jest juz fakt, nad tym pracuje sie od blisko 5 lat. Sa juz aparaty seryjne, ktore opieraja sie na tej ideologii, ale niestety niedoskonale pod innymi wzgledami.

 

Rozszerzenie dynamiki zdjecia chociaz do 7-10 przeslon to moim zdaniem, zadanie na najblizszy rok, dwa dla Canona.

 

A jak dla ciebie bajka jest zrobienia jednego zdjecia ze sloncem, czy zarowka to daj maila, to przesle cie te "bajke". Pod warunkiem, ze masz program ktory przeczyta plik HDR.

Odnośnik do komentarza
Udostępnij na innych stronach

na każdy pixel padło tyle fotonów ile padło. fotony te po jakimś analogowym wzmacniaczu przechodzą konwersje A/D i mamy pixel z wartością. kolor nie przeliczony to oczywiste ale nie widze możliwości zdjęcia z rawu więcej dynamiki niż tam jest. może dyskutujmy na zasadzie BMP BW. ile bitów dynamiki da się wyciągnąć z jednego pixela w rawie? 12? 16? 32 więcej? skoro przetwornik A/D jest tylko 12bit.

 

Dokladnie, problem tylko w tym, ze po konwersji zwiazanej z kolorem ta "ilosc" fotonow staje sie umowna. Zauwaz, ze kazdy filtr ogranicza dynamike (czulosc matrycy). Kazdy piksel na dzisiejszej matrycy ma swoj filtr i to tylko jeden konkretny. To sa filtry o roznej przepuszczalnosci widma i roznej efektywnosci. Taka informacje mozna teraz bardzo roznie skonwertowac.

 

Faktem jest, ze tyle fotonow ile zarejestrowala matryca jest wartoscia graniczna. Ale metody konwersji tego koloru polegajace na zrobieniu z jednego obrazu BW 3 obrazow RGB powoduja, ze sporo tam sie dzieje - zaleznie od metody konwersji. Dla przykladu - istnieje technika odtworzenia z RAW obrazu BW o jakosci i rozdzielczosc takiej, jakie nie moglbys juz zrobic z obrazu TIF/JPG, czyli po konwersji informacji do obrazu.

 

Istotne jest tez to, ze te metody konwersji moga powodowac znaczne wydobycie szumu, co jest krytyczne przy np. wyciaganiu detali z cienia. Dlatego wazne jest, aby cienie wydobyc przed konwersja do TIF. Oczywiscie w przypadku tego 12 bitowego materialu jest to walka o subtelne detale, ale w wielu wypadkach warte jest to grzechu.

Odnośnik do komentarza
Udostępnij na innych stronach

Przy wprowadzaniu matryc CCD ich podstawową zaletą była właśnie liniowość (i dalej jest w zastosowaniach fotometrycznych). Tymczasem historia zatoczyła kółko i to co było wielką zaletą okazuje się największą wadą. Jaja jak berety.

 

No coz - wszystko ma swoje wady i zalety, przez co pewne specjalizowane zastosowania. Najprostsza metoda w fotografii dziennej na zwiekszenie dynamiki zdjecia jest zlikwidowanie liniowosci matrycy. Po prostu trzeba zrobic mechanizm, ktory pozwoli na oslabianie czulosci piksela w miare, jak sie nasyca fotonami.

 

Obawiam sie, ze zanim to nastapi to predzej doczekamy matryc z 3 sensorami na pixel o roznej czulosci wyjsciowej. Juz dodanie drugiego robi swoja robote, ale 3 to juz rewolucja.

Odnośnik do komentarza
Udostępnij na innych stronach

na każdy pixel padło tyle fotonów ile padło. fotony te po jakimś analogowym wzmacniaczu przechodzą konwersje A/D i mamy pixel z wartością. kolor nie przeliczony to oczywiste ale nie widze możliwości zdjęcia z rawu więcej dynamiki niż tam jest. może dyskutujmy na zasadzie BMP BW. ile bitów dynamiki da się wyciągnąć z jednego pixela w rawie? 12? 16? 32 więcej? skoro przetwornik A/D jest tylko 12bit.

 

raw to nie jest plik, w którym są zawarte współrzędne pixela i jego wartość, (bo inaczej byłby to obrazek) to musi być dużo bardziej skomplikowane, gdzieś czytałem, że to podlega konwersji przez liczbę całkowitą wartości iso, i jeżeli jakaś liczba (wartość pixela) nie dzieli się przez liczbę całkowitą (np. wartości iso) to jest zaokrąglana, (i dlatego np. są części obrazka z niejednakową wartością iso) ale to już chyba kryptografia na liczbach pierwszych, a z nią ostatnio, matematycy wyprawiają istne cuda :D (o choćby kodowanie RSA) więc stąd chyba, istnieje taka możliwość odczytania czegoś, czego nie powinno dać się odczytać :)

Odnośnik do komentarza
Udostępnij na innych stronach

Przy wprowadzaniu matryc CCD ich podstawową zaletą była właśnie liniowość (i dalej jest w zastosowaniach fotometrycznych). Tymczasem historia zatoczyła kółko i to co było wielką zaletą okazuje się największą wadą. Jaja jak berety.

 

Matryce CCD stosowane były na początku w astronomii, a nie w fotografii. Pierwsze detektory CCD z jakich widziałem fotki

miały rozmiary 128x128 pikseli i były w uzyciu już na początku lat 80tych. Właśnie w astronomii z punktu widzenia fotometrii

liniowość na dużym zakresie magnitud była ogromną zaletą. Wszystko zależy od wymagań i standardów. Matryce współczesnych lustrzanek cyfrowych z punktu wiedzenia astronoma właśnie nie są zbyt liniowe :) Dla fotografa ta sama matryca jest już za

bardzo liniowa.

 

 

Arek

Odnośnik do komentarza
Udostępnij na innych stronach

Matryce CCD stosowane były na początku w astronomii, a nie w fotografii. Pierwsze detektory CCD z jakich widziałem fotki

miały rozmiary 128x128 pikseli i były w uzyciu już na początku lat 80tych. Właśnie w astronomii z punktu widzenia fotometrii

liniowość na dużym zakresie magnitud była ogromną zaletą. Wszystko zależy od wymagań i standardów. Matryce współczesnych lustrzanek cyfrowych z punktu wiedzenia astronoma właśnie nie są zbyt liniowe :) Dla fotografa ta sama matryca jest już za

bardzo liniowa.

Arek

 

Nie sa dobre do astro, bo nie dosc ze maja filtr color matrix, to jeszcze do tego filtr AA.

Odnośnik do komentarza
Udostępnij na innych stronach

Obawiam sie, ze zanim to nastapi to predzej doczekamy matryc z 3 sensorami na pixel o roznej czulosci wyjsciowej. Juz dodanie drugiego robi swoja robote, ale 3 to juz rewolucja.

Foveon już wypuści czip x3 do stosowania w lustrzankach Sigmy. Ale nie dam głowy, że to właśnie o tym jest mowa. http://www.imaging-resource.com/NEWS/1067212802.html

Odnośnik do komentarza
Udostępnij na innych stronach

Nie sa dobre do astro, bo nie dosc ze maja filtr color matrix, to jeszcze do tego filtr AA.

 

Skoro juz odeszlismy troche od tematu to zadam pytanie ktore ostatnio mnie meczy:

 

chodzi mi o filtr AA. Z tego co wiem to rozwiazanie czysto softwareowe, zaszyte w firmware aparatu. Kodak chwali sie jednak ostatnio ze montuje w swoich cyfrowkach optyczny filtr AA. Wg mnie sa to komercyjne bzdury ale chce sie upewnic co do tego na 100%. Jak mozna stosowac optyczny filtr AA przed matryca, skoro winien on usuwac efekt (aliasing) powstaly juz w samej matrycy. Czy filtr AA moze rowniez byc filtrem optycznym, czy tez Kodak plecie bzdury?

Edytowane przez Andee
Odnośnik do komentarza
Udostępnij na innych stronach

... ze w tej chwili sa juz dzialajace matryce z 3 i wiecej sensorami na jeden pixel. W tym 2-komorkowa matryca jest seryjnie produkowana.

A jak dla ciebie bajka jest zrobienia jednego zdjecia ze sloncem, czy zarowka to daj maila, to przesle cie te "bajke". Pod warunkiem, ze masz program ktory przeczyta plik HDR.

 

Wiem o tych podwójnych matrycach, nie wiedzieć czemu nie robią na razie furory, widocznie jest w tym jakiś myk, niekoniecznie nawet kosztowy czy patentowy.

 

Czy ten plik HDR nie jest zsyntezowany z kilku źródłowych?

 

W sumie cała procedura polega na tym żeby dokonać kompresji:

- od skali rzeczywistej rozpiętości naświetleń (w przyrodzie)

- do skali możliwej do odtworzenia na "przetworniku wizualizującym": monitorze, slajdzie, papierze,

w jakiś techniczny sposób przebijając się przez ograniczenia całego toru przetwarzania:

- skalę rozpiętości tonalnej przetwornika obraz/sygnał,

- liniowość całego procesu obróbki.

Jeśli skompresowana skala przy zachowaniu liniowości zmieści się w skali urządzenia odtwarzającego obraz - przeważnie odczucie uzyskamy NIENATURALNE. Żeby przyciętą do możliwości skalę odbierać naturalnie - trzeba trochę powykrzywiać te idealne liniowości, żeby interpretacyjne możliwości mózgu usatysfakcjonować. I tutaj sa ukryte największe możliwości tych róźnych programowych czarodziejskich różdżek! :Salut:

Odnośnik do komentarza
Udostępnij na innych stronach

Tak, dokladnie tak jest. Tak samo w normalnej fotografii. Fotografujesz przeciez jakis wycinek rzeczywistosci. Albo inaczej, biorac do reki olowek, czy pedzel tworzysz jakies obraz rzeczywistosci. Oko tez przeciez nie jest w stanie zarejestrowac wszystkiego. Sa ekrany potrafiace wyswietlic ogromna dynamike, ale co z tego? Jak zerkniesz w swiecace slonce na ekranie to i tak zrenica sie zamknie i wszystko dookola zrobi sie ciemne.

 

Plik HDR zawiera nadmiar informacji i ogromna elastycznosc. Jak to wykorzystasz to juz zalezy od wizji i celu. Oczywiscie czlowiek bez "oka" zrobi pasztet... ;)

Odnośnik do komentarza
Udostępnij na innych stronach

słuchajcie to jest jeszcze "prosta" droga. Sony robi przetworniki A/D 14bit. jakby zrobic odpowiednio dużą studnię potencjału i wielobitowy przetwornik A/D tak z 18-20bit to można by pojechac i na tych liniowych matrycach.

Odnośnik do komentarza
Udostępnij na innych stronach

Foveon już wypuści czip x3 do stosowania w lustrzankach Sigmy. Ale nie dam głowy, że to właśnie o tym jest mowa. http://www.imaging-resource.com/NEWS/1067212802.html

tu jest mowa o matrycy dla kazdego koloru osobno R G B

lustrzanki Sigma mają juz takie baaardzo długo.

w kamerach Panasonica sprawdziło sie to bardzo fajnie a w aparatach nie poszło to. niewiem moze dlatego ze efekt nie pobił na głowe rozwiązania tradycyjnego.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie przyjely sie dlatego, ze:

1. niska rozdzielczosc. Przy tym szybkim rozwoju rozdzielczosci zawsze mozesz downsamplowac obraz i wyjedzie na to samo, co w faveonie.

2. wysoka cena

 

Nie zmienia to faktu, ze taka matryca nas czeka. Czytalem, ze Canon ma juz bardzo zaawansowane testowe matryce x3.

 

Wyscig na pixele traci juz czas. Teraz producenci zaczna sie skupiac nad jakoscia pojedynczego pixela. I o to chodzi!

Odnośnik do komentarza
Udostępnij na innych stronach

Foveon już wypuści czip x3 do stosowania w lustrzankach Sigmy. Ale nie dam głowy, że to właśnie o tym jest mowa. http://www.imaging-resource.com/NEWS/1067212802.html

 

To zupelnie nie o to chodzi. Ta metoda ktora cytujesz pozwoli na uzyskanie rozdzielczosci pelnej, a nie 1/3 jak jest teraz, bo przeciez zadna cyfra nie ma np. 8Mpix w kolorze - i to chyba najwieksza sciema konsumencka w cyfrach.

 

Obraz z foveona mozna interpolowac 2-3x i ostrosc bedzie porownywalna z taka matryca z Canona. Roznica w jakosci jest znaczna. Mowiac odwrotnie - kiedy powstanie matryca w technologii 3 warstw (tak jak wlasnie foveon) np. 12.8 pix Full Frame to jej odpowiednik dzisiejszy musialby miec rozdzielczosc bliska 40 mpix aby dac porownywalna jakosc.

 

Nie ulega watpliwosci, ze takie matryce nas czekaja w najblizszym czasie, ale jestem przekonany, ze przy fizycznej rozdzielczosci np. 8mpix canon bedzie krzyczal w danych technicznych, ze to matryca 24 mpix. Dokladnie tak krzyczy Sigma SD10, ktora ma efektywnie 3.4 mpix, a mowi o sobie ze jest tego 10.6 mpix (porownujac sie jakoscia do 10.6 ;)).

Odnośnik do komentarza
Udostępnij na innych stronach

fuji jeszcze próbuje od jakiegoś czasu, podbić świat swoim wynalazkiem: superCCD SR

matryca zawiera dwa rodzaje sensorów; o niskiej i wysokiej czułości:

 

srdiagram.jpg

 

całość zresztą jest ładnie wytłumaczona i pokazana tu:

http://www.dpreview.com/news/0301/03012202fujisuperccdsr.asp

heh, w sumie to taki hardwarowy HDR :) ale jednak jakoś się nie przyjęło to rozwiązanie, a jest stosowane już od modelu bodajże FinePix S5000, czyli już od 2-3 lat

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.