Skocz do zawartości

Pseudo-tutorial RGB - masakracja zdjęć Szymka + odpowiedź dla Taysona


Adam_Jesion

Rekomendowane odpowiedzi

Cieszę się że znalazłeś czas i uploadujesz swoje wypociny w postaci workflow... tylko przyklasnąć, chętnie udostępnię klatki do zabawy byle był "fun"...

 

Oczywiście znowu coś schrzaniłem. Jakość tego nagrania jest fatalna. Jestem leszczem screencapturingu :) Ktoś może polecić na przyszłość jakiś sensowny program? Ja użyłem Open Broadcaster Software (OBS) i zgrał mi ekran do mp4 - ale z jakimś fatalnym bitrate :( Sieczka. Ale mam nadzieję, że coś tam dojrzycie i nie obśmiejecie mnie za promocję dziadostwa ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Mam rozumieć że o LAB wiedzieli tylko wybrańcy? Po tym co zobaczyłem RGB to jakaś masakra. Kto w ogóle rozpowszechnił to RGB?

Świetny ten film bardzo prosto omawiasz to co robisz.

 

Dzięki, miło wiedzieć, że ktoś wytrzymał 30 minut moich smętów. A co do LAB - nie wiem, kto wiedział, a kto nie - mam nadzieję, że każdy.

 

Ja mam ten problem, że grafiką zawodowo zajmowałem się 20 lat. Po takim czasie pewne rzeczy stają się oczywistą oczywistością i nawet przez myśl ci nie przechodzi, że ktoś może tego nie wiedzieć. Dlatego takie osoby jak ja, nie są wcale najlepszymi nauczycielami, bo nie są świadomi "niewiedzy" innych.

 

Robiąc ten film zastanawiałem się, czy poruszyć kwestię modelu koloru (Lab/RGB). Wydwało mi się to takie trywialne. Cieszę się, że komuś się jednak przyda.

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

zastanawialem sie czy luminancja z lab color jest lepsza od desaturowanego RGB?

wychodzi ze tak.

 

 

Desaturować RGB nie wolno (w zwykły sposóB), bo też następuje oszustwo. Będzie o tym w następnym filmiku :)

A poniżej przykład - jak to wygląda w praktycje. Słabo.

desaturacja.jpg

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Robiąc ten film zastanawiałem się, czy poruszyć kwestię modelu koloru (Lab/RGB). Wydwało mi się to takie trywialne. Cieszę się, że komuś się jednak przyda.

Zakładam klub oświeconych - którzy o istnieniu Lab nie mieli pojęcia :) Wielkie dzięki za filmik, dla mnie bardzo wartościowy, jak pewnie dla wielu innych. Nie wiem, jak wy się z tym lab mogliście tyle kryć, na Astropolis nigdy o tym nie słyszałem...

No i już wiem, skąd co poniektórzy czarowali te kolory na astrowizji - kolorystyka, którą uzyskałeś jest bardzo charakterystyczna, ma taki "styl", który wyróżnia kilku naszych astrofotografów. Zresztą bardzo mi się on podoba, ale nie miałem pojęcia, jak go wyczarować.

 

Szczerze mówiąc wciąż nie rozumiem, czemu zmiana tego trybu ma prawo cokolwiek zmienić... Zdaję sobie sprawę, że zmiana nasycenia to zapewne dość złożony algorytm, a nie prosta operacja matematyczna i stąd może te różnice wynikają. Wiem tylko tyle, że jakimś sposobem na zmianę saturacji jest konwersja do HSV, zmiana S i powrót do RGB :) Sam tak zresztą robiłem w swoim programiku kiedyś. Ale czy PS tak robi, to już nie wiem. No i ciekawe, co się dzieje w tym całym Lab.

 

Desaturować RGB nie wolno (w zwykły sposó B), bo też następuje oszustwo. Będzie o tym w następnym filmiku :)

A poniżej przykład - jak to wygląda w praktycje. Słabo.

Hmm,hmm,hmm. Tu to mnie zupełnie zaskakujesz. Zawsze uważałem, że desaturacja to zwyczajne policzenie średniej dla składowych RGB i wpisanie tego do monochromatycznego piksela. To jest proste i logiczne. Szczerze mówiąc nie mam pojęcia, co tu można zmienić i dlaczego... ale się pewnie dowiem :)

Odnośnik do komentarza
Udostępnij na innych stronach

szeroki temat wykraczający daleko poza astroobróbkę!

 

ale nawet w aplikacjach, których twórcom nie śniło się o przestrzeniach barw, zauważono, że tak niby oczywista operacja jak robienie obrazu czarnobiałego z kolorowego daje złe wyniki gdy idąc na skróty tylko uśredni się wartości RGB.

dlatego stała się szczególnym przypadkiem i jest obsługiwana w miarę prawidłowo (na obrazku - gimp)

desaturacja.gif

 

niestety, zwykle tylko ta jedna funkcja uwzględnia że kanaly RGB mają niejednakową jasność :( (bo w praktyce to właśnie jest największa i całkiem łatwa do implementacji różnica w efektach obróbki koloru w Lab i RGB)

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Przez was musiałem zrobić test :) Sprawdziłem, jak ten obrazek Adama wygląda po desaturacji "fizycznej", czyli po prostu na zdjęciu z monochromatycznej matrycy (ASI174MM). Chyba nie będzie nadużyciem powiedzenie, że takie zdjęcie to wierny sposób desaturacji. I co wyszło?

Uranus_155908_L_0000.jpg

Twoja "prawidłowa" desaturacja Adamie coś nie do końca jest prawidłowa :) Ale faktycznie istotnie lepsza, niż zwykłe uśrednienie (czyli środkowy pasek). Ten test przekonał mnie wreszcie, że coś jest na rzeczy i to nie prosta sprawa.

 

W PSie jest jeszcze jedna opcja desaturacji poza operacją "desaturate". Otóż można zmienić tryb na "grayscale". I co ciekawe, efekt jest jeszcze inny, niż w pozostałych przypadkach (ale niezły) :) Ja do tej pory tak się pozbywałem koloru.

 

Poniżej zestawienie wszystkich wyników (obrazu z kamerki oczywiście nie da się idealnie dopasować jeśli chodzi o jasność itp z wielu względów, ale poglądowo jest ok; rzetelnie można go porównać na poprzednim obrazku).

porównanie.jpg

 

Czy w całym zagadnieniu chodzi o uwzględnienie charakterystyki QE matrycy od długości wali? To wydaje mi się logiczne. Tylko jak to zrobić, nie znając tej charakterystyki? Jest przyjmowany jakiś uniwersalny, przybliżony model?

Edytowane przez MateuszW
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Pamiętaj, że twoja kamera i monitor inaczej będzie odpowiadać na czarno-biały gradient, a inaczej na kolorowy. Przecież to niekoniecznie jest to samo. Desaturację można zrobić na wiele sposobów, co więcej, żadnen tak naprawdę nie jest obiektywny i podlega interpretacji.

 

Kamery mono też nie są obiektywne, bo mają bardzo różną reakcję na dane spektrum.

 

Tu nie chodzi o to, żeby wchodzić głęboko w fizykę. Celem desaturacji jest pokazanie dynamiki tonalnej (nie może jej zabijać). Tym postem chciałem tylko uczulić, żeby mieć świadomość, że desaturacja z automatu może zniszczyć bardzo wiele w luminancji (jeżlei chcemy np. zrobić z RGB mono i używać w kompozycie jako L).

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Pamiętaj, że twoja kamera i monitor inaczej będzie odpowiadać na czarno-biały gradient, a inaczej na kolorowy. Przecież to niekoniecznie jest to samo. Desaturację można zrobić na wiele sposobów, co więcej, żadnen tak naprawdę nie jest obiektywny i podlega interpretacji.

 

Kamery mono też nie są obiektywne, bo mają bardzo różną reakcję na dane spektrum.

 

Tu nie chodzi o to, żeby wchodzić głęboko w fizykę. Celem desaturacji jest pokazanie dynamiki tonalnej (nie może jej zabijać). Tym postem chciałem tylko uczulić, żeby mieć świadomość, że desaturacja z automatu może zniszczyć bardzo wiele w luminancji (jeżlei chcemy np. zrobić z RGB mono i używać w kompozycie jako L).

Ale zgadzasz się, że chodzi tu o wykres QE matrycy w zależności od częstotliwości? To jest winowajca? Gdyby maska bayera oraz matryca miały prostokątną charakterystykę, to średnia byłaby ok? To w takim razie zastanawiam się, czemu w danych raw (lub fits) nie ma zawartych informacji o charakterystyce użytej matrycy? Wówczas można by robić tą desaturacje idealnie (a może i inne czynności też).

Odnośnik do komentarza
Udostępnij na innych stronach

Ale zgadzasz się, że chodzi tu o wykres QE matrycy w zależności od częstotliwości? To jest winowajca? Gdyby maska bayera oraz matryca miały prostokątną charakterystykę, to średnia byłaby ok? To w takim razie zastanawiam się, czemu w danych raw (lub fits) nie ma zawartych informacji o charakterystyce użytej matrycy? Wówczas można by robić tą desaturacje idealnie (a może i inne czynności też).

 

No tak, bo wykres QE pokazuje, jaką sprawność ma matryca przy danym widmie. Co do drugiej części (informacje w nagłówku), to rodzi się pytanie, po co? Takie rzeczy miałyby sens tylko w sprzęcie naukowym, do tego wymagałoby to kalibracji, bo na pewno są różnice "osobnicze". Dla fotografów dziennych to w ogóle bez znaczenia, bo i tak do obrazu podchodzi się kreatywnie. Podobnie zresztą jest w astrofotografii - reinterpretacja dynamiki jest jednym z głównych elementów astrofotografii amatorskiej i nie da się jej sprowadzić do funkcji matematycznej.

 

W Photoshopie można robić desaturację z określeniem dominacji danych kolorów. To bardzo fajne narzędzie dzięki któremu można dowolnie kształtować kontrasty w takim b/w obrazie.

 

Nie mniej, przy np. fotometrii reakcja spektralna matrycy ma już znaczenie (gdybyśmy chcieli bezwględnie mierzyć jasność).

Odnośnik do komentarza
Udostępnij na innych stronach

Z drugiej strony znając typy widmowe gwiazd można je użyć do kalibracji koloru i zwalczyć niejednorodność czułości matryc w danych widmach - uzyskując "prawidłowy" kolor kosmosu. Bawiłem się tym kiedyś dużo, ale... problem polega na tym, że my już mamy w głowach zaprogramowane kolory dla danych obiektów i taki prawdziwy, zbalansowany nie wygląda zbyt "naturalnie" dla naszego oka :D

 

http://astropolis.pl/topic/27162-prawdziwy-kolor-kosmosu-jak-balansowa-swoje-zdjcia/

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.