Skocz do zawartości

NGC7538 (Lagoon Nebula)


diver

Rekomendowane odpowiedzi

19 godzin temu, Marek_N napisał:

Skoro wrzuciłeś w tor optyczny filtr blokujący sporą część pasma, to nic dziwnego, że oprogramowanie dało domyślnie zły wynik.

Tak, ale blokowane są pasma dalekie od czerwonego. Skąd więc "domyślnie" zły wynik? Stakuję w DSS, a całą obróbkę prowadzę w PIX. Które oprogramowanie daje "domyślnie" zły wynik i na jakiej zasadzie?

 

19 godzin temu, Marek_N napisał:

Jeśli masz skalibrowany monitor, to przygotuj i wyświetl na nim ColorChecker'a. Zrób mu zdjęcie kamerą + CLS. Przy pomocy DNG Profile editor przygotuj profil kolorystyczny - do użycia w PS i LR. Zastosuj go na finalnym zdjęciu - w miarę przywróci rzeczywiste kolory (bo tego co zablokowałeś to w 100% odtworzyć sie nie da + błąd monitora).

Uuu, ależ to kupa roboty... Przepraszam, ale co to są PS i LR?

 

19 godzin temu, Marek_N napisał:

I wszystko gra - gwiazdy są czerwone i turkusowe.

To oznacza, że wszystko gra? Turkus gwiazd oczywiście wynika z zielonej dominanty z matrycy, która trzeba usunąć. Ale za cenę czerwieni (a raczej różowości) gwiazd mam na siłę "kupić" czerwień mgławicy? Raczej nie... A właściwie never, never. ;)

 

19 godzin temu, Marek_N napisał:

Kolor emisji H-alfa (choć pierwiastków w mgławicy świeci więcej) zostanie zmapowany na "jakiś" kolor leżący w wybranej przestrzeni barwnej.

Zmapowany na jaki i na jakiej zasadzie?

 

19 godzin temu, Marek_N napisał:

Chodziło mi o to, że monitor nie jest w stanie wyświetlić koloru emisji H-alfa (choć jest go w stanie zasymulować).

A ja sądziłem z odwzorowaniem barw w "ustalonej" przestrzeni RGB dzieje się dużo już wcześniej, zanim obrazek trafi do oczu za pośrednictwem monitora. Czyli już na etapie zbierania materiału na matrycy, a potem na etapie jego przetwarzania. Naprawdę chodzi tylko o monitor?

 

19 godzin temu, Marek_N napisał:

Więc o ile o poprawny kolor gwiazd można zadbać, o tyle mgławicę bym  zostawił w kolorze Ładnym ;).

Tej sentencji nie rozumiem zupełnie.

 

@Marek_N, naprawdę jesteś przekonany, że brak czerwieni mgławicy na moim wynikowym obrazku jest spowodowany wyłącznie zastosowaniem przeze mnie filtra CLS?

 

Edytowane przez diver
Odnośnik do komentarza
Udostępnij na innych stronach

15 godzin temu, Behlur_Olderys napisał:

Jestem już nudny, ale pokaż proszę surówkę bez redukcji tła? Co to w ogóle jest redukcja tła w Pix?

Bartek, dla Ciebie wszystko! No, prawie... ;)

Po co redukcja tła? A po co szara poświata na "artystycznej" fotce wynikowej?

Poniżej klatka po STF i mocnej saturacji barw. Już bez redukcji tła.

Bardzo mi miło, że moje materiały służą Ci jako materiał do testowania Twojego symulatora. :) Stale jednak liczę na dowód, że stosowanie filtra CLS odziera mgławice HII z czerwieni. Bo przecież od tego cała dyskusja się zaczęła. Bartek, nie zmieniaj tematu, tylko dawaj na to dowód! Bo nie wiem, czy mam filtr CLS zdejmować, czy jednak używać go dalej. :icon_razz:

 

NGC7538_klatka2_2000_1500.thumb.jpg.342e380c5f45392c0828c1c2ce8833ea.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

58 minut temu, diver napisał:

Stale jednak liczę na dowód, że stosowanie filtra CLS odziera mgławice HII z czerwieni. Bo przecież od tego cała dyskusja się zaczęła. Bartek, nie zmieniaj tematu, tylko dawaj na to dowód! Bo nie wiem, czy mam filtr CLS zdejmować, czy jednak używać go dalej.

Najprościej zrobisz ściągając filtr i powtarzając fotkę ;)

Jeśli okaże się, że to nie wina filtra - no, to będzie naprawdę ciekawy zwrot akcji ;)

 

Ale znając życie prawdziwy powód jeszcze nas zaskoczy :)

 

co do fotki: przyznaj, że mgławica jest nieco bardziej zaczerwieniona, niż ta bez redukcji? 

 

Ja wiem, po co jest redukcja tła tylko nie byłem pewien, co Pix robi dokładnie. Zdejmowanie tła to też zabawa balansem kolorów... I teraz jeśli tło bez filtra jest pomarańczowawe, to z filtrem wycinającym żółć tło zostanie jakieś takie czerwonawe...

 

A może ta mgławica po prostu jest taka pomarańczowa? ;)

 

Tam jest trochę OIII, więc kolor może iść trochę w stronę zieleni przez to... Ale to już takie totalne zgadywanie bez potwierdzenia. 

 

w każdym razie zagadka jest świetna 

 

Odnośnik do komentarza
Udostępnij na innych stronach

5 godzin temu, diver napisał:

Tak, ale blokowane są pasma dalekie od czerwonego. Skąd więc "domyślnie" zły wynik? Stakuję w DSS, a całą obróbkę prowadzę w PIX. Które oprogramowanie daje "domyślnie" zły wynik i na jakiej zasadzie?

W pliku Raw bądź w Fits jest tylko informacja o intensywności piksela. Informacje o tym jak te wartości zamienić na kolor zawiera profil. Dokładnie posiada on informacje o czułości spektralnej matrycy i filtrów RGB, dzięki czemu wie, na jaki konkretnie kolor, zamienić intensywność składowych RGGB z maski Bayera. W zwykłej fotografii korzystając wtedy z balansu bieli, można ustalić poprawną kolorystkę z uwzględnieniem koloru oświetlenia.

 

Problem w tym że kolorowa kamera astronomiczna, to urządzenie gdzie praca z kolorem nie jest kluczowa - Po prostu kolor będzie dowolny, jaki się tylko twórcy podoba.

 

Jeśli Twórca ma ambicje żeby jego zdjęcie odzwierciedlało realne kolory kosmosu to:

- przechodzi do wątku Jesiona, opisującego kalibrację / profilowanie przy pomocy kolorów gwiazd referencyjnych,

- nie używa filtrów blokujących część pasma - albo chce poprawny kolor albo usunąć światło lamp sodowych.

 

Podsumowując. Ani DSS ani Pix nie ma pojęcia prawdziwym o kolorze, ponieważ nie posiadają profilu do zestawu matryca + filtry. Ustalenie (poprawnej) kolorystyki leży po stronie użytkownika.

 

 

5 godzin temu, diver napisał:

A ja sądziłem z odwzorowaniem barw w "ustalonej" przestrzeni RGB dzieje się dużo już wcześniej, zanim obrazek trafi do oczu za pośrednictwem monitora. Czyli już na etapie zbierania materiału na matrycy, a potem na etapie jego przetwarzania. Naprawdę chodzi tylko o monitor?

W pliku Raw czy Fits nie ma zawartej żadnej przestrzeni barwnej. Ta jest nadawana przy eksporcie do Tifa czy Jpega.

 

 

5 godzin temu, diver napisał:

To oznacza, że wszystko gra? Turkus gwiazd oczywiście wynika z zielonej dominanty z matrycy, która trzeba usunąć. Ale za cenę czerwieni (a raczej różowości) gwiazd mam na siłę "kupić" czerwień mgławicy? Raczej nie... A właściwie never, never.

Korzystając z modelu kolorów HSL, dostosowałem kolorystykę gwiazd do referencyjnej z tabelki Behlura (turkusowo-różowej) poprzez zmianę odcienia (hue), co spowodowało że mgławica otrzymała kolor czerwony. Normalnie zrobiły by to profil dla zestawu kamera + RGB + CLS.

 

 

3 godziny temu, Behlur_Olderys napisał:

A może ta mgławica po prostu jest taka pomarańczowa? ;)

Tam jest trochę OIII, więc kolor może iść trochę w stronę zieleni przez to... Ale to już takie totalne zgadywanie bez potwierdzenia. 

To jest mgławica emisyjna - nie może być pomarańczowa.

 

Generalnie jest tam głęboka czerwień (H-alfa, NII i SII) oraz turkus (H-beta i OIII). 

Turkus to barwa dopełniająca (tj. dla naszego mózgu taka sama jak złożenie zielonego z niebieskim), przeciwstawną do czerwieni. Addytywne mieszanie turkusu z czerwienią daje barwę.... białą.

Innymi słowy Turkus desaturuje Czerwień - robi z niej np. intensywny Róż :)

 

 

Edytowane przez Marek_N
  • Lubię 1
  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 28.05.2020 o 05:44, Marek_N napisał:

Chodziło mi o to, że monitor nie jest w stanie wyświetlić koloru emisji H-alfa (choć jest go w stanie zasymulować). Więc o ile o poprawny kolor gwiazd można zadbać, o tyle mgławicę bym  zostawił w kolorze Ładnym ;).

Z tego powodu uważam, że kolor emisji H-alpha jest wedle uznania autora. Widziałem zdjęcia z filtrem CLS, które miały typowe czerwienie, więc może to jednak kwestia obróbki.

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 28.05.2020 o 01:21, Behlur_Olderys napisał:

algorytm debayeringu nie powinien mieć żadnego wpływu.

Nie zgodzę się. Debayering jest jedną z pierwszych operacji przetwarzaniu obrazu z matrycy, w wyniku której rodzi się obraz zdefiniowany w przestrzeni barwnej.

 

W dniu 28.05.2020 o 05:44, Marek_N napisał:

Debayering RGB nie ma wpływu na rejestrowane kolory.

To nie jest odkrywcze, a ja nigdzie nie napisałem, że debayering ma wpływ na REJESTRACJĘ obrazów. Natomiast patrz wyżej.

 

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 29.05.2020 o 02:36, Behlur_Olderys napisał:

Najprościej zrobisz ściągając filtr i powtarzając fotkę ;)

To oczywisty pomysł, na który już wpadłem! ;) Tyle, że teraz  noce krótkie więc na zebranie materiału porównawczego podobnej jakości musiałbym poświęcić ze cztery noce.

Tak, bardzo chcę rozstrzygnąć, jaki realny wpływ na kolorystykę moich fotek ma filtr Astronomik CLS. Więc na pewno jakiś materiał porównawczy bez filtra zbiorę.

Bartek, cieszę się że oprócz rozważań teoretycznych masz jednak pewną skłonność do realnych eksperymentów. :)

 

W dniu 29.05.2020 o 02:36, Behlur_Olderys napisał:

co do fotki: przyznaj, że mgławica jest nieco bardziej zaczerwieniona, niż ta bez redukcji? 

Przyznaję.

 

W dniu 29.05.2020 o 02:36, Behlur_Olderys napisał:

Ja wiem, po co jest redukcja tła tylko nie byłem pewien, co Pix robi dokładnie. Zdejmowanie tła to też zabawa balansem kolorów... I teraz jeśli tło bez filtra jest pomarańczowawe, to z filtrem wycinającym żółć tło zostanie jakieś takie czerwonawe...

Masz rację. Sposób wycinania tła który w PIX stosowałem zależy od ustawionych parametrów i ma wpływ na zmianę kolorystyki.

 

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 29.05.2020 o 05:49, Marek_N napisał:

W pliku Raw czy Fits nie ma zawartej żadnej przestrzeni barwnej. Ta jest nadawana przy eksporcie do Tifa czy Jpega.

Ciekawe.

Pojedynczy plik RAW z lustrzanki jest kolorowy. Więc w wyniku przetworzenia w procesorze aparatu został już osadzony w  przestrzeni barwnej.

Pojedynczy plik FIT odczytany z mojej kamery nie jest kolorowy, ponieważ nie został w żaden sposób skonwertowany na przestrzeń barw. Ale na takim pojedynczym pliku mogę wykonać operację debayeringu (w DSS czy w PIX), w wyniku czego otrzymuję obraz kolorowy.

 

W dniu 29.05.2020 o 05:49, Marek_N napisał:

Ani DSS ani Pix nie ma pojęcia prawdziwym o kolorze

O "prawdziwym" nie mają. Ale w moim przypadku to właśnie w DSS podczas debayeringu powstaje obraz barwny.  Bez pojęcia o "prawdziwym" kolorze oczywiście! ;)

A skoro powstaje obraz barwny, to znaczy że DSS jakiś "profil" kolorów stosuje. Żeby było śmieszniej, barwny plik wynikowy ma również rozszerzenie FIT. :)

 

A od debayeringu do finalnego obrazu na ekranie monitora droga daleka! Monitor jako urządzenie do wizualizacji obrazu ma rolę kluczową, ale nie tylko od niego zależy paleta barw obrazka. Po debayeringu zwykle dzieje się wiele - obraz jest aplikacjach graficznych przetwarzanych na wszelkie możliwe sposoby, według koncepcji autora. ;)

 

Ale odbiegłem trochę od głównego problemu: w jakim stopniu i w jaki sposób mój filtr CLS wpływa na rejestrację obrazu na masce Bayera mojej matrycy?

Prawidłowa odpowiedź na to pytanie jest kluczowa w sensie oceny jego destrukcyjnego działania.

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Godzinę temu, diver napisał:

Nie zgodzę się. Debayering jest jedną z pierwszych operacji przetwarzaniu obrazu z matrycy, w wyniku której rodzi się obraz zdefiniowany w przestrzeni barwnej.

Chodzi mi o coś innego. 

Masz cztery piksele: RG - góra i GB - dół.

Każdy piksel ma tylko jedną składową koloru po rejestracji. A powinien mieć trzy. Debayeryzacja to zgadywanie reszty składowych korzystając z sąsiadów.

 

RGRGRG

GBGBGB

RGRGRG

GBGBGB

 

To zgadywanie to inaczej interpolacja.

W przypadku kanałów R oraz B gęstość siatki danych do szukanych jest dwa razy mniejsza niż dla kanału G. Efekt jest tylko taki, że wartości kanałów R i B będą nieco bardziej przybliżone, a wartości kanału G będą znane nieco dokładniej. I tutaj algorytm interpolacji może się wykazać większą lub mniejszą wiernością obrazu, radzeniem sobie z wysokimi częstotliwościami przestrzennymi, morą itp. Ale kolor nie będzie bardziej zielony. To miałem na myśli mówiąc o braku wpływu. 

 

To tak, jakbyś miał połączyć ponumerowane kropki. Możesz je połączyć linią prostą, możesz odcinkami kół, możesz stosować bardziej zaawansowane metody albo zrobić to n oko, ale byłoby dziwne, gdyby wynikowy obrazek był dwa razy większy, niż oryginał ;)

 

A, i najważniejsze.

Nie musisz nic  wiedzieć o charaktystyce aparatu czy przestrzeni barw, żeby dokonać debayeringu. To operacja czysto matematyczna!

 

Dlatego podtrzymuje, że debayeryzacja nie ma prawa mieć wpływu na balans kolorów.

Edytowane przez Behlur_Olderys
Odnośnik do komentarza
Udostępnij na innych stronach

18 minut temu, diver napisał:

w jakim stopniu i w jaki sposób mój filtr CLS wpływa na rejestrację obrazu na masce Bayera mojej matrycy?

 

Przypomnę post z wykresem pomocniczym:

 

Załóżmy że kolorów mamy 6, a matryca ma trzy składowe z których każda zawiera po dwa kolory.

 

Inaczej: 

Składowe na matrycy to B = (A,C), G = (F,H), R = (P,S)

W przybliżeniu można powiedzieć, że kolor A to fale od 400nm do 450nm, C:(450, 500], F= (500, 550] i tak dalej.

 

Gdy przychodzi nam całe spektrum, czyli wszystkie kolory ACFHPS, to na kanał R trafia P i S, na kanał G: F oraz H, a B to złożenie sygnału A i C.

 

Takie złożenie powoduje że wyimaginowana gwiazda która wysłałaby kolory C, F H i P ( bez A i S) z tym samym natężeniem na matrycy bez filtra CLS miałaby kolor (1, 2, 1). A więc taki jakiś zielony.

 

Filtr CLS wykraja kolory A, H i P.

Zatem na matryce z naszej gwiazdy trafia tylko C i F. Wynikowy kolor to (0, 1, 1) - czyli taki bardziej turkus.

 

Czysta teoria, ale na poparcie z bardziej realnymi danymi masz mój symulator. CLS zamienia gwiazdy czerwone w różowe, a niebieskie - w turkusowe.

 

Całość linii Ha, cała emisja z mgławicy trafia jednak w obu przypadkach (z filtrem i bez) na matryce z tą samą intensywnością. Zatem w obu przypadkach mgławica powinna mieć ten sam kolor, ale gwiazdy powinny być pozbawione żółci. 

 

 

 

  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

15 godzin temu, diver napisał:

Pojedynczy plik RAW z lustrzanki jest kolorowy. Więc w wyniku przetworzenia w procesorze aparatu został już osadzony w  przestrzeni barwnej.

Raw, który oglądasz na ekranie aparatu, to tak naprawdę Jpg wywołany z tego Rawa, z profilem zawartym w aparacie i z przypisanym WB.

Raw, który oglądasz na komputerze to wizualizacja danych z wykorzystaniem wybranego profilu kolorów i balansu bieli.

 

Tak jak napisałem:

W pliku Raw czy Fits nie ma zawartej żadnej przestrzeni barwnej. Ta jest nadawana przy eksporcie do Tifa czy Jpega.

 

15 godzin temu, diver napisał:

w DSS podczas debayeringu powstaje obraz barwny. 

A skoro powstaje obraz barwny, to znaczy że DSS jakiś "profil" kolorów stosuje.

Właśnie na tym polega problem, że DSS nie stosuje żadnego ustalonego Profilu (bo nie ma pojęcia o charakterystyce matrycy czy filtrach, które stosowałeś). Wizualizuje jakąś przypadkową kolorystykę, na podstawie zawartości kanałów. To Twoja rola żeby doprowadzić to do "porządku".

 

15 godzin temu, diver napisał:

w jakim stopniu i w jaki sposób mój filtr CLS wpływa na rejestrację obrazu na masce Bayera mojej matrycy?

Odpowiedź na to pytanie padło w tym wątku wielokrotnie :)

 

  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

7 godzin temu, Marek_N napisał:

Raw, który oglądasz na ekranie aparatu, to tak naprawdę Jpg wywołany z tego Rawa, z profilem zawartym w aparacie i z przypisanym WB.

Ok. Mam jasność.

 

7 godzin temu, Marek_N napisał:

W pliku Raw czy Fits nie ma zawartej żadnej przestrzeni barwnej

Pojedynczy plik fit jak najbardziej. Bo to w sumie RAW.

Ale tak jak napisałem, plik wynikowy z DSS ma również rozszerzenie fit, a jest już "przepracowany" w debayeringu i kolorowy. Taka dygresja na temat typów plików.

 

7 godzin temu, Marek_N napisał:

Właśnie na tym polega problem, że DSS nie stosuje żadnego ustalonego Profilu (bo nie ma pojęcia o charakterystyce matrycy czy filtrach, które stosowałeś). Wizualizuje jakąś przypadkową kolorystykę, na podstawie zawartości kanałów. To Twoja rola żeby doprowadzić to do "porządku".

Z tym brakiem "pojęciem" DSS-a o matrycy to chyba nie do końca. DSS musi mieć pojęcie choćby o szablonie matrycy (RGGB). W przeciwnym wypadku poskłada kolory "na opak". ;)

O zastosowanych filtrach oczywiście pojęcia nie ma.

Nie sądzę, żeby w zakresie debyeringu w wyniku którego otrzymujemy barwny obraz działał na zasadzie "random". Ma jakiś wbudowany algorytm (o którym wyżej pisał @Behlur_Olderys). Więc uzyskana kolorystyka z pewnością nie jest przypadkowa.

Nie wiem, co masz na myśli pisząc "Profil". Nie zdefiniowałeś tego pojęcia.

Czy DSS nie pracuje w przestrzeni kolorów? Pracuje, bo odwzorowuje czarno białe obrazy na kolor w przestrzeni właśnie RGB. Poniżej właściwości obrazka spreparowanego w wyniku stakowania (i debayeringu) w DSS.

 

DSS_RGB.png.50cb50290dce5813297d66f10c1971a1.png

 

@Marek_N, piszesz ciekawe rzeczy z dużym znawstwem. Wyrażasz się jednak trochę nieprecyzyjnie i posługujesz się skrótami myślowymi (i dosłownymi), których moja ograniczona percepcja nie ogarnia. Mam więc pewien komunikacyjny problem. ;)

 

Odnośnik do komentarza
Udostępnij na innych stronach

Debayerowanie nie ma wielkiego wpływu. Można złożyć metodą super pixel bez interpolacji i wyjdzie podobnie, tylko mniejsza rozdzielczość. Pasma zawierającego HA filtr nie wycina, więc HA powinno być czerwone.  Na mgławice filtr CLS może pomóc, za to w temacie gwiazd podwójnych jest zbędny, o czym już tam pisałem:

 

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 1.06.2020 o 06:05, HAMAL napisał:

A tu co masz poustawiane ?

Zakładka "RAW files" nie ma zastosowania do mojej kamery, bo dotyczy plików RAW generowanych przez lustrzanki.

Moja kamera (jak pewnie większość kamerek astro) generuje pliki FIT, więc w moim przypadku istotne są ustawienia zakładki "FITS files". Poniżej o ustawieniach tej zakładki.

* Checkbox "Monochrome 16 bit FITS files..." mam oczywiście "zaptaszkowany", ponieważ używam matrycy kolorowej. Więc w kolejnym kroku muszę wybrać szablon kolorowej matrycy.

* Camera. Jak stwierdziłem doświadczalnie, tutaj chodzi jedynie o wybór właściwego szablonu matrycy. Moja matryca Sony IMX294CJK 2/3 ma szablon RGGB i w efekcie jest bez znaczenia czy wybiorę tutaj Generic RGGB czy np. SONY DSLR-A100.

* Sekcja "Bayer Matrix Transformation"

Tutaj idę za tutorialem DSS. Przy krótszych czasach ekspozycji i mniejszej ilości materiału, gdy spodziewam się większego szumu tła, wybieram "Bilinear Interpolation". Gdy mam dużo materiału o dłuższej ekspozycji wybieram "AHD Interpolation". Zalecenia DSS w tym zakresie sprawdzają się.

Z ciekawości próbowałem używać opcji "drizzle" ani "super pixel", ale wyniki stakowania były jakieś dziwne. ;)

 

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 1.06.2020 o 11:11, Zorg7 napisał:

Na mgławice filtr CLS może pomóc, za to w temacie gwiazd podwójnych jest zbędny

Niee. Kolejny raz powtarzam, że mi flitr CLS służy do ochrony materiału przed zaświetleniem tła przez uliczne lampy sodowe. A uwierz mi, że ta degradacja jest u mnie potworna. Obojętnie czy zbieram mgławice, czy gwiazdy. ;)

Odnośnik do komentarza
Udostępnij na innych stronach

7 godzin temu, diver napisał:

Zakładka "RAW files" nie ma zastosowania do mojej kamery, bo dotyczy plików RAW generowanych przez lustrzanki.

Moja kamera (jak pewnie większość kamerek astro) generuje pliki FIT, więc w moim przypadku istotne są ustawienia zakładki "FITS files". Poniżej o ustawieniach tej zakładki.

* Checkbox "Monochrome 16 bit FITS files..." mam oczywiście "zaptaszkowany", ponieważ używam matrycy kolorowej. Więc w kolejnym kroku muszę wybrać szablon kolorowej matrycy.

* Camera. Jak stwierdziłem doświadczalnie, tutaj chodzi jedynie o wybór właściwego szablonu matrycy. Moja matryca Sony IMX294CJK 2/3 ma szablon RGGB i w efekcie jest bez znaczenia czy wybiorę tutaj Generic RGGB czy np. SONY DSLR-A100.

* Sekcja "Bayer Matrix Transformation"

Tutaj idę za tutorialem DSS. Przy krótszych czasach ekspozycji i mniejszej ilości materiału, gdy spodziewam się większego szumu tła, wybieram "Bilinear Interpolation". Gdy mam dużo materiału o dłuższej ekspozycji wybieram "AHD Interpolation". Zalecenia DSS w tym zakresie sprawdzają się.

Z ciekawości próbowałem używać opcji "drizzle" ani "super pixel", ale wyniki stakowania były jakieś dziwne. ;)

 

Mnie najbardziej interesowały Red scale i Blue scale, bo.. interpolacja dokonuje nieodwracalnych zmian, zwłaszcza w miejscach o wysokim kontraście a takimi są gwiazdy, potem już żadne zabiegi balansu itp itd decyzji podjętych przez interpolację przy interpretacji maski bayera nie odwrócą.

Odnośnik do komentarza
Udostępnij na innych stronach

12 godzin temu, HAMAL napisał:

Mnie najbardziej interesowały Red scale i Blue scale, bo.. interpolacja dokonuje nieodwracalnych zmian, zwłaszcza w miejscach o wysokim kontraście a takimi są gwiazdy, potem już żadne zabiegi balansu itp itd decyzji podjętych przez interpolację przy interpretacji maski bayera nie odwrócą.

Ustawień skali kolorów nigdy nie zmieniałem, czyli zawsze zostawiałem tam jedynki. Ale pewnie spróbuję i sprawdzę jaki będzie efekt... ;)

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 1.06.2020 o 01:45, diver napisał:

piszesz ciekawe rzeczy z dużym znawstwem. Wyrażasz się jednak trochę nieprecyzyjnie i posługujesz się skrótami myślowymi

Wyrażam się precyzyjnie tylko brak nam wspólnego mianownika w tej dyskusji.

 

W dniu 1.06.2020 o 01:45, diver napisał:

Czy DSS nie pracuje w przestrzeni kolorów? Pracuje, bo odwzorowuje czarno białe obrazy na kolor w przestrzeni właśnie RGB.

O tym mowa. Tak trudno poszukać w necie znaczenia tych podstawowym pojęć? Zamiast tego lepiej się bawić w jakieś zgadywanki? ;) 

 

W dniu 1.06.2020 o 01:45, diver napisał:

Nie wiem, co masz na myśli pisząc "Profil". Nie zdefiniowałeś tego pojęcia.

Pisałem wyżej ale jeszcze raz:

 

1. Model koloru (color model)

Zapisanie informacji o kolorze przy użyciu kilku składowych.

Przykłady:

- RGB, addytywne składanie koloru przy pomocy 3 składowych,

- CMYK, subtraktywne składanie koloru przy użyciu 4 składowych,

- HSL, próba odzwierciedlenia koloru, w sposób w jaki widzą go nasze oczy+mózg: odcień, nasycenie, jasność (mimo że mamy trzy czopki więc pasowałby model RGB ale o tym w pkt. 2).

 

2. Przestrzeń koloru (color space)

Model koloru umiejscowiony w znormalizowanej przestrzeni HSL, dokładnie CIE 1931, dający w wyniku konkretna barwę.

przykłady:

- sRGB - zakres wyświetlanych częstotliwości około 460-610 nm*

- adobeRGB - zakres kolorów jw. + lepsza precyzja wyświetlania koloru zielonego (większa intensywność i rozróżnialność barw)

- ProPhotoRGB - zakres wyświetlanych kolorów 460-700nm z największą precyzją

- CMYK - zakres odbijanych kolorów mniejszy i mniejsza ich rozróżnialność. Odrobinkę lepiej rozróżnialna zieleń niż w sRGB

 

3. Profil koloru (color profile)

Poprawka wprowadzona do wyświetlanego / odbijanego koloru ze względu na niedokładność / zafarb medium (ekranu, papieru, filtra itp), tak aby był poprawny.

 

* - Najciekawsze:

Mimo że monitor wyświetla kolory z palety sRGB, czyli w zakresie zaledwie 460-610/630 nm to odpowiada to wrażeniom wzrokowym w zakresie 400-700 nm.  Taka sztuczka :)

 

 

  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 8.06.2020 o 19:58, Marek_N napisał:

Tak trudno poszukać w necie znaczenia tych podstawowym pojęć?

Poszukać łatwo. Znacznie trudniej poskładać do kupki porozsiewane definicje, znaleźć związek między nimi.

 

W dniu 8.06.2020 o 19:58, Marek_N napisał:

Model koloru umiejscowiony w znormalizowanej przestrzeni HSL, dokładnie CIE 1931

Za Twoją radą korzystam właśnie z internetowych "mądrości" i nie mogę odnaleźć związku między przestrzenią HSL i CIE 1931. Więcej: dochodzę do wniosku, że te dwie przestrzenie zostały zdefiniowane zupełnie odmiennie. Zarówno w zakresie definicyjnym (pojęciowym) jak i trójwymiarowego modelu przestrzennego. Który więc model przestrzenny masz na myśli: HCL czy CIE? A może CIELab?

 

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 12.06.2020 o 00:37, diver napisał:

Za Twoją radą korzystam właśnie z internetowych "mądrości" i nie mogę odnaleźć związku między przestrzenią HSL i CIE 1931.

Chyba za duży skrót myślowy :)

CIE tak samo jak "systemy kolorów" np. Munsell CS czy Natural CS to przemysłowe modele, których celem jest rozróżnianie barw. Ale mimo że różnie zdefiniowane, to u podstaw ich wszystkich leżą badania postrzegania barw przez ludzi (HSL).

 

Ale fakt, jak czytam to jeszcze raz to jednak było to błędne stwierdzenie. Dzięki za zwrócenie uwagi :)

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.