Skocz do zawartości

Pytanie o filtry


Grzędziel

Rekomendowane odpowiedzi

Moim zdaniem:

- zdjęcie będzie kolorowe

- każdy kanał będzie w standardzie J-C, co jest wartością samą w sobie

- kolory uzyskiwane finalnie na ogół są i tak kwestią gustu fotografa

Podsumowując - będą ładne zdjęcia z "dużą wartością naukową". :)

Jak masz te filtry to koniecznie spróbuj!

Odnośnik do komentarza
Udostępnij na innych stronach

Z tą "dużą wartością naukową" byłbym ostrożny :)

Na razie mam tylko filtr Johnson "V" ale pozostałe chcę dokupić. A pytam, bo nawet w dużym kole filtrowym się nie zmieszczą: 3 fotometryczne, 4 LRGB i 3 wąskopasmowe (razem 10).

 

Częste wykręcanie filtrów w celu zamiany jest kłopotliwe i łączy się z ryzykiem zabrudzenia toru optycznego.

Dlatego marzy mi się rozwiązanie: L + 3 fotometryczne + 3 narrow.

Tylko czy to ma sens?

Odnośnik do komentarza
Udostępnij na innych stronach

Moim zdaniem zdjęcie będzie " barwne" ale... no to taka róźnica pomiędzy "barwnym" telewizorem Rubin a kolorowym np. Sony.

Filtry RGB są tym lepsze im bardziej " ostre" są podziały pomiędzy pasmami poszczególnych kolorów, im większa separcja. Te filtry mają charaktetystyki zachodzące na siebie jak widzę.

Edytowane przez wessel
Odnośnik do komentarza
Udostępnij na innych stronach

Moim zdaniem:

- zdjęcie będzie kolorowe

- każdy kanał będzie w standardzie J-C, co jest wartością samą w sobie

- kolory uzyskiwane finalnie na ogół są i tak kwestią gustu fotografa

Podsumowując - będą ładne zdjęcia z "dużą wartością naukową". :)

Jak masz te filtry to koniecznie spróbuj!

 

Każde zdjęcie kolorowe, złożone z poszczególnych pasm nałożonych na siebie traci wszelką wartość naukową :)

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak piszą przedmówcy- kolor będzie, ale nieco inny, niż być powinien :) Czyli zatracisz "naukowość koloru" (tj, zakłamiesz ten kolor), zyskasz naukowość pomiaru. Ten standard fotometryczny ma bardzo kiepską charakterystykę - te filtry są mało wydajne. Transmisje na poziomie 80% to dla dzisiejszych filtrów LRGB są żarty. No i jeszcze ta łagodnie opadająca charakterystyka wprowadzi dodatkowe przekłamania koloru i kolejny spadek efektywności. W praktyce, dostaniesz coś jak odpowiednik zestawu "ekonomicznego" RGB Baadera - czyli kiepskie (zakłamane) barwy i słabą (70-80%) transmisję.

 

Oczywiście jest to jakiś rodzaj kompromisu. Faktycznie przekładanie filtrów co sesję jest kłopotliwe. Ale może trzeba zainwestować w drugie koło filtrowe z takimi ambitnymi planami? :)

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

 

Każde zdjęcie kolorowe, złożone z poszczególnych pasm nałożonych na siebie traci wszelką wartość naukową :)

Ano, chodziło mi o to, że materiał źródłowy jakąś taką wartość będzie miał (tzn. te kanały). Tak jak zdjęcie zrobione np. Canonem w separacji na kanały i po zastosowaniu algorytmów kalibrujących. Sporo tego jest w materiałach AAVSO. Oczywiście cały czas mówimy o astronomii amatorskiej. :)

A czy zdjęcie kolorowe traci wszelką wartość naukową? To chyba zbyt radykalne stwierdzenie. Jeżeli mamy jedno, jedyne zdjęcie jakiegoś obiektu, to zawiera ono masę danych, jakich nie mielibyśmy wcale nie mając tego zdjęcia. W dodatku tych danych będzie więcej niż na zdjęciu czarno białym.

Np. będzie można oszacować temperaturę fotosfery gwiazdy np. :)

Odnośnik do komentarza
Udostępnij na innych stronach

Ano, chodziło mi o to, że materiał źródłowy jakąś taką wartość będzie miał (tzn. te kanały). Tak jak zdjęcie zrobione np. Canonem w separacji na kanały i po zastosowaniu algorytmów kalibrujących. Sporo tego jest w materiałach AAVSO. Oczywiście cały czas mówimy o astronomii amatorskiej. :)

A czy zdjęcie kolorowe traci wszelką wartość naukową? To chyba zbyt radykalne stwierdzenie. Jeżeli mamy jedno, jedyne zdjęcie jakiegoś obiektu, to zawiera ono masę danych, jakich nie mielibyśmy wcale nie mając tego zdjęcia. W dodatku tych danych będzie więcej niż na zdjęciu czarno białym.

Np. będzie można oszacować temperaturę fotosfery gwiazdy np. :)

 

Niestety nie tak to działa. Posiadając jedynie jedno ujęcie w kolorze do studni trafiają wszystkie fotony o różnych energiach. Co za tym idzie nie jest możliwe odseparowanie poszczególnych sygnałów w zakresie jednego pixela. Nawet proporcje są ukryte. Jeżeli zaś posiadamy poszczególne ujęcia w różnych filtrach, zachowujemy wszystkie te informacje. Wiemy ile fotonów wpadło w danym przedziale energetycznym do studni i przez to jesteśmy w stanie sporządzić np. wykres poczerwienienia. A co za tym idzie możemy wyznaczyć np. temperaturę fotosfery. Kolorowe zdjęcia tego nie umożliwią. Bo przecież podczas nakładania i scalania obrazów tracimy wszystkie informacje na temat poszczególnych kanałów. Dlatego wszystkie teleskopy robią zdjęcia mono a dopiero składają w kolor w dalszym procesie, pod publikę.

Odnośnik do komentarza
Udostępnij na innych stronach

Bo przecież podczas nakładania i scalania obrazów tracimy wszystkie informacje na temat poszczególnych kanałów. Dlatego wszystkie teleskopy robią zdjęcia mono a dopiero składają w kolor w dalszym procesie, pod publikę.

Mylisz się. Kolorowe zdjęcie można w sposób bezstratny zamienić z powrotem na osobne 3 kanały. Możemy nawet złożyć kolor z filtrów BVR i jeśli nic z tym nie pomajstrujemy, to możemy te kanały rozdzielić z powrotem na identyczne jak źródłowe klatki.

Tak samo ze zdjęcia (RAW) z kolorowej matrycy lustrzanki możemy wyciągnąć w sposób bezstratny informacje, które zarejestrowały piksele R, G i B. A dokładniej mówiąc, nic nie musimy robić, bo zdjęcie RAW w istocie jest czarno białe (przed debayeryzacją) i to programy do "normalnego, kolorowego" podglądu robią tą debayeryzację w locie.

 

Wadą aparatów jest oczywiście ich niestandardowa dla fotometrii charakterystyka. Ale mamy pomiary w "jakiś" 3 filtrach. Pozostaje kwestia przeskalowania ich do standardowej postaci. Taka konwersja nie może być idealna, bo tu zgodnie z tym, co mówisz, nie da się odróżnić, które fotony wpadły np do piksela R, aby potem to idealnie przeskalować na filtr fotometryczny R. "Coś" jednak można zrobić.

  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

 

Niestety nie tak to działa. Posiadając jedynie jedno ujęcie w kolorze do studni trafiają wszystkie fotony o różnych energiach. Co za tym idzie nie jest możliwe odseparowanie poszczególnych sygnałów w zakresie jednego pixela. Nawet proporcje są ukryte. Jeżeli zaś posiadamy poszczególne ujęcia w różnych filtrach, zachowujemy wszystkie te informacje. Wiemy ile fotonów wpadło w danym przedziale energetycznym do studni i przez to jesteśmy w stanie sporządzić np. wykres poczerwienienia. A co za tym idzie możemy wyznaczyć np. temperaturę fotosfery. Kolorowe zdjęcia tego nie umożliwią. Bo przecież podczas nakładania i scalania obrazów tracimy wszystkie informacje na temat poszczególnych kanałów. Dlatego wszystkie teleskopy robią zdjęcia mono a dopiero składają w kolor w dalszym procesie, pod publikę.

Trochę zboczyliśmy z tematu Piotra. Poza tym trochę się nie rozumiemy chyba. Napisałem tylko, że zdjęcie barwne ( tzn. poprawnie złożone z trzech kanałów albo z maski barwnej - a nie pomalowane dowolnie z jednego zdjęcia czarno-białego) niesie więcej informacji niż to jedno czarno białe wykonane w szerokim paśmie. Np. jeżeli masz takie barwne zdjęcie gromady otwartej (klasyczny przypadek) w której znasz wskaźniki barwy części gwiazd - to możesz oszacować takie wskaźniki dla pozostałych gwiazd czy nie? Na pewno nie da się tego zrobić z jednej szerokopasmowej czarno białej klatki. Cały czas mówię o informacji jakościowej, nie ilościowej i jakościowej jednocześnie.

Nie jest prawdą, że podczas scalania obrazów tracimy całą informację z kanałów. Wprost przeciwnie - ujawnia się ona w barwach tego zdjęcia! :) Poza tym ( tak z innej beczki) to informacja jest zachowywana w każdych procesach fizycznych.

 

Edit: o już Mateusz to napisał...

Edytowane przez ryszardo
  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

Trochę zboczyliśmy z tematu Piotra...

 

Zboczenie z tematu ale ciekawe. A wracając do meritum, wpis Wessela:

 

"Moim zdaniem zdjęcie będzie " barwne" ale... no to taka róźnica pomiędzy "barwnym" telewizorem Rubin a kolorowym np. Sony.

Filtry RGB są tym lepsze im bardziej " ostre" są podziały pomiędzy pasmami poszczególnych kolorów, im większa separcja. Te filtry mają charaktetystyki zachodzące na siebie jak widzę."

 

dobrze ujmuję kwestię mojego pytania. Chyba pewne kompromisy nie są najlepsze. Jeśli chcę robić trójbarwną fotometrię i dobre, kolorowe zdjęcia dwa koła filtrowe są raczej niezbędne.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Chwila chwila, bo chyba się wzajemnie nie rozumiemy. Przepraszam za offtop ale jest to ważne chyba. W razie czego proszę o przeniesienie naszych wpisów.

 

Wykonując ekspozycje w poszczególnych pasmach przez kamerkę mono dostajemy obraz z każdym pikselem zawierającym sygnał. W momencie składania kilku zdjęć do jednego, kolorowego nie uzyskujemy maski bayera. Składając obrazy do jednego wartości pikseli w adu są z odpowiadającymi im pikselami z innych pasm uśredniane czy też medianowane. Jeżeli mamy 4 filtry B V R I, i w nich przykładowo sygnały dla tego samego piksela wynoszą kolejno 5, 10, 15, 20 adu to po połączeniu tych obrazów w jeden wartość piksela wynosi 12.5 adu. I koniec. Nie ma tam innych informacji. Proces odzyskiwania natężenia w pasmach poszczególnych nie jest możliwy, z racji tego, że istnieje nieskończona kombinacja wartości dających wynikowo sygnał 12.5. A sam kolor nie powstaje z racji tego, że wartości poszczególnych pasm są gdzieś zapisane, a poprzez skalowanie odpowiednich wartości. Oczywiście pozostaje nadal informacja, który kolor dominował ale nic więcej. Dlatego prawdziwe zdjęcia naukowe powstają wyłącznie używając monochromatycznych kamer ccd, oraz filtrów przesiewających nam sygnał.

Po połączeniu zdjęcia w kolorowe i zapisanie nie ma możliwości odzyskania początkowych parametrów, bo nie znamy składowych.

 

Oczywiście ja nie mówię o zdjęciach z matryc z zastosowaną maską bayera. Tu sytuacja jest prosta.

 

W tym sensie zdjęcie kolorowe jest gówniane z naukowego punktu widzenia. Bo nie da się odseparować natężeń poszczególnych filtrów a tylko to niesie jakąkolwiek naukową treść.

Rano znajdę wykład, jaki miałem na astrofizyce obserwacyjnej i podeślę, w razie dalszej dyskusji.

Odnośnik do komentarza
Udostępnij na innych stronach

Chwila chwila, bo chyba się wzajemnie nie rozumiemy. Przepraszam za offtop ale jest to ważne chyba. W razie czego proszę o przeniesienie naszych wpisów.

 

Wykonując ekspozycje w poszczególnych pasmach przez kamerkę mono dostajemy obraz z każdym pikselem zawierającym sygnał. W momencie składania kilku zdjęć do jednego, kolorowego nie uzyskujemy maski bayera. Składając obrazy do jednego wartości pikseli w adu są z odpowiadającymi im pikselami z innych pasm uśredniane czy też medianowane. Jeżeli mamy 4 filtry B V R I, i w nich przykładowo sygnały dla tego samego piksela wynoszą kolejno 5, 10, 15, 20 adu to po połączeniu tych obrazów w jeden wartość piksela wynosi 12.5 adu. I koniec. Nie ma tam innych informacji. Proces odzyskiwania natężenia w pasmach poszczególnych nie jest możliwy, z racji tego, że istnieje nieskończona kombinacja wartości dających wynikowo sygnał 12.5. A sam kolor nie powstaje z racji tego, że wartości poszczególnych pasm są gdzieś zapisane, a poprzez skalowanie odpowiednich wartości. Oczywiście pozostaje nadal informacja, który kolor dominował ale nic więcej. Dlatego prawdziwe zdjęcia naukowe powstają wyłącznie używając monochromatycznych kamer ccd, oraz filtrów przesiewających nam sygnał.

Po połączeniu zdjęcia w kolorowe i zapisanie nie ma możliwości odzyskania początkowych parametrów, bo nie znamy składowych.

 

Oczywiście ja nie mówię o zdjęciach z matryc z zastosowaną maską bayera. Tu sytuacja jest prosta.

 

W tym sensie zdjęcie kolorowe jest gówniane z naukowego punktu widzenia. Bo nie da się odseparować natężeń poszczególnych filtrów a tylko to niesie jakąkolwiek naukową treść.

Rano znajdę wykład, jaki miałem na astrofizyce obserwacyjnej i podeślę, w razie dalszej dyskusji.

 

Odnośnik do komentarza
Udostępnij na innych stronach

No to faktycznie gdzieś się nie rozumiemy... :)

Oczywiście w takiej sytuacji jaką opisałeś - masz rację. Tylko że nie wrzucamy czterech kanałów "na jeden piksel", ( bo mielibyśmy zdjęcie czarno - białe a nie kolorowe, tylko na cztery oddzielne, jak w ekranie kolorowego monitora. To jest dokładnie jak z maską Bayera.

Przepraszam, jakoś mi się to dziwnie edytowało.

 

I jeszcze jedno - każdej barwie odpowiada ściśle określona częstotliwość fali elektromagnetycznej. Cała reszta to jest techniczny sposób zapisu sygnału i jego odtworzenia (syntezy). Więc na kolorowym zdjęciu mamy ( na rastrze, czy pikselach led) konkretną wynikową częstotliwość, która nadal jest sumą natężeń z poszczególnych kanałów. Co prawda istnieje nieskończona liczba tych kombinacji - ale jeżeli weźmiemy odczyt z tych pikseli ( np. poprzez kolorowy skaner), to możemy odtworzyć jakie są wzajemne proporcje składowych. I to wystarczy, stałą całkowania możemy dobrać dowolnie - od niej zależy tylko jasność zdjęcia.

Edytowane przez ryszardo
Odnośnik do komentarza
Udostępnij na innych stronach

Nie rozumiemy się :)

Miszuda, twój przykład z 4 filtrami jest troszkę bez sensu, bo rozmawiamy o 3 filtrach. Pozostając przy tym, weźmy te wartości: 5, 10, 15 (wybieram pierwsze 3, które podałeś). Czyli mamy 3 zdjęcia o adu jakiegoś piksela odpowiednio 5, 10, 15. Łączymy je w jedno, kolorowe zdjęcie. I co powstaje? Powstaje piksel o wartości: 5, 10, 15. Tak, jego wartość to 3 liczby! Dlatego też kolorowe zdjęcia zajmują 3x więcej miejsca, niż czarno-białe. Takie zdjęcie można potem rozdzielić na 3 składowe i odzyskać pojedyncze wartości 5, 10 i 15. Jeśli mi nie wierzysz, to mogę nagrać filmik, jak robię te operacje w Maximie i naocznie pokażę, że to "działa".

To, co opisałeś to by było uśrednienie tych zdjęć, czyli coś analogicznego do stackowania (w efekcie powstaje zdjęcie czarno-białe) A składanie koloru z 3 kanałów to zupełnie co innego.

 

Hmm, albo nie rozumiesz, czym jest kolorowe zdjęcie, albo gadamy o czym innym i nie możemy się zrozumieć, mimo że każdy mówi prawdę...

 

 

Tylko że nie wrzucamy czterech kanałów "na jeden piksel", ( bo mielibyśmy zdjęcie czarno - białe a nie kolorowe, tylko na cztery oddzielne, jak w ekranie kolorowego monitora. To jest dokładnie jak z maską Bayera

Moim zdaniem trochę słaba analogia :) A już maska Bayera "działa" zupełnie inaczej, niż ekran monitora:

Bez tytułu.jpg

W monitorze każdy piksel ma 3 części, po jednej na składową R, G i B. W sensie cyfrowym, jest to jeden jedyny piksel, który określają 3 wartości - natężenia tych składowych. W sensie fizycznym jest on faktycznie podzielony na 3 części. Ale tutaj rozumujemy "cyfrowo" i w tym sensie właśnie wrzucamy kanały (3, bo 4 się nie da) "na jeden piksel", który staje się od teraz trójką liczb.

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

I jeszcze jedno - każdej barwie odpowiada ściśle określona częstotliwość fali elektromagnetycznej. Cała reszta to jest techniczny sposób zapisu sygnału i jego odtworzenia (syntezy). Więc na kolorowym zdjęciu mamy ( na rastrze, czy pikselach led) konkretną wynikową częstotliwość, która nadal jest sumą natężeń z poszczególnych kanałów. Co prawda istnieje nieskończona liczba tych kombinacji - ale jeżeli weźmiemy odczyt z tych pikseli ( np. poprzez kolorowy skaner), to możemy odtworzyć jakie są wzajemne proporcje składowych. I to wystarczy, stałą całkowania możemy dobrać dowolnie - od niej zależy tylko jasność zdjęcia.

Jak to dobrze, że widoma gwiazd są takie ładne, w miarę "gładkie" :) Go gdyby mogły być dowolne, to fotometria nie miałaby sensu, a jedynie spektroskopia dawałaby jakieś rozsądne informacje. No bo w gruncie rzeczy fotometria to spektroskopia o bardzo niskiej rozdzielczości widma. Tak więc, aby cokolwiek ustalić, trzeba przyjąć, że widmo gwiazdy ma jakiś w miarę przewidywalny kształt.

To tak już offtop offtopu.

Edytowane przez MateuszW
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Jak to dobrze, że widoma gwiazd są takie ładne, w miarę "gładkie" :) Go gdyby mogły być dowolne, to fotometria nie miałaby sensu, a jedynie spektroskopia dawałaby jakieś rozsądne informacje. No bo w gruncie rzeczy fotometria to spektroskopia o bardzo niskiej rozdzielczości widma. Tak więc, aby cokolwiek ustalić, trzeba przyjąć, że widmo gwiazdy ma jakiś w miarę przewidywalny kształt.

To tak już offtop offtopu.

No właśnie, nawet chciałem o tym wspomnieć :)

A z tą maską i ekranem to rzeczywiście nie specjalnie precyzyjne, ale jakoś nie miałem siły się rozpisywać - przepraszam. Po prostu Miszuda akurat o masce wspomniał, że to oczywiste...

 

No i mam teraz wrażenie, jakby to już na tym forum było...

Edytowane przez ryszardo
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.