Skocz do zawartości

Lucky imaging SW150/750


Wojsa

Rekomendowane odpowiedzi

19 minut temu, trouvere napisał:

 

Jeśli pod pojęciem "ciężkiej matemetyki" ukrywasz po prostu statystykę to stwierdzenie, że " istnieje matematyczny ideał odwzorowania kolorów" jest bez sensu.

Żaden matematyczny ideał odwzorowania kolorów nie istnieje, to jest tylko i wyłącznie ludzka imaginacja.

 

W takim razie poproszę o rysunek pomocniczy:

ideal.png

G niech oznacza sygnał wysyłany z galaktyki, W sygnał wysyłany do oka z monitora, a R sygnał wysyłany przez oko do mózgu, bez wchodzenia w szczegóły definicji tych sygnałów - wystarczy założenie, że można je modelować dowolnie wymiarowymi funkcjami liczb rzeczywistych, a więc dla każdego z nich istnieje prosta metryka określająca jak bardzo są do siebie podobne.

Równocześnie W' oznacza sygnał z okularu teleskopu.

Kolejne założenie jest takie, że oko działa deterministycznie, a więc jeśli W' dąży do W to R' bedzie dążyło do R.

Przy takich założeniach - moim zdaniem - zadaniem astrofotografii powinno być dążenie do idealnego odwzorowania, a więc W = W', co oczywiście nie jest możliwe, ale możliwe jest sterowanie parametrami przekształcenia G->W jakie dokonuje się podczas akwizycji i obróbki tak, aby d(W, W') (odległość pomiędzy sygnałami W i W', realizowana np. przez odchylenie średniokwadratowe) dążyło do minimum.

 

To jest matematyczny model idealnego odwzorowania kolorów - moim zdaniem.

 

 

W przypadku fotografii dziennej, gdzie W' równa się G, bo nie potrzebujemy teleskopu, takie dążenie do minimalizacji różnicy W i W' wydaje się naturalne. Czemu w astrofoto miałoby być inaczej?

 

 

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

13 minut temu, trouvere napisał:

 

Clue problemu tkwi w tym "jak bardzo są do siebie podobne", jeśli za każdym razem będziesz stawiał jako odbiorcę tego samego osobnika, w ściśle kontrolowanych identycznych warunkach psychofizycznych (wrażenia barwne odbierane przez tego samego osobnika są inne rano, wieczorem, czy jest zmęczony czy też nie, najedzony czy czy głodny itp.) to możesz próbować opisać, wystawić metrykę jego sposobu interpretacji zjawisk/-a związanych jego osobniczą wrażliwością na natężenie i długość odbieranych fal elektromagnetycznych, które same w sobie nie posiadają żadnej fizycznej właściwości, którą można by fizycznie określić jako kolor.

Kolor - "odbiera" tylko człowiek, przy czym jako odbiera należy rozumieć, że jego mózg w określony dla niego samego sposób interpretuje.

 

No to już teraz wchodzisz w to, co mózg zrobi z sygnałem R'/R od oka. Mnie to nie interesuje. To jest domena jakiejś kognitywistyki.

Ty mówisz: "eee nic się nie da bo to wszystko jest indywidualnie postrzegane. Nie istnieje ideał".

Ja mówię: "zgoda, znajdźmy więc najmniejszy wspólny mianownik który można zmierzyć i utnijmy dyskusję na tym etapie. W tak postawionym zagadnieniu istnieje ideał" :)

 

 

Zostając przy matematyce, nie muszę odwoływać się do ludzkich wrażeń, wystarczy mi definicja koloru jako np. wartości RGB albo intensywności konkretnych długości fal itp.

 

 

Fizyka może zmierzyć G, może zmierzyć R i R' (przesyłane przez nerw wzrokowy), może oszacować W i W'. Wydaje się technicznie możliwe zbliżenie do siebie jak najbardziej W i W'. To max, co można zrobić w sposób mierzalny i obiektywny. 

 

Jak chcesz zamiast oka na moim rysunku wstaw kolejną kamerę. Wtedy będziesz mógł zostawić to nieszczęsne oko i mózg, i wszystko będzie obiektywne i mierzalne na 100%, przy czym cel optymalizacji będzie ten sam.

 

Moja teza jest więc taka:

Zbieranie koloru za pomocą odseparowanych kanałów RGB kamerą mono umożliwia lepsze dopasowanie W do W' niż bazowanie na kombinacji liniowej kanałów R i G jaką uzyskujemy z kamery kolorowej o nieidealnej charakterystyce widmowej. 
 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Teraz, trouvere napisał:

Najmniejszym wspólnym mianownikiem jest w tym przypadku statystyczne podobieństwo wrażeń odbieranych przez człowieka, które nigdy nie będą identyczne a tylko podobne.

To oksymoron.

Skoro nigdy nie będą identyczne to nie mogą być wspólnym mianownikiem.

 

Interesuje mnie podejście naukowe, a nie jakieś tam wrażenia.

 

Wyobrażam sobie rozmowę dwóch astronomów raczej tak:

A: - Gwiazda X ma stosunek intensywności kanałów R/G na poziomie 1.5, jest duża szansa, że o typ gwiazdowy M3

B: - Pozwól, że sam zmierzę te intensywności. Jeśli wyjdzie mi podobny wynik, to szansa, że to rzeczywiście gwiazda typu M3 będzie naprawdę bardzo duża.

A: - Tylko uważaj, żebyś wziął pod uwagę charakterystykę swojej kamery, ona jest kolorowa, a ja robię filtrami RGB

B: - OK spoko skalibruję ją wcześniej na innej gwieździe typu M3 żeby być pewnym.

(...)
A: - I jak poszło?
B: - Niby ok, ale przy okazji wyszło na jaw, że przez mieszanie się kanałów R i G w mojej kolorowej kamerce nie tylko gwiazdy typu M3 mają stosunek R/G na poziomie 1.5. Identyczne wyniki dostaję dla gwiazd typu K7!

A: - U mnie nie ma tego efektu, bo moje kanały RGB są odseparowane. K7 ma u mnie stosunek R/G na poziomie 1.3

B: - Ciężkie jest życie astronoma korzystającego z kolorowej kamerki...

 

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Patrząc na "rysunek pomocniczy" Bartka zacząłem się zastanawiać, jaka apertura byłaby potrzebna, żeby zobaczyć NGC 891 w kolorze i wiedzieć, jaki jest wizualny obraz referencyjny.

Dla zabawy na szybko zrobiłem takie oszacowanie, na pewno bardzo zgrubne, ale dla mnie i tak interesujące: 

  • NGC 891 ma jasność 9.9 mag a M42 4.0 (po prostu liczby ze Stellarium+)
  • różnica jest 5.9 mag, która odpowiada stosunkowi 10^(5.9/2.5) ≈ 230
  • jakieś kolory M42 można pewnie zobaczyć w 16", więc powierzchnię 16" pasuje zwiększyć 230 razy, czyli aperturę o sqrt(230) ≈ 15, czyli do 240" ≈ 6 m.

To mnie tylko utwierdza w przekonaniu, że odwzorowanie kolorów obiektów DS to zdecydowanie bardziej sztuka niż nauka.
Co oczywiście nie znaczy, że nie można sobie podyskutować jak potencjalnie zwiększyć udział nauki.

Odnośnik do komentarza
Udostępnij na innych stronach

Godzinę temu, Mareg napisał:

Patrząc na "rysunek pomocniczy" Bartka zacząłem się zastanawiać, jaka apertura byłaby potrzebna, żeby zobaczyć NGC 891 w kolorze i wiedzieć, jaki jest wizualny obraz referencyjny.

Dla zabawy na szybko zrobiłem takie oszacowanie, na pewno bardzo zgrubne, ale dla mnie i tak interesujące: 

  • NGC 891 ma jasność 9.9 mag a M42 4.0 (po prostu liczby ze Stellarium+)
  • różnica jest 5.9 mag, która odpowiada stosunkowi 10^(5.9/2.5) ≈ 230
  • jakieś kolory M42 można pewnie zobaczyć w 16", więc powierzchnię 16" pasuje zwiększyć 230 razy, czyli aperturę o sqrt(230) ≈ 15, czyli do 240" ≈ 6 m.

 

 

Myślę, że lepiej byłoby sprawdzić wartości jasności powierzchniowej tych obiektów :)

 

 

Cytat

To mnie tylko utwierdza w przekonaniu, że odwzorowanie kolorów obiektów DS to zdecydowanie bardziej sztuka niż nauka.
Co oczywiście nie znaczy, że nie można sobie podyskutować jak potencjalnie zwiększyć udział nauki.

 

Tylko jeśli upieramy się, że rejestrujemy wszystko okiem.

Zamiast oka na moim obrazku mógłby być aparat fotograficzny. Wtedy nie byłoby żadnej niejednoznaczności.

 

Podobnie jak z koncertem nagranym na CD.

Słuchając CD nagranego podczas koncertu w filharmonii możesz sobie podbić basy, albo spowolnić nagranie 0.9x albo nie wiem do czego tam zdolne są wzmacniacze audio.

Natomiast jeśli zamocowałbyś w miejscu swojej głowy mikrofon i nagrał to, czego słuchasz, a potem porównał nagrany plik z oryginalnym CD, to przy odpowiednio dobrym sprzęcie i ustawieniach byłbyś w stanie uzyskać nagranie niemal identyczne z tym co na CD. 

 

Nie znaczyłoby to, że nie ma różnicy między obecnością na koncercie a słuchaniem CD.

Ale z punktu widzenia mikrofonu nie byłoby różnicy, czy nagrywa na koncercie, czy u Ciebie w domu :)

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

5 godzin temu, Behlur_Olderys napisał:


Kolor zielony to chyba jednak może być trochę kwestia QE:

Wydajnosc-kwantowa.jpg
Widać, że zieleń nie jest jakoś super opanowana na tym wykresie... Dlatego lepiej mieć kamerkę mono i jak robić RGB to prawdziwe, a nie jakiś taki mix :)

 

Zacząłem szukać info jaki układ matrycy Bayera ma ASI290 i natrafiłem na post (dotyczący innego sensora - 071), w którym jest tabelka, a w niej podział pikseli G na Gr i Gb tak, jakby inne były te zachodzące na R i te zachodzące na B.  Może chodzi o lepsze odwzorowanie koloru? Ciekawe, czy rzeczywiście te Gr i Gb się różnią i czy tak jest we wszystkich sensorach RGB czy tylko w 071. Tak czy inaczej zielonych jest dwa razy więcej i w programach do stackowania ten nadmiar zielonego może nie być wyrównywany podczas debayeryzacji tak, jak w DSLR. 

image.png.52e7bfe6084418a7dcb4c3da4a5ef0ee.png

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

56 minut temu, Behlur_Olderys napisał:

 

Myślę, że lepiej byłoby sprawdzić wartości jasności powierzchniowej tych obiektów :)

(...)

 

No sprawdziłem: różnica w jasnościach powierzchniowych NGC 891 i M42 jest tylko 0.6 mag/arcsec2, co na pewno nie oddaje różnicy w odbiorze w wizualu.
Pewnie dlatego, że to są wartości średnie, a różnica w powierzchni kątowej obiektów jest ogromna. Ciekawą liczbą do porównania byłoby może "maksymalna jasność powierzchniowa". 

 

 

56 minut temu, Behlur_Olderys napisał:

(...)

Tylko jeśli upieramy się, że rejestrujemy wszystko okiem.

Zamiast oka na moim obrazku mógłby być aparat fotograficzny. Wtedy nie byłoby żadnej niejednoznaczności.

(...)

 

Zgadzam się, że jeśli byłby to jakiś "wzorcowy" aparat, to byłoby o wiele mniej nieoznaczoności.

Natomiast zdecydowanie nie zgadzam się ze stwierdzeniem "żadnej niejednoznaczności".

Nawet w profesjonalnej fotometrii w tej sprawie jest niezły bajzel i wątpię, żeby kiedykolwiek był jakiś "wzorcowy zestaw filtrów fotometrycznych", tak jak kiedyś był wzorzec kilograma.
Kolory są nierozerwalnie związane z podziałem pasma na pod-pasma i to się trudno standaryzuje. Na dodatek filtry optyczne mają charakterystyki dalekie od matematycznych ideałów i to też nie pomaga ujednoliceniu standardów.

Z dźwiękiem jest o wiele prościej, bo nie trzeba nic dzielić, wystarczy wiernie zamienić sygnały elektryczne z mikrofonu na ciąg liczb i potem je odtworzyć.
Co ciekawe, to właśnie odtwarzanie jest najtrudniejsze, zwłaszcza jak nie wystarczają słuchawki i trzeba głośników. Wtedy trzeba dzielić pasmo akustyczne na pod-pasma odtwarzane przez specjalizowane głośniki.
I jak tylko pojawia się podział pasma, zaczyna robić się pod górę. Podobnie jak przy kolorach.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Poniżej moja wersja.

Obróbka tylko PIX: crop 1400x1050, odszumienie, odchudzenie gwiazdek, kalibracja kolorów, wyciągnięcie krzywej dla średnich świateł, obcięcie tła, wyciągnięcie chromy (CIE *C) i delikatna dekonwolucja.

 

ngc891stack_crop_1400_1050.jpg.1619e0ba295410e5135748b36f5c8b80.jpg

 

W dniu 3.02.2021 o 22:12, Wojsa napisał:

Lucky imaging z wykorzystaniem SW 150/750

 

Gratuluję fotki z powodu udanej "ręcznej" nawigacji, odnalezienia się w metodzie zbierania i całkiem niezłego materiału.

 

Ale dlaczego lucky imaging? Nie masz napędu i popychasz oś RA ręcznie? Czy może masz napęd na RA?

 

 

 

 

Edytowane przez diver
  • Lubię 5
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 6.02.2021 o 00:56, diver napisał:

Poniżej moja wersja.

Obróbka tylko PIX: crop 1400x1050, odszumienie, odchudzenie gwiazdek, kalibracja kolorów, wyciągnięcie krzywej dla średnich świateł, obcięcie tła, wyciągnięcie chromy (CIE *C) i delikatna dekonwolucja.

 

ngc891stack_crop_1400_1050.jpg.1619e0ba295410e5135748b36f5c8b80.jpg

 

 

Gratuluję fotki z powodu udanej "ręcznej" nawigacji, odnalezienia się w metodzie zbierania i całkiem niezłego materiału.

 

Ale dlaczego lucky imaging? Nie masz napędu i popychasz oś RA ręcznie? Czy może masz napęd na RA?

 

 

 

 

Mam napęd w osi RA ale na eq 3-2 przy super ustawieniu n a biegun z tą kamerką można wyciągnąć góra kilkanaście sekund a poza tym miejskie niebo mocno ogranicza sensowny czas naświetlania

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 8.02.2021 o 09:25, Wojsa napisał:

z tą kamerką można wyciągnąć góra kilkanaście sekund

 

Fakt, skala dość wymagająca: 0,8"/px. W sumie więc i tak w większości przypadków fotografujesz seeing. Ale akurat w tym przypadku jakość Twojego materiału jest całkiem niezła.

 

W dniu 8.02.2021 o 09:25, Wojsa napisał:

a poza tym miejskie niebo mocno ogranicza sensowny czas naświetlania

 

A tutaj to zupełnie się z Tobą nie zgodzę. Po miejskim niebem zbieram klatki nawet 300 sek. Dla słabych obiektów czas ekspozycji jest kluczowy, nawet za cenę jasnego tła i gradientów. Z tym w obróbce można sobie radzić lepiej kub gorzej. Proponuję więc, żebyś próbował maksymalnie dostępnych dla Ciebie czasów ekspozycji.

 

Odnośnik do komentarza
Udostępnij na innych stronach

8 godzin temu, diver napisał:

 

Fakt, skala dość wymagająca: 0,8"/px. W sumie więc i tak w większości przypadków fotografujesz seeing. Ale akurat w tym przypadku jakość Twojego materiału jest całkiem niezła.

 

 

A tutaj to zupełnie się z Tobą nie zgodzę. Po miejskim niebem zbieram klatki nawet 300 sek. Dla słabych obiektów czas ekspozycji jest kluczowy, nawet za cenę jasnego tła i gradientów. Z tym w obróbce można sobie radzić lepiej kub gorzej. Proponuję więc, żebyś próbował maksymalnie dostępnych dla Ciebie czasów ekspozycji.

 

300s to chyba przy bardzo małej czułości albo w wąskich pasmach. U mnie w Sosnowcu przy gain 400 i czasie 20s zdjęcie już jest całkiem pomarańczowe

Odnośnik do komentarza
Udostępnij na innych stronach

1 godzinę temu, Wojsa napisał:

automatyczny stack z sharpcap obrobiony w GIMP

 

Automatyczny stack? Czy ja wiem że to najlepsze rozwiązanie? A masz pojedyncze klatki? Ja bym wrzucił je do AstroStakkerta + 1.5x drizzle spróbował... Wiesz, bo jeśli nie wybierzesz choćby 80% najlepszych klatek tylko stackujesz wszystko jak leci - to już w żaden sposób nie jest "lucky" imaging :P

 

Pociągnięte nieco za mocno, widać szum, ale skala ładna :) Gdybyś miał wersję w której całość jest ciemniejsza, ale bez szumu, to mógłbyś jeszcze dowalić dekonwolucją i byłoby całkiem przyjemnie.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.