Jump to content

Recommended Posts

19 minut temu, trouvere napisał:

 

Jeśli pod pojęciem "ciężkiej matemetyki" ukrywasz po prostu statystykę to stwierdzenie, że " istnieje matematyczny ideał odwzorowania kolorów" jest bez sensu.

Żaden matematyczny ideał odwzorowania kolorów nie istnieje, to jest tylko i wyłącznie ludzka imaginacja.

 

W takim razie poproszę o rysunek pomocniczy:

ideal.png

G niech oznacza sygnał wysyłany z galaktyki, W sygnał wysyłany do oka z monitora, a R sygnał wysyłany przez oko do mózgu, bez wchodzenia w szczegóły definicji tych sygnałów - wystarczy założenie, że można je modelować dowolnie wymiarowymi funkcjami liczb rzeczywistych, a więc dla każdego z nich istnieje prosta metryka określająca jak bardzo są do siebie podobne.

Równocześnie W' oznacza sygnał z okularu teleskopu.

Kolejne założenie jest takie, że oko działa deterministycznie, a więc jeśli W' dąży do W to R' bedzie dążyło do R.

Przy takich założeniach - moim zdaniem - zadaniem astrofotografii powinno być dążenie do idealnego odwzorowania, a więc W = W', co oczywiście nie jest możliwe, ale możliwe jest sterowanie parametrami przekształcenia G->W jakie dokonuje się podczas akwizycji i obróbki tak, aby d(W, W') (odległość pomiędzy sygnałami W i W', realizowana np. przez odchylenie średniokwadratowe) dążyło do minimum.

 

To jest matematyczny model idealnego odwzorowania kolorów - moim zdaniem.

 

 

W przypadku fotografii dziennej, gdzie W' równa się G, bo nie potrzebujemy teleskopu, takie dążenie do minimalizacji różnicy W i W' wydaje się naturalne. Czemu w astrofoto miałoby być inaczej?

 

 

 

 

Link to post
Share on other sites
13 minut temu, trouvere napisał:

 

Clue problemu tkwi w tym "jak bardzo są do siebie podobne", jeśli za każdym razem będziesz stawiał jako odbiorcę tego samego osobnika, w ściśle kontrolowanych identycznych warunkach psychofizycznych (wrażenia barwne odbierane przez tego samego osobnika są inne rano, wieczorem, czy jest zmęczony czy też nie, najedzony czy czy głodny itp.) to możesz próbować opisać, wystawić metrykę jego sposobu interpretacji zjawisk/-a związanych jego osobniczą wrażliwością na natężenie i długość odbieranych fal elektromagnetycznych, które same w sobie nie posiadają żadnej fizycznej właściwości, którą można by fizycznie określić jako kolor.

Kolor - "odbiera" tylko człowiek, przy czym jako odbiera należy rozumieć, że jego mózg w określony dla niego samego sposób interpretuje.

 

No to już teraz wchodzisz w to, co mózg zrobi z sygnałem R'/R od oka. Mnie to nie interesuje. To jest domena jakiejś kognitywistyki.

Ty mówisz: "eee nic się nie da bo to wszystko jest indywidualnie postrzegane. Nie istnieje ideał".

Ja mówię: "zgoda, znajdźmy więc najmniejszy wspólny mianownik który można zmierzyć i utnijmy dyskusję na tym etapie. W tak postawionym zagadnieniu istnieje ideał" :)

 

 

Zostając przy matematyce, nie muszę odwoływać się do ludzkich wrażeń, wystarczy mi definicja koloru jako np. wartości RGB albo intensywności konkretnych długości fal itp.

 

 

Fizyka może zmierzyć G, może zmierzyć R i R' (przesyłane przez nerw wzrokowy), może oszacować W i W'. Wydaje się technicznie możliwe zbliżenie do siebie jak najbardziej W i W'. To max, co można zrobić w sposób mierzalny i obiektywny. 

 

Jak chcesz zamiast oka na moim rysunku wstaw kolejną kamerę. Wtedy będziesz mógł zostawić to nieszczęsne oko i mózg, i wszystko będzie obiektywne i mierzalne na 100%, przy czym cel optymalizacji będzie ten sam.

 

Moja teza jest więc taka:

Zbieranie koloru za pomocą odseparowanych kanałów RGB kamerą mono umożliwia lepsze dopasowanie W do W' niż bazowanie na kombinacji liniowej kanałów R i G jaką uzyskujemy z kamery kolorowej o nieidealnej charakterystyce widmowej. 
 

 

Link to post
Share on other sites
Teraz, trouvere napisał:

Najmniejszym wspólnym mianownikiem jest w tym przypadku statystyczne podobieństwo wrażeń odbieranych przez człowieka, które nigdy nie będą identyczne a tylko podobne.

To oksymoron.

Skoro nigdy nie będą identyczne to nie mogą być wspólnym mianownikiem.

 

Interesuje mnie podejście naukowe, a nie jakieś tam wrażenia.

 

Wyobrażam sobie rozmowę dwóch astronomów raczej tak:

A: - Gwiazda X ma stosunek intensywności kanałów R/G na poziomie 1.5, jest duża szansa, że o typ gwiazdowy M3

B: - Pozwól, że sam zmierzę te intensywności. Jeśli wyjdzie mi podobny wynik, to szansa, że to rzeczywiście gwiazda typu M3 będzie naprawdę bardzo duża.

A: - Tylko uważaj, żebyś wziął pod uwagę charakterystykę swojej kamery, ona jest kolorowa, a ja robię filtrami RGB

B: - OK spoko skalibruję ją wcześniej na innej gwieździe typu M3 żeby być pewnym.

(...)
A: - I jak poszło?
B: - Niby ok, ale przy okazji wyszło na jaw, że przez mieszanie się kanałów R i G w mojej kolorowej kamerce nie tylko gwiazdy typu M3 mają stosunek R/G na poziomie 1.5. Identyczne wyniki dostaję dla gwiazd typu K7!

A: - U mnie nie ma tego efektu, bo moje kanały RGB są odseparowane. K7 ma u mnie stosunek R/G na poziomie 1.3

B: - Ciężkie jest życie astronoma korzystającego z kolorowej kamerki...

 

  • Like 1
Link to post
Share on other sites

Patrząc na "rysunek pomocniczy" Bartka zacząłem się zastanawiać, jaka apertura byłaby potrzebna, żeby zobaczyć NGC 891 w kolorze i wiedzieć, jaki jest wizualny obraz referencyjny.

Dla zabawy na szybko zrobiłem takie oszacowanie, na pewno bardzo zgrubne, ale dla mnie i tak interesujące: 

  • NGC 891 ma jasność 9.9 mag a M42 4.0 (po prostu liczby ze Stellarium+)
  • różnica jest 5.9 mag, która odpowiada stosunkowi 10^(5.9/2.5) ≈ 230
  • jakieś kolory M42 można pewnie zobaczyć w 16", więc powierzchnię 16" pasuje zwiększyć 230 razy, czyli aperturę o sqrt(230) ≈ 15, czyli do 240" ≈ 6 m.

To mnie tylko utwierdza w przekonaniu, że odwzorowanie kolorów obiektów DS to zdecydowanie bardziej sztuka niż nauka.
Co oczywiście nie znaczy, że nie można sobie podyskutować jak potencjalnie zwiększyć udział nauki.

Link to post
Share on other sites
Godzinę temu, Mareg napisał:

Patrząc na "rysunek pomocniczy" Bartka zacząłem się zastanawiać, jaka apertura byłaby potrzebna, żeby zobaczyć NGC 891 w kolorze i wiedzieć, jaki jest wizualny obraz referencyjny.

Dla zabawy na szybko zrobiłem takie oszacowanie, na pewno bardzo zgrubne, ale dla mnie i tak interesujące: 

  • NGC 891 ma jasność 9.9 mag a M42 4.0 (po prostu liczby ze Stellarium+)
  • różnica jest 5.9 mag, która odpowiada stosunkowi 10^(5.9/2.5) ≈ 230
  • jakieś kolory M42 można pewnie zobaczyć w 16", więc powierzchnię 16" pasuje zwiększyć 230 razy, czyli aperturę o sqrt(230) ≈ 15, czyli do 240" ≈ 6 m.

 

 

Myślę, że lepiej byłoby sprawdzić wartości jasności powierzchniowej tych obiektów :)

 

 

Cytat

To mnie tylko utwierdza w przekonaniu, że odwzorowanie kolorów obiektów DS to zdecydowanie bardziej sztuka niż nauka.
Co oczywiście nie znaczy, że nie można sobie podyskutować jak potencjalnie zwiększyć udział nauki.

 

Tylko jeśli upieramy się, że rejestrujemy wszystko okiem.

Zamiast oka na moim obrazku mógłby być aparat fotograficzny. Wtedy nie byłoby żadnej niejednoznaczności.

 

Podobnie jak z koncertem nagranym na CD.

Słuchając CD nagranego podczas koncertu w filharmonii możesz sobie podbić basy, albo spowolnić nagranie 0.9x albo nie wiem do czego tam zdolne są wzmacniacze audio.

Natomiast jeśli zamocowałbyś w miejscu swojej głowy mikrofon i nagrał to, czego słuchasz, a potem porównał nagrany plik z oryginalnym CD, to przy odpowiednio dobrym sprzęcie i ustawieniach byłbyś w stanie uzyskać nagranie niemal identyczne z tym co na CD. 

 

Nie znaczyłoby to, że nie ma różnicy między obecnością na koncercie a słuchaniem CD.

Ale z punktu widzenia mikrofonu nie byłoby różnicy, czy nagrywa na koncercie, czy u Ciebie w domu :)

 

 

Link to post
Share on other sites
5 godzin temu, Behlur_Olderys napisał:


Kolor zielony to chyba jednak może być trochę kwestia QE:

Wydajnosc-kwantowa.jpg
Widać, że zieleń nie jest jakoś super opanowana na tym wykresie... Dlatego lepiej mieć kamerkę mono i jak robić RGB to prawdziwe, a nie jakiś taki mix :)

 

Zacząłem szukać info jaki układ matrycy Bayera ma ASI290 i natrafiłem na post (dotyczący innego sensora - 071), w którym jest tabelka, a w niej podział pikseli G na Gr i Gb tak, jakby inne były te zachodzące na R i te zachodzące na B.  Może chodzi o lepsze odwzorowanie koloru? Ciekawe, czy rzeczywiście te Gr i Gb się różnią i czy tak jest we wszystkich sensorach RGB czy tylko w 071. Tak czy inaczej zielonych jest dwa razy więcej i w programach do stackowania ten nadmiar zielonego może nie być wyrównywany podczas debayeryzacji tak, jak w DSLR. 

image.png.52e7bfe6084418a7dcb4c3da4a5ef0ee.png

  • Like 1
Link to post
Share on other sites
56 minut temu, Behlur_Olderys napisał:

 

Myślę, że lepiej byłoby sprawdzić wartości jasności powierzchniowej tych obiektów :)

(...)

 

No sprawdziłem: różnica w jasnościach powierzchniowych NGC 891 i M42 jest tylko 0.6 mag/arcsec2, co na pewno nie oddaje różnicy w odbiorze w wizualu.
Pewnie dlatego, że to są wartości średnie, a różnica w powierzchni kątowej obiektów jest ogromna. Ciekawą liczbą do porównania byłoby może "maksymalna jasność powierzchniowa". 

 

 

56 minut temu, Behlur_Olderys napisał:

(...)

Tylko jeśli upieramy się, że rejestrujemy wszystko okiem.

Zamiast oka na moim obrazku mógłby być aparat fotograficzny. Wtedy nie byłoby żadnej niejednoznaczności.

(...)

 

Zgadzam się, że jeśli byłby to jakiś "wzorcowy" aparat, to byłoby o wiele mniej nieoznaczoności.

Natomiast zdecydowanie nie zgadzam się ze stwierdzeniem "żadnej niejednoznaczności".

Nawet w profesjonalnej fotometrii w tej sprawie jest niezły bajzel i wątpię, żeby kiedykolwiek był jakiś "wzorcowy zestaw filtrów fotometrycznych", tak jak kiedyś był wzorzec kilograma.
Kolory są nierozerwalnie związane z podziałem pasma na pod-pasma i to się trudno standaryzuje. Na dodatek filtry optyczne mają charakterystyki dalekie od matematycznych ideałów i to też nie pomaga ujednoliceniu standardów.

Z dźwiękiem jest o wiele prościej, bo nie trzeba nic dzielić, wystarczy wiernie zamienić sygnały elektryczne z mikrofonu na ciąg liczb i potem je odtworzyć.
Co ciekawe, to właśnie odtwarzanie jest najtrudniejsze, zwłaszcza jak nie wystarczają słuchawki i trzeba głośników. Wtedy trzeba dzielić pasmo akustyczne na pod-pasma odtwarzane przez specjalizowane głośniki.
I jak tylko pojawia się podział pasma, zaczyna robić się pod górę. Podobnie jak przy kolorach.

  • Like 1
Link to post
Share on other sites

Poniżej moja wersja.

Obróbka tylko PIX: crop 1400x1050, odszumienie, odchudzenie gwiazdek, kalibracja kolorów, wyciągnięcie krzywej dla średnich świateł, obcięcie tła, wyciągnięcie chromy (CIE *C) i delikatna dekonwolucja.

 

ngc891stack_crop_1400_1050.jpg.1619e0ba295410e5135748b36f5c8b80.jpg

 

W dniu 3.02.2021 o 22:12, Wojsa napisał:

Lucky imaging z wykorzystaniem SW 150/750

 

Gratuluję fotki z powodu udanej "ręcznej" nawigacji, odnalezienia się w metodzie zbierania i całkiem niezłego materiału.

 

Ale dlaczego lucky imaging? Nie masz napędu i popychasz oś RA ręcznie? Czy może masz napęd na RA?

 

 

 

 

Edited by diver
  • Like 5
Link to post
Share on other sites
W dniu 6.02.2021 o 00:56, diver napisał:

Poniżej moja wersja.

Obróbka tylko PIX: crop 1400x1050, odszumienie, odchudzenie gwiazdek, kalibracja kolorów, wyciągnięcie krzywej dla średnich świateł, obcięcie tła, wyciągnięcie chromy (CIE *C) i delikatna dekonwolucja.

 

ngc891stack_crop_1400_1050.jpg.1619e0ba295410e5135748b36f5c8b80.jpg

 

 

Gratuluję fotki z powodu udanej "ręcznej" nawigacji, odnalezienia się w metodzie zbierania i całkiem niezłego materiału.

 

Ale dlaczego lucky imaging? Nie masz napędu i popychasz oś RA ręcznie? Czy może masz napęd na RA?

 

 

 

 

Mam napęd w osi RA ale na eq 3-2 przy super ustawieniu n a biegun z tą kamerką można wyciągnąć góra kilkanaście sekund a poza tym miejskie niebo mocno ogranicza sensowny czas naświetlania

Link to post
Share on other sites
W dniu 8.02.2021 o 09:25, Wojsa napisał:

z tą kamerką można wyciągnąć góra kilkanaście sekund

 

Fakt, skala dość wymagająca: 0,8"/px. W sumie więc i tak w większości przypadków fotografujesz seeing. Ale akurat w tym przypadku jakość Twojego materiału jest całkiem niezła.

 

W dniu 8.02.2021 o 09:25, Wojsa napisał:

a poza tym miejskie niebo mocno ogranicza sensowny czas naświetlania

 

A tutaj to zupełnie się z Tobą nie zgodzę. Po miejskim niebem zbieram klatki nawet 300 sek. Dla słabych obiektów czas ekspozycji jest kluczowy, nawet za cenę jasnego tła i gradientów. Z tym w obróbce można sobie radzić lepiej kub gorzej. Proponuję więc, żebyś próbował maksymalnie dostępnych dla Ciebie czasów ekspozycji.

 

Link to post
Share on other sites
8 godzin temu, diver napisał:

 

Fakt, skala dość wymagająca: 0,8"/px. W sumie więc i tak w większości przypadków fotografujesz seeing. Ale akurat w tym przypadku jakość Twojego materiału jest całkiem niezła.

 

 

A tutaj to zupełnie się z Tobą nie zgodzę. Po miejskim niebem zbieram klatki nawet 300 sek. Dla słabych obiektów czas ekspozycji jest kluczowy, nawet za cenę jasnego tła i gradientów. Z tym w obróbce można sobie radzić lepiej kub gorzej. Proponuję więc, żebyś próbował maksymalnie dostępnych dla Ciebie czasów ekspozycji.

 

300s to chyba przy bardzo małej czułości albo w wąskich pasmach. U mnie w Sosnowcu przy gain 400 i czasie 20s zdjęcie już jest całkiem pomarańczowe

Link to post
Share on other sites
1 godzinę temu, Wojsa napisał:

automatyczny stack z sharpcap obrobiony w GIMP

 

Automatyczny stack? Czy ja wiem że to najlepsze rozwiązanie? A masz pojedyncze klatki? Ja bym wrzucił je do AstroStakkerta + 1.5x drizzle spróbował... Wiesz, bo jeśli nie wybierzesz choćby 80% najlepszych klatek tylko stackujesz wszystko jak leci - to już w żaden sposób nie jest "lucky" imaging :P

 

Pociągnięte nieco za mocno, widać szum, ale skala ładna :) Gdybyś miał wersję w której całość jest ciemniejsza, ale bez szumu, to mógłbyś jeszcze dowalić dekonwolucją i byłoby całkiem przyjemnie.

Link to post
Share on other sites

To były początki testowania kamery do astro stąd ten automatyczny stack. z reszta sharp cap poruszone klatki odrzuca;) Teraz wersja z pliku 32bitowego.

 

m272540_32bit.png

Edited by Wojsa
Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

  • Our picks

    • Big Bang remnant - Ursa Major Arc or UMa Arc
      Tytuł nieco przekorny bo nie chodzi tu oczywiście o Wielki Wybuch ale ... zacznijmy od początku.
       
      W roku 1997 Peter McCullough używając eksperymentalnej kamery nagrał w paśmie Ha długą na 2 stopnie prostą linie przecinajacą niebo.
       
      Peter McCullough na konferencji pokazał fotografię Robertowi Benjamin i obaj byli pod wrażeniem - padło nawet stwierdzenie: “In astronomy, you never see perfectly straight lines in the sky,”
        • Love
        • Thanks
        • Like
      • 16 replies
    • Jeśli coś jest głupie, ale działa, to nie jest głupie - o nietypowych rozwiązaniach sprzętowych
      Sformułowanie, które można znaleźć w internetach jako jedno z "praw Murphy'ego" przyszło mi na myśl, gdy kolejny raz przeglądałem zdjęcia na telefonie z ostatniego zlotu, mając z tyłu głowy najgłośniejszy marsjański temat na forum. Do rzeczy - jakie macie (bardzo) nietypowe patenty na usprawnienie sprzętu astronomicznego bądź jakieś kreatywne improwizacje w razie awarii czy niezabrania jakiegoś elementu sprzętu  Obstawiam, że @HAMAL mógłby samodzielnie wypełnić treścią taki wątek.
        • Haha
        • Like
      • 21 replies
    • MARS 2020 - mapa albedo powierzchni + pełny obrót 3D  (tutorial gratis)
      Dzisiejszej nocy mamy opozycję Marsa więc to chyba dobry moment żeby zaprezentować wyniki mojego wrześniowego projektu. Pogody ostatnio jak na lekarstwo – od początku października praktycznie nie udało mi się fotografować. Na szczęście wrzesień dopisał jeśli chodzi o warunki seeingowe i udało mi się skończyć długo planowany projekt pełnej mapy powierzchni (struktur albedo) Marsa.
        • Love
        • Thanks
        • Like
      • 130 replies
    • Aktualizacja silnika Astropolis - zgłaszanie uwag
      Dzisiaj zaktualizowaliśmy silnik Astropolis do najnowszej wersji (głównie z powodów bezpieczeństwa). Najpoważniejsze błędy zostały już naprawione, ale ponieważ aktualizacja jest dosyć rozbudowana (dotyczy także wyglądu), drobnych problemów na pewno jest więcej. Bez was ich nie namierzymy. Dlatego bardzo proszę o pomoc i wrzucanie tu informacji o napotkanych problemach/błędach.
        • Like
      • 247 replies
    • Insight Investment Astrophotographer of the Year 2020 – mój mały-wielki sukces :)
      Jestem raczej osobą która nie lubi się chwalić i przechwalać… ale tym razem jest to wydarzenie dla mnie tak ważne, że postanowiłem podzielić się z Wami tą niezwykle radosną dla mnie wiadomością.
       
      Moja praca zajęła pierwsze miejsce w kategorii „Planety, komety i asteroidy” podczas tegorocznego konkursu Insight Investment Astronomy Photographer of the Year 2020.
        • Love
        • Thanks
        • Like
      • 85 replies
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.