Skocz do zawartości

NGC 6543 - Mgławica Kocie Oko


Lukasz83

Rekomendowane odpowiedzi

1 godzinę temu, Tom-cio napisał:

Genialne.

Dałbyś jeszcze tradycyjnie porównanie do HST :)

Dzięki! Dorzucam porównanie (tu i w pierwszym poście)

Oczywiście paleta kolorów jest inna (LRGB vs HST) zatem tym się nie sugerujcie.

Dodatkowo porównanie z "rozblurowanym HST" żeby łatwiej porównać detale ;)

 

272071699_hstcomp.jpg.7a0202b52aeb3c365bb73098e1bfcdd8.jpg

842550870_hstcompblur.jpg.e32fb715bd393928e8618ed484145844.jpg

 

Dodatkowo linki do zdjęcia referencyjnego z Ziemi (Capella Observatory)

 

http://www.capella-observatory.com/images/PNs/NGC6543CenteIn200Percent.jpg

http://www.capella-observatory.com/ImageHTMLs/PNs/NGC6543.htm

 

 

 

 

 

 

 

Edytowane przez Lukasz83
  • Lubię 4
Odnośnik do komentarza
Udostępnij na innych stronach

Moja ulubiona planetarka:goggles: Wyszło Ci świetnie.

17 godzin temu, Lukasz83 napisał:

Na krótkich czasach można przedstawić jej bardzo jasne centrum (9 mag i 25'' rozmiaru). Oczywiście o halo w tym przypadku można zapomnieć. Do tego potrzeba sporo dłuższych czasów i najlepiej większej apertury.

Mój szkaradek :mr.green: 

oko2.jpg

  link.

 

 

  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

5 godzin temu, Lukasz83 napisał:

Mam takie przemyślenie ( @Behlur_Olderys ! ), że zbytnie skracanie czasu subklatki nie powoduje polepszenia detalu na stacku, ponieważ detal jest zbyt słaby ze względu na słaby sygnał poszczególnych subklatek.

Może jest tak, że alignowanie klatek  w stacku nie działa tak dobrze, gdy jest mało sygnału, i niedokładności alignacji w stacku zamieniają się na blur? Czytam właśnie artykuł w tym temacie (https://www.google.pl/url?sa=t&source=web&rct=j&url=https://www.ast.cam.ac.uk/sites/default/files/SPIE_7735-211_010710.pdf&ved=2ahUKEwiorIPB8ITfAhUKkiwKHRwqD5UQFjABegQIAhAB&usg=AOvVaw2vBCXhstWwrN8DvYR7u8_X

Jest dość trudny matematycznie, ale na pewno można wyłowić parę rzeczy:

Korzystają tylko z jednej gwiazdy referencyjnej, bo tylko jedna jest sensownie blisko obiektu (przypominam temat isoplanatic patch). Wydaje mi się, że typowe programy do stackowania próbują znaleźć jak najwięcej gwiazd referencyjnych, a to krok w drugą stronę. Po drugie, używają algorytmu korelacji (czego z czym? Muszę jeszcze parę razy przeczytać:) ), nie wiem dokładnie w praktyce co to oznacza, ale zasadniczo chodzi o jak najdokładniejsze, z precyzją subpikselową, wyznaczenie położenia gwiazdy referencyjnej. Widać na wykresach, że im więcej jest fotonów na zdjęciu, tym lepszy osiąga się wynik ;) co jest poniekąd zgodne z Twoimi wynikami. Ale teoretycznie daje szansę, że nawet z najciemniejszych klatek dałoby się jeszcze coś wycisnąć, gdyby mieć jakiś bardziej wymyślny algorytm stackowania...

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

12 godzin temu, Behlur_Olderys napisał:

Może jest tak, że alignowanie klatek  w stacku nie działa tak dobrze, gdy jest mało sygnału, i niedokładności alignacji w stacku zamieniają się na blur?

Coś w tym stylu - jak jest za mało sygnału (albo na niektórych klatkach występuje a na innych nie) to pojawia się właśnie coś a'la blur - najczęściej objawia się to tym, że gwiazdy przypominają słabe niepunktowe galaktyki a detal zamiast mieścić się w granicach kilku pikseli rozlewa się na kilkanaście. 

Taki efekt pojawia się w przypadku detalu który jest na klatce, ale na tyle słaby, że na pierwszy rzut oka nie widzimy go podczas rejestracji.

Detal który jest widoczny i oczywisty na pojedynczych klatkach podczas rejestracji nie wykazuje takich tendencji do "blurowania" :)

 

12 godzin temu, Behlur_Olderys napisał:

Korzystają tylko z jednej gwiazdy referencyjnej, bo tylko jedna jest sensownie blisko obiektu (przypominam temat isoplanatic patch). Wydaje mi się, że typowe programy do stackowania próbują znaleźć jak najwięcej gwiazd referencyjnych, a to krok w drugą stronę. Po drugie, używają algorytmu korelacji (czego z czym? Muszę jeszcze parę razy przeczytać:) ), nie wiem dokładnie w praktyce co to oznacza, ale zasadniczo chodzi o jak najdokładniejsze, z precyzją subpikselową, wyznaczenie położenia gwiazdy referencyjnej. 

W SiriLu, podobnie jak i pewnie w innych programach do stackowania mamy kilka możliwości alignowania zdjęć.

W przypadku tej mgławicy (Kocie Oko) gdzie praktycznie nie było gwiazd referencyjnych użyłem algorytmu "korelacyjnego" używanego najczęściej przy stackowaniu powierzchni Słońca lub Księżyca - zakładam (nie mam pewności), że w takim wypadku program wybiera sobie jasne punkty obiektu, określa je jako referencyjne, i próbuje dopasować wszystkie kolejne klatki względem tych punktów naciągając odpowiednio obraz każdej subklatki pod te punkty.

Gdy mamy alignowanie pod gwiazdy wtedy program robi to samo ale naciąga zdjęcia (i rotuje) tak żeby dopasować je pod poszczególne gwiazdy będące punktami odniesienia.

Jak mam tylko jedną gwiazdę to program pewnie też będzie w stanie zrobić wyrównanie ale bez rotacji i "naciągania" obrazu - jedynie dopasowując góra/dół i lewo/prawo co jest najmniej skuteczną metodą.

 

Odnośnik do komentarza
Udostępnij na innych stronach

42 minuty temu, Lukasz83 napisał:

Coś w tym stylu - jak jest za mało sygnału (albo na niektórych klatkach występuje a na innych nie) to pojawia się właśnie coś a'la blur - najczęściej objawia się to tym, że gwiazdy przypominają słabe niepunktowe galaktyki a detal zamiast mieścić się w granicach kilku pikseli rozlewa się na kilkanaście. 

Taki efekt pojawia się w przypadku detalu który jest na klatce, ale na tyle słaby, że na pierwszy rzut oka nie widzimy go podczas rejestracji.

Detal który jest widoczny i oczywisty na pojedynczych klatkach podczas rejestracji nie wykazuje takich tendencji do "blurowania" :)

 

W SiriLu, podobnie jak i pewnie w innych programach do stackowania mamy kilka możliwości alignowania zdjęć.

W przypadku tej mgławicy (Kocie Oko) gdzie praktycznie nie było gwiazd referencyjnych użyłem algorytmu "korelacyjnego" używanego najczęściej przy stackowaniu powierzchni Słońca lub Księżyca - zakładam (nie mam pewności), że w takim wypadku program wybiera sobie jasne punkty obiektu, określa je jako referencyjne, i próbuje dopasować wszystkie kolejne klatki względem tych punktów naciągając odpowiednio obraz każdej subklatki pod te punkty.

Gdy mamy alignowanie pod gwiazdy wtedy program robi to samo ale naciąga zdjęcia (i rotuje) tak żeby dopasować je pod poszczególne gwiazdy będące punktami odniesienia.

Jak mam tylko jedną gwiazdę to program pewnie też będzie w stanie zrobić wyrównanie ale bez rotacji i "naciągania" obrazu - jedynie dopasowując góra/dół i lewo/prawo co jest najmniej skuteczną metodą.

 

Masz dużo materiału (20k klatek :) ) to możesz popróbować z innymi algorytmami ;) Wybierałeś najlepsze klatki wg FWHM? 

Odnośnik do komentarza
Udostępnij na innych stronach

1 minutę temu, Behlur_Olderys napisał:

Masz dużo materiału (20k klatek :) ) to możesz popróbować z innymi algorytmami ;) Wybierałeś najlepsze klatki wg FWHM? 

Robiłem testy wybierając 50%, 75% najlepszych klatek i stackując wszystko.

W zależności od "rozrzutu seeingowego" najlepsze rezultaty uzyskiwałem stackując w granicach połowy klatek.

Jak używasz metody korelacyjnej (bez gwiazd, analizując "powierzchnię" obiektu) to wtedy program ocenia jakość wg własnego zaszytego algorytmu (jak dokładnie nie wiem)

FWHM jest oceniane tylko w przypadku alignowania po gwiazdach.

Odnośnik do komentarza
Udostępnij na innych stronach

2 godziny temu, Lukasz83 napisał:

Robiłem testy wybierając 50%, 75% najlepszych klatek i stackując wszystko.

W zależności od "rozrzutu seeingowego" najlepsze rezultaty uzyskiwałem stackując w granicach połowy klatek.

Jak używasz metody korelacyjnej (bez gwiazd, analizując "powierzchnię" obiektu) to wtedy program ocenia jakość wg własnego zaszytego algorytmu (jak dokładnie nie wiem)

FWHM jest oceniane tylko w przypadku alignowania po gwiazdach.

Szkoda, że nie możesz przesłać trochę tych klatek 150ms do zabawy..... A może możesz? ;) Wiesz, nie mówię: wszystko, ale może kilka...set? ;)

Odnośnik do komentarza
Udostępnij na innych stronach

3 minuty temu, Behlur_Olderys napisał:

Szkoda, że nie możesz przesłać trochę tych klatek 150ms do zabawy..... A może możesz? ;) Wiesz, nie mówię: wszystko, ale może kilka...set? ;)

Mogę wysłać 14000 klatek :)  Ale to będzie sama mgławica - crop 200x200 pikseli w formie pliku SER

Wtedy to waży 500MB i mogę to udostępnić na google dysku :)

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.