Skocz do zawartości
LibMar

Live binning - rewolucja w amatorskiej rejestracji tranzytów egzoplanet?

Rekomendowane odpowiedzi

Szukałem odpowiedniego wątku (a takich było pełno), ale chyba chodziło o ten. W ramach potrzeb na konferencję, przedstawiam wyniki związane z selektywnym wybieraniem na podstawie odrzutu najgorszych pomiarów. Tylko tu inaczej - ja tutaj nie uśredniam pojedyncze oceny, lecz stackuję wybrane klatki. Wniosek ciekawy - wywalenie 20% klatek (nie pomiarów) spowodowało wzrost dokładności z std=0.0028 mag do std=0.0020 mag na przykładzie tranzytu WASP-3 b. Jak tego dokonałem?

 

Przeprowadziłem fotometrię na pojedynczych 3716 klatkach po 4 sekundy. Aby wiedzieć jak bardzo pomiar odskakuje, musiałem znormalizować krzywą poprzez usunięcie tranzytu wykonując poziomą linię. Ważne jest, aby uniknąć zdegradowania momentu wyjścia i wyjścia. Dlatego celowo wybrałem ten tranzyt, gdyż rozpocząłem obserwację dokładnie w momencie wejścia. Skorzystałem ze średniej kroczącej obejmującej krótszy czas pomiarów w momencie kontaktów oraz dłuższy poza nimi (przy bardzo płytkich tranzytach można już stosować o tej samej długości, aby nie wprowadzać za bardzo "modelu"). Wykres był nieco poszarpany (natura średniej kroczącej), dlatego wygładziłem na kształt litery U, aby nie faworyzowało w pewnej chwili odstające pomiary. Każdy pomiar porównałem z wartością dla uzyskaną dla modelu (który jest niezbędny, jeśli jest to głębokie zjawisko), a za pomocą percentylów odznaczyłem te klatki, które były najbardziej odległe. I tu jest ważne - klatki, a nie pomiary. Więc nie uśredniam pojedynczych pomiarów z usunięciem tych 20% najgorszych, lecz stackuję znów do czasu integracji 120s, lecz usuwając po 20%. To, co jest istotne, to ilość klatek wypadających dla danych dwóch minut - raz jest ich np. 21, innym razem 27. Postanowiłem już zestackować po 24 kolejnych FITSów, więc ich nieco się różni (raz 21x4s, innym razem 27x4s), jednak ich średnia i tak wypada dla ~120s. Te pomiary zostały zaprezentowane na krzywej:

 

image.png

 

Po lewej - wynik przed (30x4s), po prawej po zestackowaniu wybranych klatek. To co jest istotne, wróciłem do pojedynczych pomiarów - uzyskane stacki nie nakładają się już w żaden sposób na siebie (nie ma średniej kroczącej). Czyli przeszliśmy do punktu wyjścia - mamy stacki i tylko na nich prowadzimy pomiary. Wejście i wyjście także nie uległo degradacji.

 

To dowodzi, że usuwanie polepsza dokładność pomiarową - działa to podobnie, jak przy astrofotografii metodą lucky imaging. Na zawsze pozbyłem się problemu średniej kroczącej, skoro są czyste stacki. Równie dobrze mogę powiedzieć, że miałem w tamtych klatkach satelity na gwiazdach, więc tak czy siak trzeba było się pozbyć. Minusem tej metody jest czasochłonność. Czy warto podejmować się tego zadania tylko dla zmniejszenia rozrzutu o 40%? Pierwotne wyniki uzyskałem po 2-3 godzinach, natomiast krzywą po prawej - po ponad 8 godzinach. Wiele procesów powtarza się i należało wykonać trzy kopie. Napisałem już do autora Muniwina o prośbę odblokowania dwóch elementów (obecnie "skróty" w programie nie działają), aby to przyspieszyć. Po zautomatyzowaniu (gotowy skrypt w Excelu) powinno być to wykonalne w 3-4 godziny, a więc niewiele dłużej.

 

Jak automat będzie gotowy, przetestuję wyniki po usuwaniu 5%, 10%, 30% czy nawet 50% pomiarów klatek. Nie chcę bazować na uśrednianiu tych pojedynczych, lecz na stackach - stąd wymaga więcej czasu. Wartość optymalna wciąż czeka na odnalezienie, ale raczej nie przekraczałbym tych 20%. Myślę, że będzie zależało od ilości klatek wypadających na 120s (którego ciągle się trzymam). Prawdopodobnie im więcej klatek, tym większą wartość procentową można użyć.

 

A nazwa tematu "live binning" teraz bardzo nie pasuje... pasowałoby, gdyby stackowało się tak, jak po lewej stronie, tych klatek o krótkich czasach naświetlania. W zasadzie tutaj pokrywa się tylko to - klatki przy WASP-3 b miały po 4s naświetlania. Obserwację przeprowadziłem za pomocą kamery ASI178MM-c i teleobiektywu Canon FD 300mm f/2.8L. Zaledwie 4 cale średnicy. To nie jest metrowy teleskop. Przewaga CMOS nad CCD w aspekcie krótkich czasów jest wyraźna.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A to nie jest podobna metoda, którą testowałem blisko 10 lat temu i generalnie nie została dobrze przyjęta (pre-stackowanie pakietów klatek)? Na priwie zostało to wręcz shejtowane - jako totalnie nieprawidłowe podejście do danych fotometrycznych :P

https://astropolis.pl/topic/26770-hat-p3b-pionierskie-rozdziewiczenie/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ten temat mnie też bardzo interesuje. Moim zdaniem odrzucanie klatek powinno być wyjątkiem - każda klatka to jakaś informacja. Odrzucać - nie odrzucać punkty odstające to zresztą temat ostrych sporów wśród fizyków. Myślę też, że zamiast odrzucania badź łączenia lepsze jest "ważenie" każdej ramki tak, by jej wpływ na ostateczny wynik był adekwatny do jej jakości. Trzeba tylko znaleźć kryterium ważenia tej jakości. Odrzucam wyłącznie te pomiary, które znacznie odbiegają od reszty (kryterium może być odległość od średniej wyrażona np. w wielokrotnosci odchylenia standardowego).

Oczywiście ręcznie nie przerobisz 30 tys. fotek z jednego tranzytu, czy obrotu planetoidy. Dlatego, tradycyjne szkoły wymyślały rozmaite urposzczenia, które dziś są często kulą u nogi. Komputery nie miały mocy ani pamięci by obsłużyć macierze o rozmiarach potrzebnych do odwzorowania krzywej jasności za pomocą szeregów Fouriera 100-rzędu dla tysięcy ramek, z których każda ma inną wagę :). Ale już mają. Tylko softu póki co brak...

 

@LibMar, pogadamy w Berlinie :).

 

Pzdr,

Tomek

 

 

Edytowane przez Gajowy
  • Lubię 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Adam_Jesion napisał:

A to nie jest podobna metoda, którą testowałem blisko 10 lat temu i generalnie nie została dobrze przyjęta (pre-stackowanie pakietów klatek)? Na priwie zostało to wręcz shejtowane - jako totalnie nieprawidłowe podejście do danych fotometrycznych :P

https://astropolis.pl/topic/26770-hat-p3b-pionierskie-rozdziewiczenie/

W tym wątku widzę tylko o stackowaniu. W ówczesnych czasach występowała inna metoda, która polegała na wykonywaniu tylko długich czasów ekspozycji (np. po 2 minuty). I to właśnie robi się dalej w obserwatoriach. Unikamy wtedy wprowadzenia dodatkowego szumu. CMOS z tym nie ma problemu.

 

Głupotą nazwałbym wysyłanie takiej obserwacji do ETD:

image.png

 

A duży rozrzut pomiarowy wynika z zastosowanych krótkich czasów ekspozycji. Przez 4s, gwiazda na skutek zaburzeń przez atmosferę nie zdąży się ustabilizować jasnościowo. Tu trzeba pakietować (jakoś nie lubię tego słowa) po 2 minuty. Fajnie też widać różnicę w dokładności przy 0.46. Wymagana była poprawka w ostrości i tak naprawdę skopałem. Kolejny raz widzę, że rozogniskowanie nie zawsze poprawia wynik, a ewentualne zastosowanie większej apertury, zwiększa dodatkowo rozrzut.

 

Standardy się zmieniają. Podejście do obróbki w CMOSach jest inne niż w CCD, choć nie miałem z nimi nigdy do czynienia. Po prostu tutoriale i przewidywania dokładności nie sprawdzają się. W przeszłości nigdy nie stosowano krótkich czasów, bo masz długi czas zapisu. Tak długi, że tracisz tyle cennego materiału, że długimi czasami wyjdzie Ci dokładniej. Dlatego robienie 120s zamiast 5x20s może być bardziej precyzyjne, jeśli po każdej klatce potrzebujesz 4s na zapis. Tutaj inaczej - albo wybieram 1x120s przy jakimś sporym defocusie (a po co?), albo 30x4s z możliwością selekcji. Nie podejmę się tego, mając 6x20s. Z kolei 30x4s, 60x2s czy 120x1s - jak najbardziej. A zestackowanie w każdym przypadku przyczyni się do uzyskania podobnej dokładności pomiarowej, pod warunkiem, że jest podobnie mocno doświetlona (tutaj operowałbym różnym gainem). Udowodniłem to sobie na podstawie HD 209458 b. Ale... dlaczego? Po prostu niski poziom szumów CMOS. Szum odczytu przy takich stackach nadal jest na bardzo niskim poziomie. Minus krótszych czasów - gorzej dla słabych gwiazd. Ale nie interesują mnie teraz słabe gwiazdy, ważne, że WASP-3 b jest dobrze naświetlona (do 50% histogramu).

 

Fajnym przykładem jest HD 6121 - zmienna typu Delta Scuti o amplitudzie 0.006 mag. Stacki i uśrednianie nie pokazały nic wyraźnego. Po usunięciu ok. 20% - niespodzianka! Widać falowanie zgodne z efemerydami (tam gdzie max/min, ono występuje). Szkoda, że nie mam na tyle dobrego materiału, aby to zrobić ponownie nowym sposobem. Po drodze muszę przejść do AIJ, a ten nie radzi sobie dobrze z rozjechanymi gwiazdami na skutek kolimacji. Dopiero później dowiedziałem się jak odpowiednio ustawić swój obiektyw, aby zostały punktowe. 

 

Stąd każda osoba pracująca z CCD przez wiele lat, zawsze będzie kierowała się metodą długich czasów, bo wydaje się niezmienne. Na AAVSO ludzie do dzisiaj kłócą się co jest lepsze. Zwykle jest tak, że osoba z CCD zostaje przy CCD, a ludzie z CMOSem zostają przy CMOSie. Dokładnie jak na forum co kilka tygodni. W rzeczywistości mają rację z CCD oraz CMOS. Kluczem jest tutaj zastosowanie, co nas interesuje. CCD jest "dla leniwych" ( :) ), natomiast z CMOSem trzeba posiedzieć trochę dłużej. W przypadku tranzytów, tanim sprzętem (do 10 tysięcy) masz większe pole do popisu CMOSem. Drogi CCD z wielką matrycą i większym teleskopem (np. CDK) sprawdzi się lepiej, bo ma nadal duże pole widzenia przy dużej średnicy. Przy takim samym budżecie, z niskimi kwotami lepiej sprawuje się CMOS, z większymi (100+ tysięcy) - CCD. Zupełnie tak samo jest w astrofotografii :) I co ważne - tranzytów. Bo jak interesuje nas szukanie gwiazd zmiennych, to lepiej rozważyć CCD.

  • Lubię 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, LibMar napisał:

W tym wątku widzę tylko o stackowaniu. W ówczesnych czasach występowała inna metoda, która polegała na wykonywaniu tylko długich czasów ekspozycji (np. po 2 minuty). I to właśnie robi się dalej w obserwatoriach. Unikamy wtedy wprowadzenia dodatkowego szumu. CMOS z tym nie ma problemu.

 

Głupotą nazwałbym wysyłanie takiej obserwacji do ETD:

image.png

 

A duży rozrzut pomiarowy wynika z zastosowanych krótkich czasów ekspozycji. Przez 4s, gwiazda na skutek zaburzeń przez atmosferę nie zdąży się ustabilizować jasnościowo. Tu trzeba pakietować (jakoś nie lubię tego słowa) po 2 minuty. Fajnie też widać różnicę w dokładności przy 0.46. Wymagana była poprawka w ostrości i tak naprawdę skopałem. Kolejny raz widzę, że rozogniskowanie nie zawsze poprawia wynik, a ewentualne zastosowanie większej apertury, zwiększa dodatkowo rozrzut.

 

Standardy się zmieniają. Podejście do obróbki w CMOSach jest inne niż w CCD, choć nie miałem z nimi nigdy do czynienia. Po prostu tutoriale i przewidywania dokładności nie sprawdzają się. W przeszłości nigdy nie stosowano krótkich czasów, bo masz długi czas zapisu. Tak długi, że tracisz tyle cennego materiału, że długimi czasami wyjdzie Ci dokładniej. Dlatego robienie 120s zamiast 5x20s może być bardziej precyzyjne, jeśli po każdej klatce potrzebujesz 4s na zapis. Tutaj inaczej - albo wybieram 1x120s przy jakimś sporym defocusie (a po co?), albo 30x4s z możliwością selekcji. Nie podejmę się tego, mając 6x20s. Z kolei 30x4s, 60x2s czy 120x1s - jak najbardziej. A zestackowanie w każdym przypadku przyczyni się do uzyskania podobnej dokładności pomiarowej, pod warunkiem, że jest podobnie mocno doświetlona (tutaj operowałbym różnym gainem). Udowodniłem to sobie na podstawie HD 209458 b. Ale... dlaczego? Po prostu niski poziom szumów CMOS. Szum odczytu przy takich stackach nadal jest na bardzo niskim poziomie. Minus krótszych czasów - gorzej dla słabych gwiazd. Ale nie interesują mnie teraz słabe gwiazdy, ważne, że WASP-3 b jest dobrze naświetlona (do 50% histogramu).

 

Fajnym przykładem jest HD 6121 - zmienna typu Delta Scuti o amplitudzie 0.006 mag. Stacki i uśrednianie nie pokazały nic wyraźnego. Po usunięciu ok. 20% - niespodzianka! Widać falowanie zgodne z efemerydami (tam gdzie max/min, ono występuje). Szkoda, że nie mam na tyle dobrego materiału, aby to zrobić ponownie nowym sposobem. Po drodze muszę przejść do AIJ, a ten nie radzi sobie dobrze z rozjechanymi gwiazdami na skutek kolimacji. Dopiero później dowiedziałem się jak odpowiednio ustawić swój obiektyw, aby zostały punktowe. 

 

Stąd każda osoba pracująca z CCD przez wiele lat, zawsze będzie kierowała się metodą długich czasów, bo wydaje się niezmienne. Na AAVSO ludzie do dzisiaj kłócą się co jest lepsze. Zwykle jest tak, że osoba z CCD zostaje przy CCD, a ludzie z CMOSem zostają przy CMOSie. Dokładnie jak na forum co kilka tygodni. W rzeczywistości mają rację z CCD oraz CMOS. Kluczem jest tutaj zastosowanie, co nas interesuje. CCD jest "dla leniwych" ( :) ), natomiast z CMOSem trzeba posiedzieć trochę dłużej. W przypadku tranzytów, tanim sprzętem (do 10 tysięcy) masz większe pole do popisu CMOSem. Drogi CCD z wielką matrycą i większym teleskopem (np. CDK) sprawdzi się lepiej, bo ma nadal duże pole widzenia przy dużej średnicy. Przy takim samym budżecie, z niskimi kwotami lepiej sprawuje się CMOS, z większymi (100+ tysięcy) - CCD. Zupełnie tak samo jest w astrofotografii :) I co ważne - tranzytów. Bo jak interesuje nas szukanie gwiazd zmiennych, to lepiej rozważyć CCD.

A czy muniwin ma "wejście" od strony command line (cmd)? Można napisać skrypt który go wywołuje z parametrami, czy robisz to jakoś "ręcznie" ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Behlur_Olderys napisał:

A czy muniwin ma "wejście" od strony command line (cmd)? Można napisać skrypt który go wywołuje z parametrami, czy robisz to jakoś "ręcznie" ?

W zasadzie to już jest niemal automat - po wrzuceniu klatek, zaznaczasz wszystkie etapy, które chcesz zrobić. Konwersja, klatki kalibracyjne, szukanie gwiazd, dopasowanie. I po jednym przycisku czekam 2-3 godziny. Zapisuję je w postaci 1-klatkowych stacków, bo one są przesunięte. Tak, że gwiazdy znajdują się zawsze w tej samej pozycji X oraz Y. Po analizie w AIJ (selekcji), wracam do Muniwina i stackuję teraz do 120s (po 30 na jeden stack). Nie mogę od razu przejść do AIJ, bo ten ma problemy z dopasowywaniem gwiazd, więc na takich trzeba pracować.

 

Wszystkie skalibrowane stacki po 1 klatce chciałbym teraz zestackować, a one są już odpowiednio przesunięte. Po co miałbym na nowo wyszukiwać gwiazdy i na nowo dopasowywać, skoro mam dopasowane - chciałbym od razu kliknąć stack, ale nie da się. Nie mogę skopiować pierwszego projektu, bo w Muniwinie nadal pozostają wszystkie klatki (tylko potem pojawiają się errory "File not found"). I to jest właśnie ten proces, który trwa 2 godziny...

 

@Behlur_Olderys, podałbyś mi w jaki sposób mogę szybko usunąć wybrane pliki z folderu, mając listę ich nazw? W Excelu mogę wygenerować listę klatek do selekcji. Wyglądałaby coś w tym stylu:

 

delete C:/(…)/frame_0048.fts

delete C:/(…)/frame_0053.fts

delete C:/(…)/frame_0077.fts

delete C:/(…)/frame_0092.fts

delete C:/(…)/frame_0115.fts

 

To było coś, że zapisywało się linijki pliku .txt, ale w innym formacie (.cfg? .bat?). Po otwarciu tego pliku miało automatycznie zrobić to, co jest w kodzie wyżej - usunąć wybrane pliki. Kiedyś coś takiego miałem, ale nie mogę znaleźć - było w jakimś tutorialu o IRIS. Ręczne usuwanie kilkuset klatek spośród kilku tysięcy zajęło mi 30 minut. To znacznie szybciej niż googlowanie w poszukiwaniu tego sposobu (bez skutku), przez co straciłem dobre 15 minut.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
2 godziny temu, LibMar napisał:

Głupotą nazwałbym wysyłanie takiej obserwacji do ETD:

image.png

Challange accepted ;-). Masz dane źródłowe (ramki/fitsy/aviki) dla tego wykresu?

 

Pzdr,

Gajowy

Edytowane przez Gajowy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Gajowy napisał:

Challange accepted ;-). Masz dane źródłowe (ramki/fitsy/aviki) dla tego wykresu?

 

Pzdr,

Gajowy

No właśnie, to jest 30 GB materiału :) (3716 klatek). Stacki okazały się być dokładniejsze niż średnie, co jest przewagą - można je łatwo wysłać. W tym przypadku to zaledwie 124 pliki (30x mniej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, LibMar napisał:

No właśnie, to jest 30 GB materiału :) (3716 klatek). Stacki okazały się być dokładniejsze niż średnie, co jest przewagą - można je łatwo wysłać. W tym przypadku to zaledwie 124 pliki (30x mniej).

3700 ramek to nie jest dużo :). Myślę, że ważona regresja wielomianowa na całości danych dałaby Ci lepsze rezultaty niż stack, a przynajmniej warto to sprawdzić. Nie wiem, czego oczekuje ETD, ale moze wystarczy im podesłać dane wynikowe, a nie surowe?

 

Pzdr,

Gajowy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejne fajne porównanie. Ten materiał potraktowałem wieloma metodami uzyskując różne dokładności pomiarowe.

 

Zwykłe uśrednianie (wykres 2), co robiłem w 2017, okazało się najgorszą metodą pod względem dokładności - błąd standardowy w tym przypadku wynosi 3.2 mmag. Wszystkie klatki po normalnym zestackowaniu do tego samego czasu integracji jest lepsze - mamy 2.8 mmag (wykres 1). Trzeci i czwarty wykres to znowu uśrednianie pojedynczych pomiarów, ale z odrzutami. Najpierw 10%, potem 20%. No i te 20% wcale nie okazało się lepsze od dziesięciu :) A połączenie obu sposobów (wykres 5) dało 2.0 mmag - czyli stack + wywalenie 20%. Ciekawe ile wyszłoby po usunięciu tylko 10%. Dostałem wiadomość od autora Muniwina, że doda te "skróty fotometryczne", a więc będzie można to szybciej wykonywać i sprawdzać :)

 

Odpowiednie podejście do materiału tak jak w astrofotografii, daje lepsze rezultaty. Myślę, że jest szansa poprawić wynik do 1.5 mmag, co powinno być spokojnie osiągalne przez 8" teleskop (prawdopodobnie 1.0 mmag z ASI1600 oraz 8" na odpowiednim montażu).

 

image.png

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

pojedyncza klatka też jest pomiarem (czegoś) stackowanie też jest uśrednianiem (jakimś).

czy fakt, że "stackowanie" daje inne wyniki niż "uśrednianie" nie świadczy o tym, że stosujemy błędną metodę uśredniania lub stackowania?

na wejściu mamy zbiór danych i jakąś wiedzę o analizowanym procesie i o błędach pomiaru. przy takich założeniach jest tylko jeden poprawny wynikający z matematyki wynik typu "cośtam plus minus ileśtam odchylenia standardowego". inne wyniki nie są od niego lepsze lub gorsze dlatego że nam się mniej lub bardziej podobają. inne wyniki są po prostu błędne.

 

oczywiście to zastrzeżenie dotyczy sytuacji, w której korzystamy z pełnego zbioru danych. w przypadkach gdzie 10 lub 20% odrzucamy, jawnie przyjmujemy inne założenie co do danych więc wynik rzeczywiście ma wyjść inny.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, szuu napisał:

pojedyncza klatka też jest pomiarem (czegoś) stackowanie też jest uśrednianiem (jakimś).

czy fakt, że "stackowanie" daje inne wyniki niż "uśrednianie" nie świadczy o tym, że stosujemy błędną metodę uśredniania lub stackowania?

Nie. Różne estymatory dają różne wartości estymowanej wartości. Bez wiedzy (a'priori lub a'posteriori) na temat jakości próbki danych oraz spodziewanego efektu trudno powiedzieć, że średnia arytmetyczna jest lepsza od średniej ucinanej. W wypadku występowania obserwacji odstających (promienie kosmiczne, satelita, meteor w ramce itp.) średnia ucinana jest lepsza. Jeśli błędy są jednak wynikiem zdarzeń losowych, zgodnych z rozkładem normalnym, to najlepszym estymatorem jest średnia arytmetyczna.

 

Moim zdaniem najlepsze efekty powinny być osiągnięte poprzez:

a) odrzucenie ewidentnie zepsutych ramek (wspomniane metory, samoloty, zupełne zachmurzenie lub supernowe ;) ).

b) określenie dla każdej z pozostałych ramek wariancji jasności gwiazd porównania (o jasnosci zbliżonej do badanej)

c) wyznaczenie krzywej jasności metodą najmniejszych kwadratów przy zastosowaniu regresji ważonej

Ważona regresja lepiej poradzi sobie z ramkami słabej jakości niż odrzucanie %% najsłabszych obserwacji lub stakowanie - bo nie tracimy informacji, tylko traktujemy ją z należną wiarygodnością.

 

Pzdr,

Gajowy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Musi być faktycznie coś na rzeczy, jeśli zwykłe uśrednianie (które jest łatwe do ogarnięcia) wcale nie pomaga. Stacki mają to do siebie, że pomiary są adekwatne do sytuacji - ta sama głębokość, wyjście i wejście o takim samym kształcie, podobny trend. Raczej niekoniecznie szum. Może zmienność obrazu gwiazdy, skoro mam małą skalę (1.65"/px) i trzymam się jak najostrzejszego obrazu, jak tylko mogę? I to wpływa na duże zmiany S/N na każdej klatce? Jak trzymam się wartości histogramu średnio 45%, to ten skacze mi między 40% a 50%, niekiedy schodząc pojedynczo do 30-35% rozlewając się na sąsiednie. To może takie wprowadzają na starcie gruby błąd.

 

Bardzo fajnym porównaniem byłoby też wykonanie tego samego tranzytu (albo nawet płaskiej krzywej, łatwiejsze w analizie) korzystając z długich czasów ekspozycji, czyli 120s. Tylko, że mój montaż tyle nie uprowadzi :(

 

Dopóki nie pojawi się nowa wersja Muniwina, raczej nic nie zdziałam. Sprawdzenie innymi algorytmami (np. jakość gwiazd, największa wartość ADU piksela czy któraś wartość z kolei wewnątrz apertury) na razie za każdym razem wymaga po kilka godzin pracy komputera, więc trzeba poczekać, aż będzie zajmowało to mniej niż 30 minut. Może to będzie wydajniejsza i dokładniejsza metoda, która w innych przypadkach może różnie działać. Bo taki rozrzut może być dodatkowo wywoływany np. przez kiepskie prowadzenie, gdzie jakość gwiazd będzie dobrym wyznacznikiem (która być może ma większy wpływ na rozrzut niż sam seeing). Wpływ musi być nieznaczny, skoro przy każdej obserwacji wychodzi mi praktycznie to samo, co przewiduję (jest powtarzalność). Jak seeing jest dobry, to jest ciut lepiej. Jak gorszy, no to ciut gorzej… ale mój schemat pozostaje zawsze taki sam.

 

Obrazując myśl odrzutów, myślę bardziej w takim kierunku: mamy grupę 100 studentów na jednym roku, z których mają wyrosnąć dobrzy stomatolodzy (a co tam :)). Jedni uczą się lepiej, drudzy gorzej. Chcemy, aby w Polsce byli coraz lepsi stomatolodzy i dobrze o mówiono o ich wykonywanej pracy. Ale część stomatologów nie chodziła na zajęcia i ma pewne braki - skutkuje to częstymi skargami od strony pacjentów, że coś źle robią. No bo nie nauczyli się, nie wiedzą. Zaczyna pojawiać się opinia jakich mamy beznadziejnych młodych dentystów, więc umawiają się do tych starszych. Gdybyśmy wywalili ze studiów paru studentów, to byłoby spoko, bo nie ma tych, przez których najprawdopodobniej pojawiłaby się taka negatywna ocena. Opinia pozostaje dobra. Taka jest moja opinia pod kątem odrzucania pomiarów. Traktowanie każdego pomiaru do ostatecznego wyniku równoważnie jest czymś w stylu: każdy dentysta poprawia stan zdrowia w naszym społeczeństwie, jeden lepiej, drugi gorzej. Moglibyśmy nawet studentów po pierwszym roku zatrudniać, bo przecież coś już wnoszą i mogą sporo pomóc w środowisku! To moim zdaniem zły kierunek. A ideałem jest wypośrodkowanie ilu tych studentów (*mających studia gdzieś*) moglibyśmy wyrzucić. (sam oczywiście nie życzę nikomu powtarzania roku :D)

 

EDIT: @Gajowy, w Berlinie musimy faktycznie nad tym pogadać, wyjaśnisz mi też czym ta regresja ważona jest :D

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, LibMar napisał:

Obrazując myśl odrzutów, myślę bardziej w takim kierunku: mamy grupę 100 studentów na jednym roku, z których mają wyrosnąć dobrzy stomatolodzy (a co tam :)). Jedni uczą się lepiej, drudzy gorzej. Chcemy, aby w Polsce byli coraz lepsi stomatolodzy i dobrze o mówiono o ich wykonywanej pracy. Ale część stomatologów nie chodziła na zajęcia i ma pewne braki - skutkuje to częstymi skargami od strony pacjentów, że coś źle robią. No bo nie nauczyli się, nie wiedzą. Zaczyna pojawiać się opinia jakich mamy beznadziejnych młodych dentystów, więc umawiają się do tych starszych. Gdybyśmy wywalili ze studiów paru studentów, to byłoby spoko, bo nie ma tych, przez których najprawdopodobniej pojawiłaby się taka negatywna ocena. Opinia pozostaje dobra. Taka jest moja opinia pod kątem odrzucania pomiarów. Traktowanie każdego pomiaru do ostatecznego wyniku równoważnie jest czymś w stylu: każdy dentysta poprawia stan zdrowia w naszym społeczeństwie, jeden lepiej, drugi gorzej. Moglibyśmy nawet studentów po pierwszym roku zatrudniać, bo przecież coś już wnoszą i mogą sporo pomóc w środowisku! To moim zdaniem zły kierunek. A ideałem jest wypośrodkowanie ilu tych studentów (*mających studia gdzieś*) moglibyśmy wyrzucić. (sam oczywiście nie życzę nikomu powtarzania roku :D)

LibMar - odrzucać sie powinno tylko tych, co odstają. Założenie, że odrzucimy 10 lub 20% niezależnie od obiektywnych kryteriów jest błędem. Bo może się okazać, że odrzucamy tych co zaspali na egzamin, bo mieli mega tranzyt w nocy i dlatego mają w tym semestrze tylko 4.8, a zostawiamy kujownów ;).

 

Pzdr,

Gajowy

 

  • Lubię 1
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Gajowy napisał:

LibMar - odrzucać sie powinno tylko tych, co odstają. Założenie, że odrzucimy 10 lub 20% niezależnie od obiektywnych kryteriów jest błędem. Bo może się okazać, że odrzucamy tych co zaspali na egzamin, bo mieli mega tranzyt w nocy i dlatego mają w tym semestrze tylko 4.8, a zostawiamy kujownów ;).

 

Pzdr,

Gajowy

 

I takie odstające faktycznie pojawiają się na krzywej :) Właśnie one usuwają się już po selekcji pięcioprocentowej.

 

image.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, LibMar napisał:

I takie odstające faktycznie pojawiają się na krzywej :) Właśnie one usuwają się już po selekcji pięcioprocentowej.

 

image.png

Pytanie, czy są na pewno odstające. Zgodnie z rozkładem normalnym co 25 pomiar ma prawo być dalej niż 2 odchylenia standardowe od średniej.

 

Pzdr,

Gajowy

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja bym zrobił tak: 

Liczysz FWHM gwiazd na klatce i odrzucasz te klatki, na których seeing jest najgorszy (obojetnie, czy procentowo czy dla jakiegoś progu, bo obydwa kryteria są arbitralne) 

Możesz sobie na to pozwolić, bo idealny obraz gwiazdy jest znany, a Twój eksperyment nie ma wyznaczyć kształtu funkcji Airego :)

czyli bazujesz na zmiennej losowej nieskorelowanej z tranzytem jako takim.

Edited: widzę, że nie tylko ja jestem tego zdania, czyli super :)

Edytowane przez Behlur_Olderys

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem (i tego się trzymam zbierając własny materiał), decyzja o braniu lub nie pod uwagę danej klatki nie powinna zależeć od rezultatu (wyniku) pomiaru, a od prostego czynnika ogólnego typu FWHM, albo jak bardzo  "kuliste" (nie pamiętam poprawnego terminu) są gwiazdy referencyjne, czy mamy wszystko ok z czasem akwizycji itd.,itp. jeśli ma być automatyczna. Odrzucając to co wygląda na złe "bo odstaje wynikiem od reszty" z automatu, jest po pierwsze mało koszerne (chcemy zarejestrować co się dzieje, a nie dostosować wynik do oczekiwań), a po drugie, to "złe" może mieć wiele przyczyn, niekoniecznie wywołanych problemem X lub Y przy akwizycji materiału. Może wszystko jest ok z materiałem, a obserwowany obiekt faktycznie zrobił "fikołka". Interpretacja wyniku powinna nastąpić po zebraniu danych, a nie selektywnym automatem w trakcie, modyfikując dane wejściowe. Jeśli nie będziemy się trzymać takiej zasady, wpadniemy w pułapkę interpretacji czegoś co już raz zostało poprzez inną interpretację zmodyfikowane niepoprawnie (zamiast np. wyczyścić szum który przeszkadza w analizie, wyczyści nam realne dane). 

 

Oczywiście jest możliwe "czyszczenie" danych na bardziej abstrakcyjnym poziomie po processingu. Niemniej tego typu działania powinny zawsze być podparte analizą każdego konkretnego przypadku, a nie z algorytmu-automatu. Jesli automat (stackujący, redukujący, itp.) to tylko prosty i na ogolnych zasadach. Jeśli interpretacja selektywna, to z włączoną głową post-faktum. W arcie poniżej są opisane m. in. przypadki które raczej słabo dadzą się wyczyścić automatem. 

 

http://www.astroamator.com/index.php/archiwum/poradniki/60-amatorska-fotometria-ccd-w-praktyce-egzoplanety-metoda-tranzytowa

 

Pozdrawiam. 

  • Lubię 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Hans napisał:

Moim zdaniem (i tego się trzymam zbierając własny materiał), decyzja o braniu lub nie pod uwagę danej klatki nie powinna zależeć od rezultatu (wyniku) pomiaru, a od prostego czynnika ogólnego typu FWHM, albo jak bardzo  "kuliste" (nie pamiętam poprawnego terminu) są gwiazdy referencyjne, czy mamy wszystko ok z czasem akwizycji itd.,itp. jeśli ma być automatyczna.

Z tym, że sama zmiana FWHM nie jest największym problemem przy fotometrii różnicowej. Ja odrzucam wyłącznie ramki, dla których nie daje sie zmierzyć jasności co najmniej N gwiazd referencyjnych (N zalezy od zagwieżdzenia nieba, ale to liczba jednocyfrowa). Jesli się daje - nie odrzucam, a wyznaczam wagę takiej ramki w oparciu o zmierzoną zgodność jasności gwiazd referencyjnych ze średnią z tysięcy ramek. W ten sposób algorytm preferuje ramki, na których gwiazdy referencyjne "trzymają średnią" i ignoruje (acz niecałkowicie) te, na których zmierzone jasności się rozjeżdżają.

 

Pzdr,

Gajowy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Polecana zawartość

    • Mamy polską zmienną typu R Coronae Borealis (RCB)!
      W ten weekend, korzystając z danych ASAS-SN (All Sky Automated Survey for Supernovae), wykryłem nieznaną do tej pory zmienną typu R Coronae Borealis. To jedna z najrzadszych typów gwiazd zmiennych - do tej pory odnaleziono zaledwie ~150. Ich poszukiwanie nie należy do najprostszych, gdyż swoimi wskaźnikami barwy (B-V, J-K etc.) nie wyróżniają się zbytnio, dlatego szybciej jest przeszukać krzywe blasku.
        • Lubię
      • 12 odpowiedzi
    • Odkrycia 144 gwiazd zmiennych
      W tym temacie przedstawiam wyniki trwającego pół roku amatorskiego projektu, którego celem było wyszukiwanie nowych gwiazd zmiennych. Podsumowując, udało mi się znaleźć 144 gwiazdy zmienne, jedna z nich to współodkrycie z Gabrielem Murawskim - układ binarny o znacznej ekscentryczności. Postanowiłem więc zakończyć projekt, by móc zając się tematem spektroskopii średnich rozdzielczości.
        • Kocham
        • Dziękuję
        • Lubię
      • 9 odpowiedzi
    • Poszukiwanie nowych mgławic planetarnych
      Witam,
       
      Przed chwilą otrzymałem maila o nowym odkryciu kandydatki na mgławicę planetarną, która otrzymała oznaczenie Mur 1. Oprócz tego, znalazłem także interesujący region (H II lub YSO), który uzyskał oznaczenie Mur Object 1. O co chodzi i co to są za znaleziska? Już wszystko wyjaśniam
       
      Kilka tygodni temu skontaktowałem się z francuzem Trygve Prestgardem, którego często można spotkać wśród takich projektów, jak SOHO Comets czy VSX (bardzo rzadkie zmienne, np. typu R Coronae Borealis czy YSO). Obecnie skupia się na poszukiwaniu nowych mgławic planetarnych na zdjęciach z obserwatoriów, mając na koncie kilkadziesiąt takich obiektów. Postanowiłem spróbować i poświęciłem na to około 15-20 godzin. Efekt? Dwa nowe znaleziska, które dostały oznaczenia na podstawie mojego nazwiska: Mur 1 oraz Mur Object 1.
       

      Possible Planetary Nebula - Mur 1
       
      Okazuje się, że na niebie wciąż nieco przeoczono, a do nich należą np. mgławice planetarne. Na chwilę obecną są to jedynie kandydatki, określane na podstawie widoczności w różnych pasmach (DSS, PANSTARRS, DECaPS, AllWISE). Kolejnym celem będzie określenie spektrum, co ma zweryfikować charakter PN (planetary nebula) obiektu. Od strony egzoplanet, możemy porównać do sytuacji, kiedy odnaleźliśmy powtarzalne tranzyty obiektu mogącego być rozmiarami planetą, ale trzeba jeszcze sprawdzić jego masę metodą radialną.
       
      Trzeba wspomnieć, że rzadko są to wyjątkowe źródła - są słabe (>17 mag), małe kątowo i rzadko kiedy ukazują swoje piękne kolory. Bo te jaśniejsze już wykryto wcześniej
       
      Oraz pozycja Mur 1 w programie Stellarium. Jak widać, z Polski go nie zobaczymy, bowiem leży w konstelacji Kila. Jest bardzo słaby (19-20 mag), więc jego rejestracja wymaga nieco poświęcenia.

       
      Na początku przyszłego roku zostanie opublikowany artykuł z nowymi znaleziskami, wśród których pojawi się powyższy obiekt. Prowadzi go również Francuz (Pascal Le Du), więc można spodziewać się, że raczej nie będzie on po angielsku Również wtedy będziemy mogli wyszukać go m.in. w bazie Simbad/VizieR czy HASH (http://hashpn.space/). Na chwilę obecną jedynie przekazując tę informację dalej.
       
      A tak z kolei wygląda Mur Object 1 - nie jest to mgławica planetarna, choć przypomina wyglądem. Zdaje mi się, że jeszcze będzie dokładniej sprawdzone co to takiego jest. Leży w konstelacji Żagla (także niebo południowe).

      Jaka jest efektywność? Przez kilkanaście godzin odnalazłem 9 podejrzanych celów, z czego dwa okazały się trafione - jeden znany (ale nieopublikowany jeszcze w Simbad) oraz Mur 1. Oprócz tego, Mur Object 1. Pozostała szóstka to pięć słabych galaktyk oraz jedna gwiazda (która wydawała się nieco bardziej rozmyta niż reszta w kadrze, ale jednak to gwiazda).
       
      Bardzo fajny projekt, który postaram się rozwinąć nieco bardziej, u boku poszukiwania nowych egzoplanet
        • Kocham
        • Lubię
      • 7 odpowiedzi
    • Warsztaty Obróbki Astrofotografii - XIII zlot miłośników astronomii, Roztocze
      Paweł Radomski wraz z "Astrozloty.pl" oraz PTMA Lublin zaprasza na dwudniowe Warsztaty Obróbki Astrofotografii, które odbędą się na 13 zlocie miłośników astronomii - Roztocze, Kraina nad Tanwią w dniach 7-8 września 2018 roku.
        • Kocham
        • Dziękuję
        • Lubię
      • 61 odpowiedzi
    • Gwiazda, która zmieniła wszechświat
      Od lat twierdzę, że każde, nawet pozornie nieciekawe zdjęcie kosmosu, nosi w sobie jakąś ukrytą „tajemnicę”. M31 to pewnie najczęściej fotografowany przez amatorów obiekt na nocnym niebie. Tak wyeksploatowany i pocztówkowy, że nikt już w niego nie klika. Tym razem przebiegle nie nazwałem wpisu M31 – lubię, jak ktoś czyta, czy ogląda moje wypociny. Co więc ciekawego można znaleźć na kolejnej fotce M31?
        • Dziękuję
        • Lubię
      • 21 odpowiedzi
×

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.