Skocz do zawartości
LibMar

Live binning - rewolucja w amatorskiej rejestracji tranzytów egzoplanet?

Rekomendowane odpowiedzi

acha, czyli różnica jest taka, że tradycyjnie uśrednia się fotony z rozogniskowanego obrazu gwiazdy ale z jednej klatki, a tutaj uśrednia się te same fotony, z podobnego czasu ale podzielonego na bardzo wiele klatek.

skoro w tym nowym sposobie używając tańszej i "gorszej" kamery i zwiększając szum odczytu (wiele klatek), mimo wszystko uzyskuje się lepsze wyniki, czy to nie oznacza że te tradycyjne algorytmy opracowywania obrazów są po prostu do kitu? bo przecież tak samo dobre dane ciągle powinny "gdzieś tam" być w tych długich klatkach?

 

no i ważniejsze pytanie: dlaczego akurat 1/30 sekundy? może optimum jest jeszcze inne i czeka na swoje odkrycie? :)

 

  • Lubię 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Są też dobre - sprawdzone i powszechnie wykorzystywane. Ale tutaj widzę to tak, że większa ilość klatek poprawia SNR, a krótkie czasy dodatkowo wprowadzają niski poziom szumu. Idealnie byłoby dać jak najkrótsze czasy (lub obejmować większy przedział czasu), ale grozi to niedoświetleniem gwiazdy na klatkach. Minusem jest oczywiście wpływ seeingu, który redukuje się wydłużając czas ekspozycji. Stąd pojedyncze pomiary powinny obejmować przynajmniej te 15 sekund (najlepiej 30-120s). Na pewno można zastosować dłuższe czasy, gdyż w pracach autora można znaleźć też próby z księżycami Saturna do 14-15 mag. 1/30s dla kamery to wystarczająco dużo, aby naświetlić gwiazdę mającą 5-7 mag, dla słabszych damy większą aperturę lub właśnie dłuższe czasy. Albo gain, ale to już eksperymentalnie.

 

Ciekawy jest też koncept związany z krótszymi czasami - przy 1/30s, kamera ASI178 (wielkość piksela bodajże 2.4 mikrometra) potrzebowałaby ogniskowej dłuższej niż 2000mm, aby ujawnił się ruch na skutek ruchu obrotowego Ziemi. Duże Dobsony na GOTO (10-16 cali) mogą wówczas zdecydowanie zwiększyć zasięg użyteczny.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam,

 

Teraz czas na trochę praktyki. Zdobyłem trochę materiału korzystając z przesyłania w USB 2.0. Dlaczego nie 3.0? Wciąż nie rozwiązałem problemu przy wyborze kamery w SharpCapie. Korzystając z ASI178MM-c, EQ5 (na statywie, bo nie miałem zasilania do prowadzenia!) oraz Canona FD 300mm f/4.0, nagrałem 188 klatek Plejad o długości ekspozycji 200ms każda. Gain był ustawiony na 179/510, gamma 50/100, offset 0/600. Przy takich ustawieniach, odpowiedni poziom ADU osiągały gwiazdy o jasności 7.3 magnitudo. Do nagrywania HD 189733 b i HD 209458 b wystarczyłyby tylko 0.25 sekundy, co jest wynikiem (moim zdaniem) bardzo dobrym. Można go jeszcze poprawić korzystając z większej wartości gain. Dlaczego? Wzrasta wtedy SNR, co pokazują wykresy od ZWO (spadek read noise). Zwiększymy w ten sposób zasięg gwiazdowy, a jeśli przekroczymy jasność danej gwiazdy, to skrócić czas ekspozycji.

 

Przypomnę więc - po co nagrywać w krótkim czasie naświetlania? A po to, aby dokonać selekcji klatek do metody nr 2, jaką jest "lucky imaging". Dla testów przeprowadziłem fotometrię dla jednego obiektu korzystając z dwóch gwiazd referencyjnych. Niestety, USB 2.0 nie pozwoliło mi na przesłanie takiej ilości danych w krótkim czasie. 188 x 0.2s daje nam 37.6 sekundy, a nagrywanie trwało blisko dwie minuty. To dlatego, że kabelek nadążał przesyłać jedynie 35% zrobionych klatek (praca na 1.7 FPS). Ponieważ to da się jeszcze poprawić (albo nagrywać na dłuższych czasach, na przykład 600ms), możemy przyjąć, że integracja wynosi faktycznie 37.6 sekund.

 

Seeing był masakryczny, co pokazało w postaci dużego rozrzutu pomiarowego (aż +/- 0.2 magnitudo). Czy taki materiał ma sens na dalszą pracę? Jak najbardziej. Podczas fotografowania o długim czasie naświetlania (np. 30s), wpływ na pomiary byłby taki sam. I nie możemy wtedy przepuścić materiał "przez sitko", aby wykluczyć złe ekspozycje. Inaczej jest przy krótkich czasach, kiedy faktycznie da się uchwycić momenty chwilowego, słabego seeingu. I nie było trzeba zmieniać programu, gdyż jest to wciąż możliwe za pomocą prostego, sprawdzonego Muniwina!

 

Idea jest następująca - program mierzy jasność gwiazd usuwając średnią wartość tła (szum/LP). Gwiazda zmienna w ciągu jednej ekspozycji wysyła dane 110.000 ADU, natomiast gwiazda referencyjna - 100.000 ADU. V-C wynosi 0.1035 magnitudo. Czyli idealnie będzie, jeśli stosunek ADUv/ADUc = 1.1. Niestety, seeing robi swoje (wpływ szumu jest tak naprawdę znikomy) - raz będzie większy, raz obniżony. Wyróżnijmy następujące przypadki:

 

1) ADUv = 115.000 ADU, ADUr = 100.000 ADU

Gwiazda zmienna przez moment była nadzwyczaj jasna, czyli doszło do skupienia się fotonów. Od gwiazdy referencyjnej dotarła idealna ilość światła. V-C wynosi 0.1517 magnitudo (o 0.05 mag za jasna).

 

2) ADUv = 110.000 ADU, ADUr = 95.000 ADU

Gwiazda referencyjna osłabła, zmienna jest na odpowiednim poziomie. Zaobserwowaliśmy V-C równe 0.159 mag.

 

3) ADUv = 121.000 ADU, ADUr = 99.000 ADU

Stosunek jest taki sam, jak normalnie - widać rozrzut 0.1035 mag. Ale ilość światła docierającego do obserwatora, nie zgadza się.

 

Aby dokonać metody live binning (metoda nr 1), wystarczy skonwertować wyniki magnitudo na poziomy ADU. To znaczy, jeśli mamy dwie oceny 0.1 mag i 0.5 mag, to średnią nie będzie 0.3 mag. Należy wyliczyć logarytmicznie: 0.3122 mag. Wydaje się, że 0.0122 mag to niewiele. Jednak do tranzytów o głębokości tysięcznych i dziesięciotysięcznych części magnitudo, to może mieć kolosalne znaczenie. Wartości ADU wtedy się zsumuje i porówna względem siebie - ale to i tak na koniec wynik może być podzielony. Ale zanim do tego dojdziemy, robimy odrzut klatek metodą "lucky imaging". Założenia są takie:

- idealne pomiary wyjdą, jeśli gwiazda zmienna i gwiazda referencyjna mają jak najbliżej realny poziom ADU

- do pomiarów bierzemy tylko jedną gwiazdę referencyjną

- jeśli dany pomiar bardzo odstaje od pozostałych, to możliwe są dwa przypadki ("↑ADUv i ↓ADUr" lub "↓ADUv i ↑ADUr"), taki pomiar będzie wykluczony do dalszej pracy

- jeśli dany pomiar jest bardzo bliski średniej, może wynikać z sytuacji nr 3 wyżej ("↑ADUv i ↑ADUr" lub "↓ADUv i ↓ADUr"), taki pomiar może być wykluczony później do dalszej pracy, na podstawie pozostałych gwiazd referencyjnych, które odpowiedni poziom ADU już osiągnęły - będzie to sytuacja podobna do trzeciego założenia) - sposób redukcji takich klatek napisałem trochę niżej

- jeśli ADU gwiazdy zmiennej jest zbyt niskie lub zbyt wysokie, zauważymy większość pomiarów (z poszczególnych gwiazd referencyjnych) powyżej lub poniżej średniej (np. aż 8 z 10 poniżej lub powyżej średniej z sąsiednich ocen), taka klatka nie będzie brana pod uwagę

 

Najpierw dokonujemy średniej kroczącej wszystkich (nawet dla tych z dużym odrzutem) każdego pojedynczego pomiaru. Integracja 40-klatkowa jest wystarczająca, najlepiej byle nie przekraczała więcej niż 1 minutę (1.5s ekspozycji). Pomiary 0.2s i tak obejmują jedynie 8 sekund. W tym przypadku nie szkodzi, aby rozszerzyć nawet do 100 klatek. Następnie porównujemy o ile magnitudo różni się pojedynczy pomiar od średniej (kolejna kolumna w Excelu). Wyznaczamy medianę, która oddzieli połowę najgorszych ocen i połowę najlepszych. Te najlepsze - to klatki o potencjalnych wartościach ADU. Na podstawie innych gwiazd referencyjnych okaże się, czy faktycznie mają odpowiedni poziom ADU, bo atmosfera mogła skupić/rozproszyć fotony w takim samym stopniu (patrz założenia). Jeśli mediana wynosi na przykład 0.09 mag, to wszystkie pozostałe pomiary są odrzucane. Oczywiście my bazujemy na wartościach ADU, a nie mag! Piszę w ten sposób tylko dlatego, gdyż zdecydowanie łatwiej jest zrozumieć każdy krok. Wartości wybieramy na podstawie różnicy średniej 40 pomiarów, nie pojedynczych ocen! Dlaczego? Bo nie obserwujemy tutaj zjawisk krótkoczasowych, lecz takich, które dzieją się przez dłuuuugi czas (sam tranzyt trwa do kilku godzin). Średnia 40 pomiarów obejmuje 8 sekund. A skoro wcześniej robiliśmy klatki po 25s czy 60s, to czym jest te 8 sekund? To nie 8 minut. Na momenty wystąpienia czterech kontaktów, wpływ jest znikomy (niemożliwy do zarejestrowania).

 

Co dalej robimy? Powtarzamy to dla wielu gwiazd referencyjnych. Dla danej klatki mamy tyle pomiarów, ile użyliśmy gwiazd. Przykładowo, dla dwóch wygląda to następująco:

 

Live bining - dwa pomiary.png

 

Oceny zostały skalibrowane do 1.00 biorąc pod uwagę 150 sąsiednich pomiarów, przez które gwiazda zachowywała stałą jasność. Możemy to pobrać uśredniając mały fragment czasu przed tranzytem lub po jego zakończeniu (najczęściej przed, gdyż po zakończeniu mogą zmienić się warunki, a ustawiliśmy wszystko dla sytuacji początkowej). Załóżmy, że mamy jednak 10 ocen - w okolicy akurat natrafiło się dużo użytecznych gwiazd referencyjnych.

 

Możliwe sytuacje:

1) Jeśli gwiazda zmienna ma idealny poziom ADU, to średnia pomiarów będzie bliska rzeczywistemu poziomowi.

2) Jeśli gwiazda zmienna ma zbyt niski lub zbyt wysoki poziom ADU, większość pomiarów będzie rozrzucona powyżej lub poniżej średniej. W ten sposób można zaklasyfikować oceny false-positive.

3) Rzadko zdarza się sytuacja, kiedy przy idealnym poziomie ADU, akurat 7 lub więcej (z 10) ocen z poszczególnych gwiazd referencyjnych będzie po jednej stronie. Jest to zależne od liczby gwiazd referencyjnych i stanowi czysty przypadek. Ich zwiększenie umożliwi redukcję.

 

Musimy teraz dokonać selekcji (metoda dynamic reference stars, nr 3) - które oceny wybieramy? Nie możemy wybrać połowy wszystkich (np. też medianą) z danej klatki, gdyż 2 i 3 sytuacje będą wciąż obecne. Możemy to zredukować korzystając z klatek-sąsiadów. Dla przykładu, weźmy sąsiednie 8 klatek oraz obecną (łącznie 9). Przy 10 gwiazdach referencyjnych mamy 90 możliwych ocen. Przy redukcji 50% (np. medianą - najprościej), tylko połowa ocen może być uznawane za odpowiednie. Jeśli dana klatka była faktycznie kiepska, to w ten sposób otrzyma tylko 1, 2, 3, może 4 gwiazdy referencyjne - wpływ na ogólny wygląd krzywej jest mały. Dobra klatka będzie taka, jeśli będzie 5 lub więcej. Warto zwrócić, że integracja 9 klatek to tak naprawdę nic - w tym przypadku wynosi jedynie 1.8 sekundy. Można więc pomyśleć o większym rozszerzeniu. Na sam koniec, dana klatka otrzymuje finalną średnią pomiarową składającą się ze średniej gwiazd referencyjnych. Im więcej, tym lepiej. Ale to już zależy od oceny stanu chwilowego. Więcej nie możemy dać, bo tylko pogorszymy dokładność.

 

No i dobrze, dostaliśmy teraz pojedyncze pomiary o czasie 0.2 sekundy z dość dużą dokładnością. Ale nie możemy je dalej wykorzystać o takiej integracji - robimy live binning do odpowiedniej integracji. Sugerowany czas to 30 sekund. Należy zwrócić uwagę na to, że ani razu nie przekroczyliśmy integracji powyżej minuty. Momenty czterech kontaktów będą nie ulegną degradacji na krzywej jasności (ważne)!!! I tak otrzymaliśmy ogólne pomiary, które odpowiadają pojedynczym klatkom z obecnie robionych kamer CCD. Uff! Z różnicą taką, że dokonaliśmy kompletnej selekcji przeciw kiepskiemu seeingowi. CCD łapie wszystko. Później można robić to, czego chcemy. Albo lecimy ze średnią kroczącą... bez albo z kolejnym odrzutem najgorszych ocen. Tylko, że przyczyna rozrzutu raczej nie wynika z seeingu, lecz przypadku (przez te 30 sekund już naprawdę sporo zredukowaliśmy - w końcu to aż 150 ocen przy klatkach 0.2s).

 

Jaką da się uzyskać dokładność pomiarową? Na podstawie aktualnych wyliczeń w programie Excel mogę powiedzieć, że 24h roboty w ciągłym kopiowaniu i wklejaniu, może się opłacić. To jest jakby wersja alpha całego algorytmu, nad którym warto jeszcze posiedzieć. Jakieś poprawki pozwalające na zwiększenie dokładności mogą jak najbardziej być przydatne. Czyli warunki, wymagania, porównania itp.

 

Czy jest to rewolucyjna metoda? Tylko w amatorskiej rejestracji planet pozasłonecznych. Trzeba się wysilić, aby zarejestrować coś trudnego do zaobserwowania. Kolejne pytanie - skoro osiągamy tak mały zasięg gwiazdowy... czy warto? Tak, ponieważ pomijamy bardzo płytkie tranzyty dla jasnych gwiazd. Przykład? Diamentowa planeta 55 Cancri e w konstelacji Raka. Jasność 5.95 magnitudo, spadek jasności 0.0004 magnitudo. Osiągalne? Wyniki testów "live binning", "lucky imaging" oraz "dynamic reference stars" wskazują, że tak.

 

W czasie integracji 30 sekund, pojedyncze pomiary są następujące:

Canon EOS 60D: +/- 0.017 mag

ASI1600MM-c (Adam_Jesion): +/- 0.012 mag

Atik 314L+ (Hans): +/- 0.009 mag

Atik 383L+ (Grzędziel): +/- 0.007 mag

ASI178MM-c powyższą metodą: poniżej +/- 0.001 mag?

Oczywiście każdy powyższy rozrzut był określony w innych warunkach atmosferycznych (seeing).

Określano jest na podstawie 15-minutowego materiału z ocenami 30-sekundowymi (czyli rozrzut 30 kolejnych pomiarów).

Warto zwrócić uwagę na to, że najpłytsze rejestrowane tranzyty mają głębokość około 10x mniejszą niż podawany rozrzut. Dla +/- 0.001 mag wychodzi jedna dziesięciotysięczna części magnitudo.

 

Na sam koniec jeszcze powiem, że zakupiłem dysk zewnętrzny HDD do rejestrowania egzoplanet tą metodą - Seagate Backup Plus 3TB USB 3.0 :) Jak widać, trochę materiału będzie!

http://www.seagate.com/consumer/backup/backup-plus-desk/

 

629524_4_i500.jpg

 

Pozdrawiam!

  • Lubię 7

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam pytanie czysto teoretyczne: teraz, znając wszystkie niuanse, ile zajęłoby wykonanie tych samych pomiarów i wszystkich niezbędbych obliczeń (tak, jak to robisz), od ściągnięcia zdjeć z kamery do otrzymania wykresu zmian jasności? Sens tego pytania jest prosty: czy opłacałoby się napisać program do odwalenia części roboty, zamiast ctrl-c ctrl-v w excelu? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mniej więcej wygląda to następująco:

1) Powinniśmy wrzucać nie więcej niż 15GB danych jednocześnie, gdyż przy większych Muniwin może wykazywać problemy - nie testowałem go przy ponad 1000 pomiarach, dlatego nie mam pewności ile wytrzyma. 15GB to około 1000 ocen w maksymalnej rozdzielczości (w tym przypadku - 200 sekund materiału) - selekcja i wybór w programie potrwa minutę.

2) Konwersja Muniwina na odpowiedni format - około 15 minut pracy.

3) Fotometria gwiazd - około 15 minut pracy.

4) Dopasowanie klatek względem siebie - około 5 minut.

5) Zapisanie krzywej jasności dla jednej gwiazdy referencyjnej, zamiana kropki na przecinek oraz spacji na tabulację, skopiowanie do Excela - 3 minuty razy ilość gwiazd referencyjnych.

W sumie, na 15GB materiału z 9-cioma gwiazdami referencyjnymi potrzeba około godzinę. Z różnicą taką, że w czasie etapów 2 i 3 możemy chwilowo odpocząć, kiedy komputer mieli klatki.

 

Skoro w tym przypadku godzina obejmowała nieco ponad 3 minuty materiału, to godzina będzie wymagała aż dobę pracy komputera. Cztery godziny tranzytu to cztery doby :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hm... wygląda - niestety - na dość optymalny proces, tj. - mało można to usprawnić:) Ew. zmiana lokalizacji Excela na taką, gdzie kropka to przecinek :) Spacje na taby mogą być niepotrzebne jeśli w Excelu będziesz miał odpowiednią funkcję tekstową. Ale to mikrooptymalizacje. Ciekawe, czy Muniwin korzysta z wielowątkowości?

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hm... wygląda - niestety - na dość optymalny proces, tj. - mało można to usprawnić :) Ew. zmiana lokalizacji Excela na taką, gdzie kropka to przecinek :) Spacje na taby mogą być niepotrzebne jeśli w Excelu będziesz miał odpowiednią funkcję tekstową. Ale to mikrooptymalizacje. Ciekawe, czy Muniwin korzysta z wielowątkowości?

 

Zobaczę w ustawieniach Muniwina czy już jest możliwość wyboru własnego formatu przy zapisie pomiarów do pliku. A co do wielowątkowości, to bardzo dobry pomysł. Kiedyś używałem z programu umożliwiającego włączenie danego programu dwa razy. Ale nie wiem czy sprawdziłoby się w tym przypadku - na pewno pojawiłoby się pewne zwolnienie. Ciągłe przechodzenie z jednego programu na drugi spowoduje, że pewnie wyjdzie na jedno.

 

Jedyna rzecz możliwa do optymalizacji jest wykorzystanie tych przerw w trakcie konwertowania i etapu fotometrii. Najlepiej będzie, aby szybko zapisać te 9 plików, które łącznie zajmą nie więcej niż 5 minut. Następnie przechodzimy do dalszej części materiału - kiedy dojdziemy do dwóch 10-minutowych przerw, to będzie czas na przygotowanie pomiarów do Excela (wracamy do punktu 5). W ten sposób zaoszczędzimy 20 minut, a całkowita długość trwania analizy skróci się nawet o 30%.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie znam dokładnie Twojego problemu kropkowo przecinkowego, ale kiedyś sam badałem kwestię zamiany przecinka z klawiatury numerycznej na kropkę i były porady, że takie rzeczy spokojnie załatwia się w opcjach Windowsa, nawet jakieś efekty uzyskałem, może i Tobie uda się tą drogą zamienić je tam gdzie potrzebbujesz :)

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest w opcjach lokalizacji. Powinno się dać wybrać separator dziesiętny startując z Panelu Sterowania. Albo wybrać wszędzie US. Natomiast wielowątkowość to pytanie do programu Muniwin. Jeśli nie ma wbudowanego użycia wątków (tyle, ile fabryka dała) to na dowolnym wielordzeniowym kompie - notabene, są jeszcze inne?- będzie wolniejszy i to drastycznie.

Edited: właśnie sprawdziłem, że obsługa wielu core'ów jest na liście "todo" muniwina. To słabo, chyba że aktualizują tą listę rzadziej, niż kod:)

Edytowane przez Behlur_Olderys

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Edited: właśnie sprawdziłem, że obsługa wielu core'ów jest na liście "todo" muniwina. To słabo, chyba że aktualizują tą listę rzadziej, niż kod:)

 

Rzadko kiedy aktualizują stronkę, gdyż część zadań została już wykonana w ostatniej wersji (np. minor planet objects).

 

Nie jestem też informatykiem. Ale jeśli mogę odpalić Muniwina dwukrotnie bez dodatkowych programów, to rozumiem, że to również wykonali? :)

Muniwin__2.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jestem też informatykiem. Ale jeśli mogę odpalić Muniwina dwukrotnie bez dodatkowych programów, to rozumiem, że to również wykonali? :)

 

nie, to akurat wykonał microsoft :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dwa procesy (czyli 2x odpalenie jednego programu) to nie to samo, co dwa wątki. Tyle wiem na pewno :) Obsługa wielu rdzeni pozwoliłaby na szybsze (ok 4krotnie na 4 rdzeniach)przetwarzanie w ramach 1 procesu, na 1 bloku pamięci. Tymczasem 2 procesy na raz mogą zjeść na raz za dużo RAMu. Już nie mówiąc o 4 czy 6.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Minęło trochę czasu i nauczyłem się nieco więcej. Ta technika o której mówiłem to w zasadzie jest differential photometry. I działa doskonale, co pokazuję na poniższym przykładzie :) Oczywiście w nieco inny sposób, niż to kiedyś (wyżej) pisałem.

 

Gwiazdka ma około 10.425 magnitudo. Uśredniłem (żółte punkty) po piętnaście pojedynczych ekspozycji 20 sekund każda (niebieskie punkty). Pierwszy, trzeci, piąty i siódmy punkty to normalne pomiary. Dodałem jeszcze średnie pomiędzy nimi, aby pokazać stabilność uzyskiwanych pomiarów. Taką dokładność 5-minutowych ocen uzyskuję dla gwiazd mających 7-8 magnitudo, a nie 10.5! Jest power :)

 

PDS 110 [4] differential photometry.png

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem. Uśredniłeś 15kolejnych pomiarów i to są żółte kropki. Czym się różnią średnie od normalnych pomiarów? Jestem bardzo ciekaw i dopytuję, bo sam chcę to dobrze zrozumieć :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam 10 gwiazd referencyjnych i zamiast wykorzystywać wszystkie jednocześnie, wybieram tylko te najlepsze w danym momencie. Na przykład, mamy siedem dobrych, natomiast trzy zostały "uszkodzone" przez seeing. Te trzy wprowadzą największe niedokładności. Tą metodą pozbyłem się ich i wykorzystałem pozostałe 7. To jest sytuacja dla pierwszej klatki. Dla kolejnej może być inaczej, więc patrzę jaka sytuacja jest teraz. W ten sposób wykluczając, rozrzut zmalał mi z +/- 0.045 mag na +/- 0.015 mag :) I to są same niebieskie punkty. Z kolei, co do żółtych - możemy uśredniać tak jak zawsze lub wybierać tylko te klatki, w których liczba użytych gwiazd referencyjnych będzie największa. Jeśli w danej klatce wykorzystano zaledwie dwie gwiazdy referencyjne z dziesięciu, to coś z nią jest nie tak (prawdopodobnie zmienna zaburzona znacznie przez atmosferę) :)

  • Lubię 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Behlur_Olderys napisał:

To może mediana zamiast średniej? :)

Ten wykres jest tak wstępny, tutaj będzie sporo modyfikacji i poprawek :) Akurat średnia wypadła znacznie lepiej pod kątem dokładności. Zawsze sprawdzam jak wychodzi przy średniej i medianie, jednak tutaj różnica jest zauważalna (+/- 0.015 a +/- 0.020 mag). Żółte punkty przy medianie są rozrzucone jeszcze bardziej.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic osobistego, nic przeciw uśrednianiu, ale jakoś bardziej naturalne wydaje mi się robienie wysokiej jakości klatek 1 do 1. Ot oldskul taki ;)

 

Pozdrawiam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Hans napisał:

Nic osobistego, nic przeciw uśrednianiu, ale jakoś bardziej naturalne wydaje mi się robienie wysokiej jakości klatek 1 do 1. Ot oldskul taki ;)

 

Pozdrawiam.

Hans, nie zatrzymuj się w miejscu. Obecnie większość obserwatoriów poszukiwawczych sumuje dane, szczególnie jeśli obiekt jest bardzo jasny.

 

Cytuj

How does Kepler make its measurements?

In ordinary operation, Kepler looks at the same field over and over and over and over many times; the length of the mission is planned to be at least 3.5 years. The camera takes exposures in the following manner:

  • each individual exposure is about 6 seconds long
  • 9 exposures (about one minute total) are collected into a "short cadence group"
  • 270 exposures (about 30 minutes total) are collected into a "long cadence group"

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie zatrzymuje się. Schodzę coraz głębiej z pomiarem i precyzją. Idę po prostu nieco inną drogą. Drogą, gdzie pakietowanie można zapodać jako dodatkową formę prezentacji / analizy danych, ale siłą materiału jest jakość klatki.

 

Pozdrawiam.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Polecana zawartość

    • SN 2018hhn - "polska" supernowa w UGC 12222
      Dziś mam przyjemność poinformować, że jest już potwierdzenie - obserwacja spektroskopowa wykonana na 2-metrowym Liverpool Telescope (La Palma, Wyspy Kanaryjskie). Okazuje się, że mamy do czynienia z supernową typu Ia. Poniżej widmo SN 2018hhn z charakterystyczną, silną linią absorpcyjną SiII.
        • Dziękuję
        • Lubię
      • 11 odpowiedzi
    • Zbiórka: Obserwatorium do poszukiwania nowych planet pozasłonecznych
      W związku z sąsiednim wątkiem o zasadach przyjmowania stypendiów, po Waszej radzie zdecydowałem się założyć zbiórkę crowdfundingową na portalu zrzutka.pl. W tym wątku będę informował o wszelkich aktualizacjach, przychodzących także po zakończeniu.
        • Kocham
        • Dziękuję
        • Lubię
      • 84 odpowiedzi
    • Mamy polską zmienną typu R Coronae Borealis (RCB)! (albo z dyskiem protoplanetarnym?)
      W ten weekend, korzystając z danych ASAS-SN (All Sky Automated Survey for Supernovae), wykryłem nieznaną do tej pory zmienną typu R Coronae Borealis. To jedna z najrzadszych typów gwiazd zmiennych - do tej pory odnaleziono zaledwie ~150. Ich poszukiwanie nie należy do najprostszych, gdyż swoimi wskaźnikami barwy (B-V, J-K etc.) nie wyróżniają się zbytnio, dlatego szybciej jest przeszukać krzywe blasku.
        • Lubię
      • 16 odpowiedzi
    • Odkrycia 144 gwiazd zmiennych
      W tym temacie przedstawiam wyniki trwającego pół roku amatorskiego projektu, którego celem było wyszukiwanie nowych gwiazd zmiennych. Podsumowując, udało mi się znaleźć 144 gwiazdy zmienne, jedna z nich to współodkrycie z Gabrielem Murawskim - układ binarny o znacznej ekscentryczności. Postanowiłem więc zakończyć projekt, by móc zając się tematem spektroskopii średnich rozdzielczości.
        • Kocham
        • Dziękuję
        • Lubię
      • 9 odpowiedzi
    • Poszukiwanie nowych mgławic planetarnych
      Witam,
       
      Przed chwilą otrzymałem maila o nowym odkryciu kandydatki na mgławicę planetarną, która otrzymała oznaczenie Mur 1. Oprócz tego, znalazłem także interesujący region (H II lub YSO), który uzyskał oznaczenie Mur Object 1. O co chodzi i co to są za znaleziska? Już wszystko wyjaśniam
       
      Kilka tygodni temu skontaktowałem się z francuzem Trygve Prestgardem, którego często można spotkać wśród takich projektów, jak SOHO Comets czy VSX (bardzo rzadkie zmienne, np. typu R Coronae Borealis czy YSO). Obecnie skupia się na poszukiwaniu nowych mgławic planetarnych na zdjęciach z obserwatoriów, mając na koncie kilkadziesiąt takich obiektów. Postanowiłem spróbować i poświęciłem na to około 15-20 godzin. Efekt? Dwa nowe znaleziska, które dostały oznaczenia na podstawie mojego nazwiska: Mur 1 oraz Mur Object 1.
       

      Possible Planetary Nebula - Mur 1
       
      Okazuje się, że na niebie wciąż nieco przeoczono, a do nich należą np. mgławice planetarne. Na chwilę obecną są to jedynie kandydatki, określane na podstawie widoczności w różnych pasmach (DSS, PANSTARRS, DECaPS, AllWISE). Kolejnym celem będzie określenie spektrum, co ma zweryfikować charakter PN (planetary nebula) obiektu. Od strony egzoplanet, możemy porównać do sytuacji, kiedy odnaleźliśmy powtarzalne tranzyty obiektu mogącego być rozmiarami planetą, ale trzeba jeszcze sprawdzić jego masę metodą radialną.
       
      Trzeba wspomnieć, że rzadko są to wyjątkowe źródła - są słabe (>17 mag), małe kątowo i rzadko kiedy ukazują swoje piękne kolory. Bo te jaśniejsze już wykryto wcześniej
       
      Oraz pozycja Mur 1 w programie Stellarium. Jak widać, z Polski go nie zobaczymy, bowiem leży w konstelacji Kila. Jest bardzo słaby (19-20 mag), więc jego rejestracja wymaga nieco poświęcenia.

       
      Na początku przyszłego roku zostanie opublikowany artykuł z nowymi znaleziskami, wśród których pojawi się powyższy obiekt. Prowadzi go również Francuz (Pascal Le Du), więc można spodziewać się, że raczej nie będzie on po angielsku Również wtedy będziemy mogli wyszukać go m.in. w bazie Simbad/VizieR czy HASH (http://hashpn.space/). Na chwilę obecną jedynie przekazując tę informację dalej.
       
      A tak z kolei wygląda Mur Object 1 - nie jest to mgławica planetarna, choć przypomina wyglądem. Zdaje mi się, że jeszcze będzie dokładniej sprawdzone co to takiego jest. Leży w konstelacji Żagla (także niebo południowe).

      Jaka jest efektywność? Przez kilkanaście godzin odnalazłem 9 podejrzanych celów, z czego dwa okazały się trafione - jeden znany (ale nieopublikowany jeszcze w Simbad) oraz Mur 1. Oprócz tego, Mur Object 1. Pozostała szóstka to pięć słabych galaktyk oraz jedna gwiazda (która wydawała się nieco bardziej rozmyta niż reszta w kadrze, ale jednak to gwiazda).
       
      Bardzo fajny projekt, który postaram się rozwinąć nieco bardziej, u boku poszukiwania nowych egzoplanet
        • Kocham
        • Lubię
      • 7 odpowiedzi
×

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.