Jump to content
LibMar

Live binning - rewolucja w amatorskiej rejestracji tranzytów egzoplanet?

Recommended Posts

Czyli pojedyncze punkty pomiarowe zamieniamy na średnią z kilku (-set) innych, zwiększając w ten sposób snr? Skąd my to znamy:) Rozumiem, że nie można po prostu naświetlać gwiazdki 30s bo się najzwyczajniej przepali? Dobrze byłoby jeszcze ustalić jak dużo klatek uśrednianych wzmacnia nam jeszcze snr, a kiedy już tylko dodają szum - 900 to chyba za dużo? Trzeba by sporządzić wykres:)

Share this post


Link to post
Share on other sites

Binning to raczej jak z sumowaniem. Czyli jak gwiazdka ma ADU 100, to po binningu z 500 klatkami mamy już 50000. I można komputerowo zapisać do 32-bit, a z załamaniem liniowości nie też ma problemu. W jaki sposób odnosi się do szumu - nie mam pojęcia. Właśnie założyłem ten wątek, bo może ktoś wie nieco więcej na ten temat.

 

No nie sądzę, aby w 1/30s ekspozycja byłaby wystarczająco długa, aby osiągnąć maksymalną głębokość studni. Choć mogę być w błędzie - w Google nie znalazłem żadnego poradnika napisanego przez autora. A o tej metodzie usłyszałem wczoraj po raz pierwszy ;) Na razie można powiedzieć jedno - coś się da.

 

Warto wspomnieć o dwóch minusach tej metody ;)

1) Długi czas analizy/obróbki danych (kilkanaście godzin?)

2) Duża ilość potrzebnego miejsca na dysku (kilkaset gigabajtów?)

Ale jak na dokładność, to raczej warto się poświęcić :)

  • Like 1

Share this post


Link to post
Share on other sites

Ja bym jeszcze od każdej klatki odjął darka biasa i flata:) Wydaje mi się, że słowo bin jest użyte w takim samym kontekście, jak przy tworzeniu histogramu, bo to jest trochę histogram, tylko niejako po zbiorze rozciągniętym w wymiarze czasowym:)

  • Like 1

Share this post


Link to post
Share on other sites

DMK 21AU618.AS ma 0,3 Mpix, ASI 174 MM 2,3 Mpix, czyli ponad siedmiokrotnie więcej, dodatkowo 8 bit vs 14 bit, a to taż ma wpływ na wielkość pliku. Można policzyć ile miejsca zajmie taka jedna sesja. Myślę że to będzie kilka TB, które komp musie później przeżuć. Nie ma lekko :) .

  • Like 1

Share this post


Link to post
Share on other sites

A taka kamera nie ma możliwość ustawienia jakiegoś ROI?

Share this post


Link to post
Share on other sites

A taka kamera nie ma możliwość ustawienia jakiegoś ROI?

Oczywiście, że tak. Unikniemy też strony, która jest bardziej podatna na ampglow. Z drugiej strony, większe pole widzenia da nam więcej gwiazd referencyjnych, co może bardzo się przydać.

 

Napisałem do autora i dostałem odpowiedź. Za kilka dni szczegółowo wyjaśni o co chodzi, więc wtedy można podejść realnie do dalszej pracy :)

  • Like 1

Share this post


Link to post
Share on other sites

Zastaawiając się czysto teoretycznie, wydaje mi się że to nie może działać. Tzn sumując wiele klatek o słabym SNR w zasadzie nie polepszamy go. No bo jeśli przy wartościach np 100 ADU sygnału i 50 ADU szumu dodamy 10 takich zdjęć, to dostaniemy 1000 ADU sygnał + 500 ADU szum, a więc SNR się nie zmieni. Co innego, gdyby obraz gwiazdy był znacznie wyżej niż szum, a nie tuż nad nim. W "klasycznym" zdjęciu mamy o wiele mniejszy udział szumu odczytu, niż tutaj. Na moje rozumowanie sensowne by było robienie np kilkusekundowych exp i stackowanie tego seriami, ale nie krótkie 1/30. Ale skoro to działa, to najwyraźniej się mylę :)

 

Niefortunna jest tan nazwa binning. Bo binning w astrofoto rozumie się jako sumowanie wartości sąsiednich pikseli w kamerze, a nie sumowanie zdjęć.

  • Like 1

Share this post


Link to post
Share on other sites

przy czasach naświetlania 1/30 sekundy raczej trudno uzyskać szum na poziomie 50 ADU ... ale to właściwie bez znaczenia

plusem tej metody jest sumowanie ogromnej liczby klatek, a tym samym bardzo dobre uśrednienie szumu. Dzięki temu zsumowany szum powinien mieć niemal stałą wartość, którą można łatwo odjąć od sumarycznej jasności gwiazdy. Pytanie skąd wziąć tę sumę szumów? To proste: z sąsiednich pikseli

 

minusem metody jest za to skomplikowana obróbka. Przydałby się jakiś program, który robiłby to automatycznie bo nie wyobrażam sobie robienia tego "na piechotę"

 

pozdrawiam

  • Like 1

Share this post


Link to post
Share on other sites

50 to tylko przykład. Hmm, no może faktycznie szum odczytu, wielokrotnie dodany się "wyrówna", w zasadzie tak jak przy stackowaniu. Ale szum termiczny będzie się sumował tak samo, jakbyśmy robili jedną długą klatkę moim zdaniem. No bo dlaczego inaczej?

  • Like 1

Share this post


Link to post
Share on other sites

Mnie zastanawia taka rzecz. Skoro 900 klatek autor zbierał w 30 sekund to znaczy 1 klatka co 1/30 sekundy, Biorąc pod uwagę, że dane z kamery są zgrywane ze skończoną prędkością oznacza, że czas naświetlania musiał wynosić poniżej 1/30 sek. Jak bardzo czuła musi być ta kamera, żeby w tak krótkim czasie naświetlania zarejestrowała się ta gwiazda wyraźnie powyżej szumu. Dziwne jest też to, krzywa ewidentnie wykazuje charakter wyrównywania punktów metodą średniej kroczącej (każdy kto bawił się w fotometrię wie co mam na myśli) a z opisu metodologii obserwacji to nie wynika.

  • Like 1

Share this post


Link to post
Share on other sites

szum termiczny rzeczywiście będzie się sumował podobnie jak przy długich ekspozycjach ale przy sumarycznym czasie 30 sekund nie powinien być duży o ile użyjemy chłodzonej kamery

moim zdaniem pomysł ciekawy i warty aby mu się lepiej przyjrzeć

 

pozdrawiam

  • Like 1

Share this post


Link to post
Share on other sites

Zdecydowanie tak. Zachęcam posiadaczy kamerek do avikowania, żeby spróbowali. Ja swoim Atikiem 383 nie jestem w stanie zastosować tej metody.

Share this post


Link to post
Share on other sites

Mnie zastanawia taka rzecz. Skoro 900 klatek autor zbierał w 30 sekund to znaczy 1 klatka co 1/30 sekundy, Biorąc pod uwagę, że dane z kamery są zgrywane ze skończoną prędkością oznacza, że czas naświetlania musiał wynosić poniżej 1/30 sek.

Kamery planetarne bardzo szybko sczytują matrycę. Można z dobrym przybliżeniem przyjąć, że 30 klatek/s = 1/30 sekundy/klatkę, czyli zerowy czas sczytywania :)

Share this post


Link to post
Share on other sites

Kamery planetarne bardzo szybko sczytują matrycę. Można z dobrym przybliżeniem przyjąć, że 30 klatek/s = 1/30 sekundy/klatkę, czyli zerowy czas sczytywania :)

 

Nigdy nie miałem z tymi kamerami do czynienia. Jeśli się na tym znasz to powiedz, czy są na tyle czułe, że zarejestrują gwiazdkę 7,66 mag. na klatce 1/30 sek? Chętnie bym zrobił próby bo faktycznie to może być bardzo ciekawa metoda badań fotometrycznych. Niestety nie posiadam takiej kamery.

Share this post


Link to post
Share on other sites

Zarejestrują i to bez problemu. 8" na 1/30s ma zasięg około 11-12 magnitudo przy maksymalnym gainie. Tylko wiadomo, że tak wysoki nie dajemy. Nie robiłem jeszcze testów związanych z określaniem rozrzutu pomiarów w zależności od wartości gainu.

  • Like 1

Share this post


Link to post
Share on other sites

Odnalazłem stronę internetową obserwatora i teraz wiemy, że mykiem są funkcje w programie LiMovie (przeznaczony jest dla zakryciowców). Warto wspomnieć, że Scott zajmuje się obserwacją wzajemnych zakryć w układzie księżyców galileuszowych - mowa o atmosferach oraz Torus. Myślę, że większość jest opisana tutaj:

 

http://scottysmightymini.com/JEE/Tips.htm

 

 

Most data acquisitions to date were done with streaming video. In the USA the NTSC video rate is 30 frames per second, and overseas PAL is 25 frames per second. The target front moon, the probing back moon, and preferably one other moon used for reference photometry are kept in the field of view at all times. We photometrically reduce the video with a software tool commonly used in IOTA called LiMovie. A measurement aperture is placed over each moon and a background aperture is configured as well so that a photometric intensity of each object is corrected for the underlying background noise. By carefully configuring the shape and position of the measurement apertures one can minimize noise from the signal. By placing the background aperture on either side of the object being measured at an angle tangent to Jupiter one can completely cancel out Jupiter’s glare effects on the background.

LiMovie tracks each object for every frame in the video and gives you a CSV file of a number of parameters including photometric intensities corrected for background. This column of ADU intensities represents one data point for each video frame, so there are 30 ADU measurements per second for NTSC video and 25 data points per second for PAL. Ten seconds of video data is then binned to a single data point in an effort to eliminate effects of earth atmospheric scintillation, camera noise, and other random noise. Since AVI intensities are scaled from 0 to 255 and we are binning 300 frames for NTSC our effective intensity resolution is 256 times 300, or 76,500 (2x1016 bits). This significantly reduces the noise inherent in video and enables us to commonly resolve photometrically to 0.015 magnitude.

 

I wygląda na to, że poziom ADU może być raczej dowolny. Scott jednak radzi, aby trzymać się 40-80% wartości maksimum. I faktycznie potwierdza, że takie tranzyty można łapać kamerką 8-bitową! Trzeba po prostu samodzielnie przejść przez program LiMovie i sprawdzić jakie są możliwości. Mam nadzieję, że w mailem dostanę dodatkowe wskazówki i jakoś wstępnie to opracuję.

 

I jeszcze dość istotny link: http://scottysmightymini.com/JEE/HowToCalibrateVideo.htm

Warto zwrócić uwagę na poziom szumów - kamery ASI zdecydowanie wygrywają.

 

Myślę, że to jest wykonalne i przy pierwszej próbie uzyska się coś ciekawego. Problemem faktycznie może być tylko spora ilość danych. Tak jak zostało to wspomniane, dla niektórych egzoplanet można to liczyć niemal w terabajtach. Przy zmianie setupu rozważę też zakup dysku zewnętrznego, a na komputerze zawsze będę trzymał co najmniej 500GB wolnego miejsca.

  • Like 4

Share this post


Link to post
Share on other sites

na temat patrzę jak na ciekawą ale abstrakcyjną analizę danych, bo nigdy sie fotometrią nie zajmowałem, więc wybaczcie ewentualne bluźnierstwa...

 

jakim w ogóle cudem pomysł uśredniania może być nowy? przecież wszystko i zawsze sie uśrednia. pewnie można też zrobić taki wykres jasności z 10000 punktów (bardzo zaszumiony) i potem go uśrednić "w excelu", zamiast uśredniać klatki i też się wykres wygładzi.

wiadomo jednak że od dzielenia lub łączenia klatek informacji nie przybędzie o ile łączny czas się nie zmienia.

czy to oznacza że "tranzytowcy" normalnie operują tak bardzo daleko od optymalnych parametrów? dlaczego? bo studnia za mała? bo "nie chce się" obrabiać tak wielu klatek? z wątków deesowych wnoszę że "deesowcy" są zawsze ekonomiczni na maksa i nie ma tam zapasu na "cuda", każdy foton się przydaje.

 

Share this post


Link to post
Share on other sites

jakim w ogóle cudem pomysł uśredniania może być nowy? przecież wszystko i zawsze sie uśrednia. pewnie można też zrobić taki wykres jasności z 10000 punktów (bardzo zaszumiony) i potem go uśrednić "w excelu", zamiast uśredniać klatki i też się wykres wygładzi.

W bazie ETD jest kilka tysięcy różnych obserwacji, a główną metodą jest stosowanie długich czasów ekspozycji przy znacznym rozogniskowaniu. Zwykle znajdziesz taką informację:

 

"120 sec exposure filter, binning 1x1, defocused -0.2 and multi comparison stars"

 

Często też stosują 60s. W takim przypadku jedna ekspozycja to jeden pomiar. Niewiele osób podejmuje się uśredniania wyników, bo ETD sam wyznaczy odpowiednią krzywą jasności. Ale nikt inny niż Sdott zastosował metody krótkich czasów. Zamiast uśredniając po 5 pomiarów po 60s i uzyskując rozrzut 5 mmag z początkowego 10 mmag, tym razem już łączne 30-sekundówki dały niezłego kopa. Szczerze mówiąc, to jedna z najdokładniejszych krzywych jasności na ETD, jakie widziałem. I co jest w tym niezwykłego? Nie trzeba mieć kamery wartej kilkadziesiąt tysięcy złotych. W przypadku głębokich tranzytów (jak HD 189733 B), nje mówimy już o samej detekcji. Kolejnym krokiem jest udoskanalanie krzywej, a jak widać - z niej można odczytać bardzo wiele. Długość trwania, amplituda, inklinacja orbity, moment zjawiska, stosunek promienia orbity i gwiazdy, okres obiegu (na to dwa tranzyty i więcej). Z taką dokładnością można zejść do poziomu wyznaczania odchyleń. Ma ono szczególnie istotne znaczenie, gdyž pozwala wykrywać inne nieznane do tej pory egzoplanety lub egzoksiężyce (zaburzające ruch grawitacyjnie) Znaczenie naukowe jest bardzo duże.

 

czy to oznacza że "tranzytowcy" normalnie operują tak bardzo daleko od optymalnych parametrów? dlaczego? bo studnia za mała? bo "nie chce się" obrabiać tak wielu klatek? z wątków deesowych wnoszę że "deesowcy" są zawsze ekonomiczni na maksa i nie ma tam zapasu na "cuda", każdy foton się przydaje.

Nikt nie stosuje, bo chyba nie sprawdzał jak działa i czy działa. Za każdym razem słyszę "rób klatki po 30-90s, nie przepal gwiazdy, lekko rozotniskuj. Robię tak i działa. A nikt mi nie proponował tej metody, sam znalazłem na ETD i zainteresowało mnie to. Szansa na dokładniejszą fotometrię (z wysoką precyzję) za śmieszne pieniądze. Bo nie stać mnie na SBIGi, drogie Atiki itd. Na ASI178 starczy tylko dlatego, że 2/3 kwoty uzyskam ze sprzedaży lustrzanki i obecnej kamery planetarnej. Wracając, oczywiście tracimy sporo na zasięgu (8" prawdopodobnie do 10-11 mag przy 5-10 FPS zamiast typowego 14-15 mag na 60s), ale jasne obiekty również warto mierzyć. W tym momencie mamy 5 znanych egzoplanet o spadku jasności większym niż 0.015 mag dla gwiazd jaśniejszych niż 10 mag. Jeśli obejmiemy dodatkowo te o spadku większym niż 0.002 mag, robi się już 20. Być może wciąż pozwoli na 0.004 mag, jak zastosujemy klatki o dłuższym czasie (np. 3 FPS) dla gwiazd do 11 mag - wtedy zamiast 15 ( > 15 mmag) mamy już 100.

 

Czyli w skrócie - nikt nie robi AVIków i zawsze przeprowadza fotometrię w FITS. Pewien zakryciowiec spróbował na księżycach Jowisza i zobaczył, że nieźle mu to wychodzi. Spróbował na jaśniejszej gwieździe z egzoplanetą i wyszło znakomicie.

 

PS: Sorki za błędy, pisałem przez telefon :)

  • Like 4

Share this post


Link to post
Share on other sites

LibMar, jeśli to faktycznie działa, to na tej serii krótkich klatek powinieneś uzyskać zasięg tak dobry lub lepszy, jak na tej jednej dotychczasowej ekspozycji. Nawet jak gwiazdy na 1 klatce nie widac, to na wielu bedzie wyrazna. O ile bedzie jakis punkt zaczepienia do alignacji tych klatek :)

  • Like 1

Share this post


Link to post
Share on other sites

acha, czyli różnica jest taka, że tradycyjnie uśrednia się fotony z rozogniskowanego obrazu gwiazdy ale z jednej klatki, a tutaj uśrednia się te same fotony, z podobnego czasu ale podzielonego na bardzo wiele klatek.

skoro w tym nowym sposobie używając tańszej i "gorszej" kamery i zwiększając szum odczytu (wiele klatek), mimo wszystko uzyskuje się lepsze wyniki, czy to nie oznacza że te tradycyjne algorytmy opracowywania obrazów są po prostu do kitu? bo przecież tak samo dobre dane ciągle powinny "gdzieś tam" być w tych długich klatkach?

 

no i ważniejsze pytanie: dlaczego akurat 1/30 sekundy? może optimum jest jeszcze inne i czeka na swoje odkrycie? :)

 

  • Like 2

Share this post


Link to post
Share on other sites

Są też dobre - sprawdzone i powszechnie wykorzystywane. Ale tutaj widzę to tak, że większa ilość klatek poprawia SNR, a krótkie czasy dodatkowo wprowadzają niski poziom szumu. Idealnie byłoby dać jak najkrótsze czasy (lub obejmować większy przedział czasu), ale grozi to niedoświetleniem gwiazdy na klatkach. Minusem jest oczywiście wpływ seeingu, który redukuje się wydłużając czas ekspozycji. Stąd pojedyncze pomiary powinny obejmować przynajmniej te 15 sekund (najlepiej 30-120s). Na pewno można zastosować dłuższe czasy, gdyż w pracach autora można znaleźć też próby z księżycami Saturna do 14-15 mag. 1/30s dla kamery to wystarczająco dużo, aby naświetlić gwiazdę mającą 5-7 mag, dla słabszych damy większą aperturę lub właśnie dłuższe czasy. Albo gain, ale to już eksperymentalnie.

 

Ciekawy jest też koncept związany z krótszymi czasami - przy 1/30s, kamera ASI178 (wielkość piksela bodajże 2.4 mikrometra) potrzebowałaby ogniskowej dłuższej niż 2000mm, aby ujawnił się ruch na skutek ruchu obrotowego Ziemi. Duże Dobsony na GOTO (10-16 cali) mogą wówczas zdecydowanie zwiększyć zasięg użyteczny.

  • Like 1

Share this post


Link to post
Share on other sites

Witam,

 

Teraz czas na trochę praktyki. Zdobyłem trochę materiału korzystając z przesyłania w USB 2.0. Dlaczego nie 3.0? Wciąż nie rozwiązałem problemu przy wyborze kamery w SharpCapie. Korzystając z ASI178MM-c, EQ5 (na statywie, bo nie miałem zasilania do prowadzenia!) oraz Canona FD 300mm f/4.0, nagrałem 188 klatek Plejad o długości ekspozycji 200ms każda. Gain był ustawiony na 179/510, gamma 50/100, offset 0/600. Przy takich ustawieniach, odpowiedni poziom ADU osiągały gwiazdy o jasności 7.3 magnitudo. Do nagrywania HD 189733 b i HD 209458 b wystarczyłyby tylko 0.25 sekundy, co jest wynikiem (moim zdaniem) bardzo dobrym. Można go jeszcze poprawić korzystając z większej wartości gain. Dlaczego? Wzrasta wtedy SNR, co pokazują wykresy od ZWO (spadek read noise). Zwiększymy w ten sposób zasięg gwiazdowy, a jeśli przekroczymy jasność danej gwiazdy, to skrócić czas ekspozycji.

 

Przypomnę więc - po co nagrywać w krótkim czasie naświetlania? A po to, aby dokonać selekcji klatek do metody nr 2, jaką jest "lucky imaging". Dla testów przeprowadziłem fotometrię dla jednego obiektu korzystając z dwóch gwiazd referencyjnych. Niestety, USB 2.0 nie pozwoliło mi na przesłanie takiej ilości danych w krótkim czasie. 188 x 0.2s daje nam 37.6 sekundy, a nagrywanie trwało blisko dwie minuty. To dlatego, że kabelek nadążał przesyłać jedynie 35% zrobionych klatek (praca na 1.7 FPS). Ponieważ to da się jeszcze poprawić (albo nagrywać na dłuższych czasach, na przykład 600ms), możemy przyjąć, że integracja wynosi faktycznie 37.6 sekund.

 

Seeing był masakryczny, co pokazało w postaci dużego rozrzutu pomiarowego (aż +/- 0.2 magnitudo). Czy taki materiał ma sens na dalszą pracę? Jak najbardziej. Podczas fotografowania o długim czasie naświetlania (np. 30s), wpływ na pomiary byłby taki sam. I nie możemy wtedy przepuścić materiał "przez sitko", aby wykluczyć złe ekspozycje. Inaczej jest przy krótkich czasach, kiedy faktycznie da się uchwycić momenty chwilowego, słabego seeingu. I nie było trzeba zmieniać programu, gdyż jest to wciąż możliwe za pomocą prostego, sprawdzonego Muniwina!

 

Idea jest następująca - program mierzy jasność gwiazd usuwając średnią wartość tła (szum/LP). Gwiazda zmienna w ciągu jednej ekspozycji wysyła dane 110.000 ADU, natomiast gwiazda referencyjna - 100.000 ADU. V-C wynosi 0.1035 magnitudo. Czyli idealnie będzie, jeśli stosunek ADUv/ADUc = 1.1. Niestety, seeing robi swoje (wpływ szumu jest tak naprawdę znikomy) - raz będzie większy, raz obniżony. Wyróżnijmy następujące przypadki:

 

1) ADUv = 115.000 ADU, ADUr = 100.000 ADU

Gwiazda zmienna przez moment była nadzwyczaj jasna, czyli doszło do skupienia się fotonów. Od gwiazdy referencyjnej dotarła idealna ilość światła. V-C wynosi 0.1517 magnitudo (o 0.05 mag za jasna).

 

2) ADUv = 110.000 ADU, ADUr = 95.000 ADU

Gwiazda referencyjna osłabła, zmienna jest na odpowiednim poziomie. Zaobserwowaliśmy V-C równe 0.159 mag.

 

3) ADUv = 121.000 ADU, ADUr = 99.000 ADU

Stosunek jest taki sam, jak normalnie - widać rozrzut 0.1035 mag. Ale ilość światła docierającego do obserwatora, nie zgadza się.

 

Aby dokonać metody live binning (metoda nr 1), wystarczy skonwertować wyniki magnitudo na poziomy ADU. To znaczy, jeśli mamy dwie oceny 0.1 mag i 0.5 mag, to średnią nie będzie 0.3 mag. Należy wyliczyć logarytmicznie: 0.3122 mag. Wydaje się, że 0.0122 mag to niewiele. Jednak do tranzytów o głębokości tysięcznych i dziesięciotysięcznych części magnitudo, to może mieć kolosalne znaczenie. Wartości ADU wtedy się zsumuje i porówna względem siebie - ale to i tak na koniec wynik może być podzielony. Ale zanim do tego dojdziemy, robimy odrzut klatek metodą "lucky imaging". Założenia są takie:

- idealne pomiary wyjdą, jeśli gwiazda zmienna i gwiazda referencyjna mają jak najbliżej realny poziom ADU

- do pomiarów bierzemy tylko jedną gwiazdę referencyjną

- jeśli dany pomiar bardzo odstaje od pozostałych, to możliwe są dwa przypadki ("↑ADUv i ↓ADUr" lub "↓ADUv i ↑ADUr"), taki pomiar będzie wykluczony do dalszej pracy

- jeśli dany pomiar jest bardzo bliski średniej, może wynikać z sytuacji nr 3 wyżej ("↑ADUv i ↑ADUr" lub "↓ADUv i ↓ADUr"), taki pomiar może być wykluczony później do dalszej pracy, na podstawie pozostałych gwiazd referencyjnych, które odpowiedni poziom ADU już osiągnęły - będzie to sytuacja podobna do trzeciego założenia) - sposób redukcji takich klatek napisałem trochę niżej

- jeśli ADU gwiazdy zmiennej jest zbyt niskie lub zbyt wysokie, zauważymy większość pomiarów (z poszczególnych gwiazd referencyjnych) powyżej lub poniżej średniej (np. aż 8 z 10 poniżej lub powyżej średniej z sąsiednich ocen), taka klatka nie będzie brana pod uwagę

 

Najpierw dokonujemy średniej kroczącej wszystkich (nawet dla tych z dużym odrzutem) każdego pojedynczego pomiaru. Integracja 40-klatkowa jest wystarczająca, najlepiej byle nie przekraczała więcej niż 1 minutę (1.5s ekspozycji). Pomiary 0.2s i tak obejmują jedynie 8 sekund. W tym przypadku nie szkodzi, aby rozszerzyć nawet do 100 klatek. Następnie porównujemy o ile magnitudo różni się pojedynczy pomiar od średniej (kolejna kolumna w Excelu). Wyznaczamy medianę, która oddzieli połowę najgorszych ocen i połowę najlepszych. Te najlepsze - to klatki o potencjalnych wartościach ADU. Na podstawie innych gwiazd referencyjnych okaże się, czy faktycznie mają odpowiedni poziom ADU, bo atmosfera mogła skupić/rozproszyć fotony w takim samym stopniu (patrz założenia). Jeśli mediana wynosi na przykład 0.09 mag, to wszystkie pozostałe pomiary są odrzucane. Oczywiście my bazujemy na wartościach ADU, a nie mag! Piszę w ten sposób tylko dlatego, gdyż zdecydowanie łatwiej jest zrozumieć każdy krok. Wartości wybieramy na podstawie różnicy średniej 40 pomiarów, nie pojedynczych ocen! Dlaczego? Bo nie obserwujemy tutaj zjawisk krótkoczasowych, lecz takich, które dzieją się przez dłuuuugi czas (sam tranzyt trwa do kilku godzin). Średnia 40 pomiarów obejmuje 8 sekund. A skoro wcześniej robiliśmy klatki po 25s czy 60s, to czym jest te 8 sekund? To nie 8 minut. Na momenty wystąpienia czterech kontaktów, wpływ jest znikomy (niemożliwy do zarejestrowania).

 

Co dalej robimy? Powtarzamy to dla wielu gwiazd referencyjnych. Dla danej klatki mamy tyle pomiarów, ile użyliśmy gwiazd. Przykładowo, dla dwóch wygląda to następująco:

 

Live bining - dwa pomiary.png

 

Oceny zostały skalibrowane do 1.00 biorąc pod uwagę 150 sąsiednich pomiarów, przez które gwiazda zachowywała stałą jasność. Możemy to pobrać uśredniając mały fragment czasu przed tranzytem lub po jego zakończeniu (najczęściej przed, gdyż po zakończeniu mogą zmienić się warunki, a ustawiliśmy wszystko dla sytuacji początkowej). Załóżmy, że mamy jednak 10 ocen - w okolicy akurat natrafiło się dużo użytecznych gwiazd referencyjnych.

 

Możliwe sytuacje:

1) Jeśli gwiazda zmienna ma idealny poziom ADU, to średnia pomiarów będzie bliska rzeczywistemu poziomowi.

2) Jeśli gwiazda zmienna ma zbyt niski lub zbyt wysoki poziom ADU, większość pomiarów będzie rozrzucona powyżej lub poniżej średniej. W ten sposób można zaklasyfikować oceny false-positive.

3) Rzadko zdarza się sytuacja, kiedy przy idealnym poziomie ADU, akurat 7 lub więcej (z 10) ocen z poszczególnych gwiazd referencyjnych będzie po jednej stronie. Jest to zależne od liczby gwiazd referencyjnych i stanowi czysty przypadek. Ich zwiększenie umożliwi redukcję.

 

Musimy teraz dokonać selekcji (metoda dynamic reference stars, nr 3) - które oceny wybieramy? Nie możemy wybrać połowy wszystkich (np. też medianą) z danej klatki, gdyż 2 i 3 sytuacje będą wciąż obecne. Możemy to zredukować korzystając z klatek-sąsiadów. Dla przykładu, weźmy sąsiednie 8 klatek oraz obecną (łącznie 9). Przy 10 gwiazdach referencyjnych mamy 90 możliwych ocen. Przy redukcji 50% (np. medianą - najprościej), tylko połowa ocen może być uznawane za odpowiednie. Jeśli dana klatka była faktycznie kiepska, to w ten sposób otrzyma tylko 1, 2, 3, może 4 gwiazdy referencyjne - wpływ na ogólny wygląd krzywej jest mały. Dobra klatka będzie taka, jeśli będzie 5 lub więcej. Warto zwrócić, że integracja 9 klatek to tak naprawdę nic - w tym przypadku wynosi jedynie 1.8 sekundy. Można więc pomyśleć o większym rozszerzeniu. Na sam koniec, dana klatka otrzymuje finalną średnią pomiarową składającą się ze średniej gwiazd referencyjnych. Im więcej, tym lepiej. Ale to już zależy od oceny stanu chwilowego. Więcej nie możemy dać, bo tylko pogorszymy dokładność.

 

No i dobrze, dostaliśmy teraz pojedyncze pomiary o czasie 0.2 sekundy z dość dużą dokładnością. Ale nie możemy je dalej wykorzystać o takiej integracji - robimy live binning do odpowiedniej integracji. Sugerowany czas to 30 sekund. Należy zwrócić uwagę na to, że ani razu nie przekroczyliśmy integracji powyżej minuty. Momenty czterech kontaktów będą nie ulegną degradacji na krzywej jasności (ważne)!!! I tak otrzymaliśmy ogólne pomiary, które odpowiadają pojedynczym klatkom z obecnie robionych kamer CCD. Uff! Z różnicą taką, że dokonaliśmy kompletnej selekcji przeciw kiepskiemu seeingowi. CCD łapie wszystko. Później można robić to, czego chcemy. Albo lecimy ze średnią kroczącą... bez albo z kolejnym odrzutem najgorszych ocen. Tylko, że przyczyna rozrzutu raczej nie wynika z seeingu, lecz przypadku (przez te 30 sekund już naprawdę sporo zredukowaliśmy - w końcu to aż 150 ocen przy klatkach 0.2s).

 

Jaką da się uzyskać dokładność pomiarową? Na podstawie aktualnych wyliczeń w programie Excel mogę powiedzieć, że 24h roboty w ciągłym kopiowaniu i wklejaniu, może się opłacić. To jest jakby wersja alpha całego algorytmu, nad którym warto jeszcze posiedzieć. Jakieś poprawki pozwalające na zwiększenie dokładności mogą jak najbardziej być przydatne. Czyli warunki, wymagania, porównania itp.

 

Czy jest to rewolucyjna metoda? Tylko w amatorskiej rejestracji planet pozasłonecznych. Trzeba się wysilić, aby zarejestrować coś trudnego do zaobserwowania. Kolejne pytanie - skoro osiągamy tak mały zasięg gwiazdowy... czy warto? Tak, ponieważ pomijamy bardzo płytkie tranzyty dla jasnych gwiazd. Przykład? Diamentowa planeta 55 Cancri e w konstelacji Raka. Jasność 5.95 magnitudo, spadek jasności 0.0004 magnitudo. Osiągalne? Wyniki testów "live binning", "lucky imaging" oraz "dynamic reference stars" wskazują, że tak.

 

W czasie integracji 30 sekund, pojedyncze pomiary są następujące:

Canon EOS 60D: +/- 0.017 mag

ASI1600MM-c (Adam_Jesion): +/- 0.012 mag

Atik 314L+ (Hans): +/- 0.009 mag

Atik 383L+ (Grzędziel): +/- 0.007 mag

ASI178MM-c powyższą metodą: poniżej +/- 0.001 mag?

Oczywiście każdy powyższy rozrzut był określony w innych warunkach atmosferycznych (seeing).

Określano jest na podstawie 15-minutowego materiału z ocenami 30-sekundowymi (czyli rozrzut 30 kolejnych pomiarów).

Warto zwrócić uwagę na to, że najpłytsze rejestrowane tranzyty mają głębokość około 10x mniejszą niż podawany rozrzut. Dla +/- 0.001 mag wychodzi jedna dziesięciotysięczna części magnitudo.

 

Na sam koniec jeszcze powiem, że zakupiłem dysk zewnętrzny HDD do rejestrowania egzoplanet tą metodą - Seagate Backup Plus 3TB USB 3.0 :) Jak widać, trochę materiału będzie!

http://www.seagate.com/consumer/backup/backup-plus-desk/

 

629524_4_i500.jpg

 

Pozdrawiam!

  • Like 7

Share this post


Link to post
Share on other sites

Mam pytanie czysto teoretyczne: teraz, znając wszystkie niuanse, ile zajęłoby wykonanie tych samych pomiarów i wszystkich niezbędbych obliczeń (tak, jak to robisz), od ściągnięcia zdjeć z kamery do otrzymania wykresu zmian jasności? Sens tego pytania jest prosty: czy opłacałoby się napisać program do odwalenia części roboty, zamiast ctrl-c ctrl-v w excelu? :)

Share this post


Link to post
Share on other sites

Mniej więcej wygląda to następująco:

1) Powinniśmy wrzucać nie więcej niż 15GB danych jednocześnie, gdyż przy większych Muniwin może wykazywać problemy - nie testowałem go przy ponad 1000 pomiarach, dlatego nie mam pewności ile wytrzyma. 15GB to około 1000 ocen w maksymalnej rozdzielczości (w tym przypadku - 200 sekund materiału) - selekcja i wybór w programie potrwa minutę.

2) Konwersja Muniwina na odpowiedni format - około 15 minut pracy.

3) Fotometria gwiazd - około 15 minut pracy.

4) Dopasowanie klatek względem siebie - około 5 minut.

5) Zapisanie krzywej jasności dla jednej gwiazdy referencyjnej, zamiana kropki na przecinek oraz spacji na tabulację, skopiowanie do Excela - 3 minuty razy ilość gwiazd referencyjnych.

W sumie, na 15GB materiału z 9-cioma gwiazdami referencyjnymi potrzeba około godzinę. Z różnicą taką, że w czasie etapów 2 i 3 możemy chwilowo odpocząć, kiedy komputer mieli klatki.

 

Skoro w tym przypadku godzina obejmowała nieco ponad 3 minuty materiału, to godzina będzie wymagała aż dobę pracy komputera. Cztery godziny tranzytu to cztery doby :(

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Recently Browsing   0 members

    No registered users viewing this page.

  • Our picks

    • Zdjęcie Czarnej Dziury - dzisiaj o 15:00
      Pamiętajcie, że dzisiaj o 15:00 poznamy obraz Czarnej Dziury. Niezależnie od tego, jak bardzo będzie ono spektakularne (lub wręcz przeciwnie - parę pikseli), trzeba pamiętać, że to ogromne, wręcz niewyobrażalne, osiągnięcie cywilizacji. Utrwalić coś tak odległego i małego kątowo, do tego wykorzystując mega sprytny sposób (interferometria radiowa), ...no po prostu niewyobrażalne. EHT to przecież wirtualny teleskop wielkości planety. Proste?
        • Love
        • Like
      • 144 replies
    • Amatorska spektroskopia supernowych - ważne obserwacje klasyfikacyjne
      Poszukiwania i obserwacje supernowych w innych galaktykach zajmuje wielu astronomów, w tym niemałą grupę amatorów (może nie w naszym kraju, ale mam nadzieję, że pomału będzie nas przybywać). Odkrycie to oczywiście pierwszy etap, ale nie mniej ważne są kolejne - obserwacje fotometryczne i spektroskopowe.
        • Like
      • 4 replies
    • Odszedł od nas Janusz Płeszka
      Wydaje się nierealne, ale z kilku źródeł informacja ta zdaje się być potwierdzona. Odszedł od nas człowiek, któremu polskiej astronomii amatorskiej możemy zawdzięczyć tak wiele... W naszym hobby każdy przynajmniej raz miał z nim styczność. Janusz Płeszka zmarł w wieku 52 lat.
        • Sad
      • 161 replies
    • Małe porównanie mgławic planetarnych
      Postanowiłem zrobić taki kolaż będący podsumowaniem moich tegorocznych zmagań z mgławicami planetarnymi a jednocześnie pokazujący różnice w wielkości kątowe tych obiektów.
      Wszystkie mgławice na tej składance prezentowałem i opisywałem w formie odrębnych tematów na forum więc nie będę się rozpisywał o każdym obiekcie z osobna - jak ktoś jest zainteresowany szczegółami bez problemu znajdzie fotkę danej mgławicy na forum.
        • Love
        • Thanks
        • Like
      • 29 replies
    • SN 2018hhn - "polska" supernowa w UGC 12222
      Dziś mam przyjemność poinformować, że jest już potwierdzenie - obserwacja spektroskopowa wykonana na 2-metrowym Liverpool Telescope (La Palma, Wyspy Kanaryjskie). Okazuje się, że mamy do czynienia z supernową typu Ia. Poniżej widmo SN 2018hhn z charakterystyczną, silną linią absorpcyjną SiII.
        • Thanks
        • Like
      • 11 replies
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.