Skocz do zawartości
wessel

Bez przepychu ... co robię źle?

Rekomendowane odpowiedzi

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

 

Jeśli do detektora dociera 10 fotonów, z czego 9 to tło (duże LP) a 1 to obiekt to przy gain 0.27e- (np. kamery atik) dostaniemy 1 elektron na wyjściu. Jak odróżnić sygnał obiektu od sygnału (szumiącego) tła? Zbliżając się do głębokości studni z łącznym sygnałem, przy założeniu że szum tła jest niższy niż udział sygnału obiektu w łącznym złapanym sygnale.

 

Co to oznacza? Wydobycie słabych obiektów w warunkach wysokiego LP byłoby trywialne przy bardzo wysokiej rozdzielczości bitowej kamer np. 1024 bit zamiast 16 bit... i to tylko teoretycznie bo jeśli weźmiemy pod uwagę szum odczytu to wracamy do punktu wyjścia - sygnał użyteczny musiałby być odróżnialny od szumu odczytu + szumu tła.

 

A w wielkim skrócie - czy można odróżnić obiekt biały sfotografowany na tle obiektu białego? Można, ale to zależy od rozdzielczości tonalnej detektora.

  • Lubię 1
  • Dziękuję 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To co piszecie jest dla mnie jasne. Może opiszę prosty przykład z wiaderkiem by było prościej i przejrzyściej :) Z naszego nieba do wiaderka padają krople wody z dwóch źródeł o rozkładzie gaussowskim: deszcz zacinający z boku i przeciekająca rynna której poziom zużycia chcemy wyznaczyć zliczając wagę wody która trafia do wiaderka w jednostce czasu. Zbieramy wodę przez jakiś czas, ważymy i zapisujemy wynik. Jest też drugie wiaderko do którego pada tylko deszcz, z nim postępujemy identycznie z tym że wagę tej wody zapisujemy na osobnej kartce.

Nie wiemy ile wody pochodzi z rynny, a ile z deszczu. Jeżeli pada słabo to różnica z poziomie wody będzie oczywista, w przeciwnym wypadku będziemy musieli zbierać wodę dużo dłużej by zauważyć że jedna kolumna liczb rośnie nieco szybciej. Wszystko to oczywiście jest możliwe tylko wtedy gdy waga wody pochodzącej z rynny jest na tyle duża by była rejestrowalna przez naszą wagę (ADC).

Gaussowski charakter szumu fotonowego gwarantuje nam że w końcu to wszystko się uśredni pod warunkiem że obiekt przekroczy szum odczytu.

Tak rozumie działanie CCD i CMOS, jeśli coś pokręciłem poprawcie, zawsze chętnie dowiem się czegoś nowego.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Z tym tłem nieba i Księżycem to jest dziwnie Wam powiem, foto zrobione w pełni niedaleko Księżyca i to kolorem 12-11-2016 godz 22, co prawda UHC ale on szeroki jest

http://indexhamal.pl/astrofotografia/bright_dark_nebulae/images/NGC281-ASI224MCmod.jpg

Czasem mam wrażenie, że Księżyc działa korzystnie na matryce :uhm: dlatego polubiłem robienie zdjęć przy kwadrach -22-04-2018

http://indexhamal.pl/astrofotografia/galaxies/images/M51_ASI290MMC.png

 

 

Edytowane przez HAMAL
  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, RadekK napisał:

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

Paradoksalnie w sytuacji wyższego LP lepsze efekty można uzyskać stosując CMOS (o niskim szumie odczytu) i bardzo krótkie subekspozycje. Nigdy nie znalazłem czasu, żeby to dobrze empirycznie zbadać, ale jest to prawdopodobnie możliwe. Inaczej mówiąc - długie ekspozycje CDD tylko pod ciemnym niebem. Im więcej LP, tym subekspozycje powinny być krótsze.

 

Tak samo powinno to działać z Księżycem. W czasie jasnej fazy można spróbować stackować klatki po kilka sekund. Efekt powinien być dużo lepszy niż z CCD z czasem 600 sekund. Być może stąd @HAMAL twoje doświadczenia. Ludzie z CCD do tej pory robili bardzo długie klatki i dlatego Księżyc totalnie je knock-outował.

PS. Jeżeli to się faktycznie potwierdzi, to prawdopodobnie będzie najbardziej wartościowe odkrycie od czasów powstania astrofotografii cyfrowej. Minimalizacja wpływu LP i Księżyca. Zróbcie proszę takie testy (ja aktualnie nie mam czasu).

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zróbmy test: 

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, RadekK napisał:

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

 

Jeśli do detektora dociera 10 fotonów, z czego 9 to tło (duże LP) a 1 to obiekt to przy gain 0.27e- (np. kamery atik) dostaniemy 1 elektron na wyjściu. Jak odróżnić sygnał obiektu od sygnału (szumiącego) tła? Zbliżając się do głębokości studni z łącznym sygnałem, przy założeniu że szum tła jest niższy niż udział sygnału obiektu w łącznym złapanym sygnale.

 

Co to oznacza? Wydobycie słabych obiektów w warunkach wysokiego LP byłoby trywialne przy bardzo wysokiej rozdzielczości bitowej kamer np. 1024 bit zamiast 16 bit... i to tylko teoretycznie bo jeśli weźmiemy pod uwagę szum odczytu to wracamy do punktu wyjścia - sygnał użyteczny musiałby być odróżnialny od szumu odczytu + szumu tła.

 

A w wielkim skrócie - czy można odróżnić obiekt biały sfotografowany na tle obiektu białego? Można, ale to zależy od rozdzielczości tonalnej detektora.

bierzesz pod uwagę pojedyncze klatki, a zapominasz, że my stackujemy wiele klatek

podczas sumowania wielu klatek szum zaczyna się zmniejszać dążąc do stałej (średniej) wartości. Jeśli tych klatek będzie odpowiednio dużo to po odjęciu tej stałej wartości otrzymamy tylko rzeczywisty sygnał od obiektu

 

wbrew pozorom mamy większą rozdzielczość bitową zdjęć niż 16 bitów. W rzeczywistości programy stackujące nie liczą średniej ale sumują (to w zasadzie to samo tylko bez dzielenia przez ilość klatek). W ten sposób po zsumowaniu 2 klatek 16 bit otrzymujemy klatkę o rozdzielczości 17 bitów. Zsumowanie 16 klatek 16 bit daje nam już głębię 20 bitów itd. Dla krótkich czasów naświetlania wystarczyłyby praktycznie ADC o rozdzielczości 8 bitów (w praktyce 12 bitów dla CMOIS-ów przy wysokim gainie i tak niesie mniej informacji niż 12 bitów). Po zestackowaniu 256 klatek 8 bitów uzyskamy zdjęcie w rozdzielczości 16 bitów

 

tu mamy ten temat w praktyce

 

pozdrawiam

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Idąc tą ścieżką myślową mam chęć zrobić zdjęcie drogi mlecznej z centrum Warszawy. Jeżeli nic nie pomijamy w tym wyliczeniu, powinno być to wykonalne przy odpowiedniej ilości subekspozycji i odjęciu gradientu LP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

warto spróbować

dokładnie tak postąpiłem ze zdjęciem M57. Przed odjęciem LP wyglądało tak

m57_stack.png.5637754aa0babc70759b47682e291ecd.png

jak widać histogram jest przesunięty w prawo. Między wartościami zerowymi, a pikiem tła nie ma żadnych informacji. Wystarczyło odjąć stałą bezwartościową część czyli poziom tła pochodzący od LP

 

pozdrawiam

Edytowane przez ZbyT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jest jeden haczyk w tym rozumowaniu. O ile przyjmujemy że LP podnosi tylko poziom tła bez wpływu na sygnału samego obiektu. No a co z tym fragmentem LP które powstaje w wyniku podświetlenia pyłów ( smogu) zawieszonych w powietrzu? To już nie tylko poziom tła, ale tez wyraźne obniżenie kontrastu samego obiektu. Czy to nadal będzie tylko tło?

Edytowane przez wessel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mgły, cirrusów i wysokiej wilgotności się nie przeskoczy, to prawie tak jakby dać mleczną pleksi przez teleskop :(

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Słuszne zagadnienie, ale smog/zapylenie to inny czynnik. W miastach czasami powietrze jest czyste mimo LP. Trzeba monitorować obydwa czynniki. Jeżeli przyjdzie mi chęć wykonania zdjęcia Mlecznej z centrum Warszawy, to oczywiście będę celował w czystą noc w Wakacje i w niedzielę, kiedy zapylenie transportowe jest najniższe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A Księżyc niszczy nam nawet perfekcyjne niebo, więc to nie tylko o miasta chodzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
45 minut temu, ZbyT napisał:

wbrew pozorom mamy większą rozdzielczość bitową zdjęć niż 16 bitów. W rzeczywistości programy stackujące nie liczą średniej ale sumują (to w zasadzie to samo tylko bez dzielenia przez ilość klatek). W ten sposób po zsumowaniu 2 klatek 16 bit otrzymujemy klatkę o rozdzielczości 17 bitów. Zsumowanie 16 klatek 16 bit daje nam już głębię 20 bitów itd. Dla krótkich czasów naświetlania wystarczyłyby praktycznie ADC o rozdzielczości 8 bitów (w praktyce 12 bitów dla CMOIS-ów przy wysokim gainie i tak niesie mniej informacji niż 12 bitów). Po zestackowaniu 256 klatek 8 bitów uzyskamy zdjęcie w rozdzielczości 16 bitów

 

Wg dokumentu: https://www.silabs.com/documents/public/application-notes/an118.pdf

żeby zwiększyć efektywną liczbę bitów przetwornika o N trzeba oversamplować 4^N razy. 

Więc z tego co rozumiem te liczby nie są aż tak optymistyczne, i żeby z ADC 8 bitowego dostać 16 bitów to trzeba zrobić nie 256, ale aż 65536 klatek :)

  • Lubię 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
37 minut temu, Behlur_Olderys napisał:

Wg dokumentu: https://www.silabs.com/documents/public/application-notes/an118.pdf

żeby zwiększyć efektywną liczbę bitów przetwornika o N trzeba oversamplować 4^N razy. 

Więc z tego co rozumiem te liczby nie są aż tak optymistyczne, i żeby z ADC 8 bitowego dostać 16 bitów to trzeba zrobić nie 256, ale aż 65536 klatek :)

a czy tam nie chodzi o sygnały zmienne?

my składamy sygnały niemal stałe w czasie i o nieco innym charakterze więc kilka rzeczy nam odpada np. szumy kwantyzacji (w końcu nie mamy do czynienia z sygnałem analogowym ale dyskretnym). Stackowanie można pomylić z oversamplingiem ale to jednak nie jest dokładnie to samo. Nie ma czegoś takiego jak połowa fotonu. Nie ma w tym żadnej rzeczywistej informacji o fotografowanym obiekcie

 

pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, ZbyT napisał:

a czy tam nie chodzi o sygnały zmienne?

my składamy sygnały niemal stałe w czasie i o nieco innym charakterze więc kilka rzeczy nam odpada np. szumy kwantyzacji (w końcu nie mamy do czynienia z sygnałem analogowym ale dyskretnym). Stackowanie można pomylić z oversamplingiem ale to jednak nie jest dokładnie to samo. Nie ma czegoś takiego jak połowa fotonu. Nie ma w tym żadnej rzeczywistej informacji o fotografowanym obiekcie

 

pozdrawiam

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC.

 

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

 

 

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
28 minut temu, Behlur_Olderys napisał:

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC.

 

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

 

Rewelacyjny artykuł. Potwierdza wiele z naszej dyskusji. No i świetna ilustracja, jak multiplikator ilości klatek wyciąga nam ciemne detale:stackingtable.png

 

Spuentować można go następująco - jak mieszkasz tam, gdzie jest LP, to możesz uzyskać zaskakująco dobre efekty stackując odpowiednio wiele klatek oraz dodanie filtra blokującego LP, co ułatwi walkę o wyższy S/N.

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
9 minut temu, Adam_Jesion napisał:

Rewelacyjny artykuł. Potwierdza wiele z naszej dyskusji.

Ale też i neguje. Padła tu sugestia o sumie dłuższych klatek i jej odpowiedniku krótszych klatek, a to tak nie działa, krótszych trzeba więcej (suma czasów), a przy bardzo krótkich, niewspółmiernie więcej (suma czasów), niż iż sumy w dłuższym wydaniu.

 

 

Edytowane przez HAMAL
  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
46 minut temu, Behlur_Olderys napisał:

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC

jednak to nie jest dokładnie to samo. Oversampling czyli nadpróbkowanie to wykonanie dodatkowych pomiarów tego samego sygnału. W audio wykorzystywany jest do zmniejszenia szumu kwantyzacji przez pomiar pośrednich wartości sygnału

my robimy coś innego. Sygnał zależy od czasu ekspozycji. Częstsze wykonywanie pomiarów to skracanie ekspozycji, a tym samym zmniejszenie sygnału. Poza tym fotony są dyskretnymi porcjami energii, a fakt, że nie liczymy ich bezpośrednio nie ma tu znaczenia bo poszukiwaną przez nas informacją jest właśnie ilość fotonów, a nie napięcie na kondensatorze ... to tylko wartość pośrednia służąca do policzenia fotonów

 

52 minuty temu, Behlur_Olderys napisał:

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

po to robimy wiele ekspozycji by LP wraz z szumem sprowadzić do stałej wartości. Obiekty słabsze od LP i tak znajdą się ponad tym poziomem

spójrz na obrazek, który zamieściłem wyżej. LP znajduje się niemal w połowie histogramu. Szerokość tego piku reprezentuje szum fotonowy związany z LP ... a to tylko 142 subekspozycje. Mimo ogromnej wartości zaświetlenia słaby obiekt znalazł się ponad nim

LP spowodowało, że połowa histogramu nie niesie żadnej wartości, a to oznacza, że rozpiętość wartościowego sygnału zmniejszyła się o połowę czyli o jeden bit. Aby uzyskać taką samą rozpiętość bitową jak pod ciemnym niebem powinienem zebrać 2 razy więcej materiału, a w/g podlinkowanego przez ciebie pdf-a nawet 4 razy więcej

 

pozdrawiam

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Chciałbym tylko jeszcze dopowiedzieć:

Jeśli szum fotonowy jest proporcjonalny do pierwiastka z sygnału, to przy dużym LP trzeba napstrykać znacznie więcej fotek do usunięcia jego efektu. Dlaczego?

(typowa sytuacja z rodzaju: pod miejskim niebem nie widać DS-ów, bo LP jest od nich jaśniejsze):

 

Powiedzmy że na jednej klatce LP jest M = 4x silniejsze niż sygnał obiektu:

sygnał od obiektu (S) daje 4ADU, a LP (L = M*S) daje 16ADU. Szum od sygnału (Ns) będzie proporcjonalny do 2ADU, a szum od LP (Nn) - 4ADU.

SNR idealny = S / Ns = 4 /2 = 2

EDITED: (wg sugestii ZbyT)

SNR rzeczywisty: (zakładając idealne odjęcie LP od sygnału) : SNR =  S / sqrt(S + L) = 4 / sqrt(20) = 4 / 4.47 = 0.89

Wniosek: na 1 zdjęciu nawet po odjęciu LP nic nie widać, bo sygnał jest na mniej więcej podobnym poziomie co szum.

 

Stackujemy teraz 100 takich zdjęć:

sygnał = 100x4 = 400

LP = 100x16 = 1600

N = sqrt(400 + 1600) = ~45

 

SNR idealny = 400/20 = 20 (polepszenie 10x, jak byśmy oczekiwali po stacku 100 klatek)

SNR rzeczywisty: 400 / (45) = ~9.  Tutaj też mamy polepszenie SNR 10x 

 

Widzimy więc, że stosunek idealnego SNR do rzeczywistego jest niezmiennikiem operacji stackowania - tylko jeśli potrafimy idealnie odjąć sygnał LP!

 

Wniosek jest taki, że zarówno pod ciemnym niebem jak i pod jasnym stackowanie polepszy nam jakość w taki sam sposób.

Ale LP wprowadza nam stałe pogorszenie SNR rzeczywistego wobec idealnego, nawet jeśli idealnie odejmujemy sygnał LP (DBE czy czymś takim)

Jak duże jest to pogorszenie?

 

 SNRi / SNRr  = (S / Ns) / (S / (Ns + Nn)) = Ns + Nn  / Ns = sqrt (S + LP) / sqrt(S) = sqrt (S * (1 + M)) / sqrt(S) = sqrt(1 + M), gdzie M to stosunek sygnału LP do sygnału obiektu.

W tym wypadku M = 4, więc widać, że ze wzoru wychodzi ~2.23, co potwierdzają obliczenia. Co znaczy, że SNR jest ~2.23 razy gorsze niż idealne, a więc trzeba zwiększyć liczbę klatek (M+1) razy, żeby uzyskać ten sam SNR.

 

A zatem jeśli interesuje nas uzyskanie konkretnego SNR poprzez stackowanie, to LP powoduje, że zaczynamy na dzień dobry od gorszego SNR.

 

Wracając do przykładu:

Jeśli nasz obiekt ma na 1 klatce 4ADU, a satysfakcjonujące SNR = 20, to zupełnie bez LP wystarczy zrobić stack 100 zdjęć.

Jeśli przy tych samych założeniach mamy LP 4x jaśniejsze, niż nasz obiekt, to klatek trzeba ustrzelić 500!

 

Z drugiej strony, jeśli mamy dużo sygnału od obiektu a LP jeszcze mieści nam się w sensorze (tutaj głębia bitowa ma znaczenie!!!) to poprawiamy sytuację:

Naświetlamy klatkę 100x dłużej:

S = 400, Ns = 20,

LP = 1600 (UWAGA! potrzeba przynajmniej 11bit żeby nie zaświetlić klatki na maxa!!!)

szum tak jak wcześniej N ~ 45.

Efekt teoretycznie taki sam, jakby zrobić 100x 100-krotnie krótszych ekspozycji.

 

Dla jednej klatki mamy już:

idealny SNR = 20 (docelowy!)

rzeczywisty SNR ~ 9

Tak, jak wcześniej trzeba zrobić 5x więcej klatek, żeby wygładzić SNR do poziomu docelowego (20)

 

Kolejny więc wniosek: Nie ważne, czy dużo krótkich, czy mało długich klatek - tak długo, jak zastanawiamy się nad szumem od obiektu i LP powinno to być bez znaczenia.

(tylko że teraz trzeba się zastanowić nad szumem termicznym, prądem ciemnym, szumem odczytu....)

 

To takie obliczenia "serwetkowe" bez brania pod uwagę żadnego innego szumu, niż fotonowy. Proszę sprawdzić to rozumowanie :)

 

 

Edytowane przez Behlur_Olderys
  • Lubię 1
  • Kocham 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Polecana zawartość

    • SN 2018hhn - "polska" supernowa w UGC 12222
      Dziś mam przyjemność poinformować, że jest już potwierdzenie - obserwacja spektroskopowa wykonana na 2-metrowym Liverpool Telescope (La Palma, Wyspy Kanaryjskie). Okazuje się, że mamy do czynienia z supernową typu Ia. Poniżej widmo SN 2018hhn z charakterystyczną, silną linią absorpcyjną SiII.
        • Dziękuję
        • Lubię
      • 11 odpowiedzi
    • Zbiórka: Obserwatorium do poszukiwania nowych planet pozasłonecznych
      W związku z sąsiednim wątkiem o zasadach przyjmowania stypendiów, po Waszej radzie zdecydowałem się założyć zbiórkę crowdfundingową na portalu zrzutka.pl. W tym wątku będę informował o wszelkich aktualizacjach, przychodzących także po zakończeniu.
        • Kocham
        • Dziękuję
        • Lubię
      • 80 odpowiedzi
    • Mamy polską zmienną typu R Coronae Borealis (RCB)! (albo z dyskiem protoplanetarnym?)
      W ten weekend, korzystając z danych ASAS-SN (All Sky Automated Survey for Supernovae), wykryłem nieznaną do tej pory zmienną typu R Coronae Borealis. To jedna z najrzadszych typów gwiazd zmiennych - do tej pory odnaleziono zaledwie ~150. Ich poszukiwanie nie należy do najprostszych, gdyż swoimi wskaźnikami barwy (B-V, J-K etc.) nie wyróżniają się zbytnio, dlatego szybciej jest przeszukać krzywe blasku.
        • Lubię
      • 14 odpowiedzi
    • Odkrycia 144 gwiazd zmiennych
      W tym temacie przedstawiam wyniki trwającego pół roku amatorskiego projektu, którego celem było wyszukiwanie nowych gwiazd zmiennych. Podsumowując, udało mi się znaleźć 144 gwiazdy zmienne, jedna z nich to współodkrycie z Gabrielem Murawskim - układ binarny o znacznej ekscentryczności. Postanowiłem więc zakończyć projekt, by móc zając się tematem spektroskopii średnich rozdzielczości.
        • Kocham
        • Dziękuję
        • Lubię
      • 9 odpowiedzi
    • Poszukiwanie nowych mgławic planetarnych
      Witam,
       
      Przed chwilą otrzymałem maila o nowym odkryciu kandydatki na mgławicę planetarną, która otrzymała oznaczenie Mur 1. Oprócz tego, znalazłem także interesujący region (H II lub YSO), który uzyskał oznaczenie Mur Object 1. O co chodzi i co to są za znaleziska? Już wszystko wyjaśniam
       
      Kilka tygodni temu skontaktowałem się z francuzem Trygve Prestgardem, którego często można spotkać wśród takich projektów, jak SOHO Comets czy VSX (bardzo rzadkie zmienne, np. typu R Coronae Borealis czy YSO). Obecnie skupia się na poszukiwaniu nowych mgławic planetarnych na zdjęciach z obserwatoriów, mając na koncie kilkadziesiąt takich obiektów. Postanowiłem spróbować i poświęciłem na to około 15-20 godzin. Efekt? Dwa nowe znaleziska, które dostały oznaczenia na podstawie mojego nazwiska: Mur 1 oraz Mur Object 1.
       

      Possible Planetary Nebula - Mur 1
       
      Okazuje się, że na niebie wciąż nieco przeoczono, a do nich należą np. mgławice planetarne. Na chwilę obecną są to jedynie kandydatki, określane na podstawie widoczności w różnych pasmach (DSS, PANSTARRS, DECaPS, AllWISE). Kolejnym celem będzie określenie spektrum, co ma zweryfikować charakter PN (planetary nebula) obiektu. Od strony egzoplanet, możemy porównać do sytuacji, kiedy odnaleźliśmy powtarzalne tranzyty obiektu mogącego być rozmiarami planetą, ale trzeba jeszcze sprawdzić jego masę metodą radialną.
       
      Trzeba wspomnieć, że rzadko są to wyjątkowe źródła - są słabe (>17 mag), małe kątowo i rzadko kiedy ukazują swoje piękne kolory. Bo te jaśniejsze już wykryto wcześniej
       
      Oraz pozycja Mur 1 w programie Stellarium. Jak widać, z Polski go nie zobaczymy, bowiem leży w konstelacji Kila. Jest bardzo słaby (19-20 mag), więc jego rejestracja wymaga nieco poświęcenia.

       
      Na początku przyszłego roku zostanie opublikowany artykuł z nowymi znaleziskami, wśród których pojawi się powyższy obiekt. Prowadzi go również Francuz (Pascal Le Du), więc można spodziewać się, że raczej nie będzie on po angielsku Również wtedy będziemy mogli wyszukać go m.in. w bazie Simbad/VizieR czy HASH (http://hashpn.space/). Na chwilę obecną jedynie przekazując tę informację dalej.
       
      A tak z kolei wygląda Mur Object 1 - nie jest to mgławica planetarna, choć przypomina wyglądem. Zdaje mi się, że jeszcze będzie dokładniej sprawdzone co to takiego jest. Leży w konstelacji Żagla (także niebo południowe).

      Jaka jest efektywność? Przez kilkanaście godzin odnalazłem 9 podejrzanych celów, z czego dwa okazały się trafione - jeden znany (ale nieopublikowany jeszcze w Simbad) oraz Mur 1. Oprócz tego, Mur Object 1. Pozostała szóstka to pięć słabych galaktyk oraz jedna gwiazda (która wydawała się nieco bardziej rozmyta niż reszta w kadrze, ale jednak to gwiazda).
       
      Bardzo fajny projekt, który postaram się rozwinąć nieco bardziej, u boku poszukiwania nowych egzoplanet
        • Kocham
        • Lubię
      • 7 odpowiedzi
×

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.