Skocz do zawartości
wessel

Bez przepychu ... co robię źle?

Rekomendowane odpowiedzi

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

 

Jeśli do detektora dociera 10 fotonów, z czego 9 to tło (duże LP) a 1 to obiekt to przy gain 0.27e- (np. kamery atik) dostaniemy 1 elektron na wyjściu. Jak odróżnić sygnał obiektu od sygnału (szumiącego) tła? Zbliżając się do głębokości studni z łącznym sygnałem, przy założeniu że szum tła jest niższy niż udział sygnału obiektu w łącznym złapanym sygnale.

 

Co to oznacza? Wydobycie słabych obiektów w warunkach wysokiego LP byłoby trywialne przy bardzo wysokiej rozdzielczości bitowej kamer np. 1024 bit zamiast 16 bit... i to tylko teoretycznie bo jeśli weźmiemy pod uwagę szum odczytu to wracamy do punktu wyjścia - sygnał użyteczny musiałby być odróżnialny od szumu odczytu + szumu tła.

 

A w wielkim skrócie - czy można odróżnić obiekt biały sfotografowany na tle obiektu białego? Można, ale to zależy od rozdzielczości tonalnej detektora.

  • Lubię 1
  • Dziękuję 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To co piszecie jest dla mnie jasne. Może opiszę prosty przykład z wiaderkiem by było prościej i przejrzyściej :) Z naszego nieba do wiaderka padają krople wody z dwóch źródeł o rozkładzie gaussowskim: deszcz zacinający z boku i przeciekająca rynna której poziom zużycia chcemy wyznaczyć zliczając wagę wody która trafia do wiaderka w jednostce czasu. Zbieramy wodę przez jakiś czas, ważymy i zapisujemy wynik. Jest też drugie wiaderko do którego pada tylko deszcz, z nim postępujemy identycznie z tym że wagę tej wody zapisujemy na osobnej kartce.

Nie wiemy ile wody pochodzi z rynny, a ile z deszczu. Jeżeli pada słabo to różnica z poziomie wody będzie oczywista, w przeciwnym wypadku będziemy musieli zbierać wodę dużo dłużej by zauważyć że jedna kolumna liczb rośnie nieco szybciej. Wszystko to oczywiście jest możliwe tylko wtedy gdy waga wody pochodzącej z rynny jest na tyle duża by była rejestrowalna przez naszą wagę (ADC).

Gaussowski charakter szumu fotonowego gwarantuje nam że w końcu to wszystko się uśredni pod warunkiem że obiekt przekroczy szum odczytu.

Tak rozumie działanie CCD i CMOS, jeśli coś pokręciłem poprawcie, zawsze chętnie dowiem się czegoś nowego.

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Z tym tłem nieba i Księżycem to jest dziwnie Wam powiem, foto zrobione w pełni niedaleko Księżyca i to kolorem 12-11-2016 godz 22, co prawda UHC ale on szeroki jest

http://indexhamal.pl/astrofotografia/bright_dark_nebulae/images/NGC281-ASI224MCmod.jpg

Czasem mam wrażenie, że Księżyc działa korzystnie na matryce :uhm: dlatego polubiłem robienie zdjęć przy kwadrach -22-04-2018

http://indexhamal.pl/astrofotografia/galaxies/images/M51_ASI290MMC.png

 

 

Edytowane przez HAMAL
  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, RadekK napisał:

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

Paradoksalnie w sytuacji wyższego LP lepsze efekty można uzyskać stosując CMOS (o niskim szumie odczytu) i bardzo krótkie subekspozycje. Nigdy nie znalazłem czasu, żeby to dobrze empirycznie zbadać, ale jest to prawdopodobnie możliwe. Inaczej mówiąc - długie ekspozycje CDD tylko pod ciemnym niebem. Im więcej LP, tym subekspozycje powinny być krótsze.

 

Tak samo powinno to działać z Księżycem. W czasie jasnej fazy można spróbować stackować klatki po kilka sekund. Efekt powinien być dużo lepszy niż z CCD z czasem 600 sekund. Być może stąd @HAMAL twoje doświadczenia. Ludzie z CCD do tej pory robili bardzo długie klatki i dlatego Księżyc totalnie je knock-outował.

PS. Jeżeli to się faktycznie potwierdzi, to prawdopodobnie będzie najbardziej wartościowe odkrycie od czasów powstania astrofotografii cyfrowej. Minimalizacja wpływu LP i Księżyca. Zróbcie proszę takie testy (ja aktualnie nie mam czasu).

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zróbmy test: 

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, RadekK napisał:

Sygnał obiektu rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji So(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s

Sygnał tła rośnie liniowo wraz z czasem ekspozycji i jest zależny od łącznego czasu ekspozycji St(t), więc 1 klatka 300s jest odpowiednikiem 300 klatek 1s. Gdyby był idealnie gładki (bez szumu) to moża byłoby go zwyczajnie odjąć od zarejestrowanego sygnału i otrzymać sygnał obiektu. Problem polega na tym że tło również szumi... a szum tła rośnie nieliniowo od czasu, a konkretnie Sts(sqrt(t)).

 

Jeśli do detektora dociera 10 fotonów, z czego 9 to tło (duże LP) a 1 to obiekt to przy gain 0.27e- (np. kamery atik) dostaniemy 1 elektron na wyjściu. Jak odróżnić sygnał obiektu od sygnału (szumiącego) tła? Zbliżając się do głębokości studni z łącznym sygnałem, przy założeniu że szum tła jest niższy niż udział sygnału obiektu w łącznym złapanym sygnale.

 

Co to oznacza? Wydobycie słabych obiektów w warunkach wysokiego LP byłoby trywialne przy bardzo wysokiej rozdzielczości bitowej kamer np. 1024 bit zamiast 16 bit... i to tylko teoretycznie bo jeśli weźmiemy pod uwagę szum odczytu to wracamy do punktu wyjścia - sygnał użyteczny musiałby być odróżnialny od szumu odczytu + szumu tła.

 

A w wielkim skrócie - czy można odróżnić obiekt biały sfotografowany na tle obiektu białego? Można, ale to zależy od rozdzielczości tonalnej detektora.

bierzesz pod uwagę pojedyncze klatki, a zapominasz, że my stackujemy wiele klatek

podczas sumowania wielu klatek szum zaczyna się zmniejszać dążąc do stałej (średniej) wartości. Jeśli tych klatek będzie odpowiednio dużo to po odjęciu tej stałej wartości otrzymamy tylko rzeczywisty sygnał od obiektu

 

wbrew pozorom mamy większą rozdzielczość bitową zdjęć niż 16 bitów. W rzeczywistości programy stackujące nie liczą średniej ale sumują (to w zasadzie to samo tylko bez dzielenia przez ilość klatek). W ten sposób po zsumowaniu 2 klatek 16 bit otrzymujemy klatkę o rozdzielczości 17 bitów. Zsumowanie 16 klatek 16 bit daje nam już głębię 20 bitów itd. Dla krótkich czasów naświetlania wystarczyłyby praktycznie ADC o rozdzielczości 8 bitów (w praktyce 12 bitów dla CMOIS-ów przy wysokim gainie i tak niesie mniej informacji niż 12 bitów). Po zestackowaniu 256 klatek 8 bitów uzyskamy zdjęcie w rozdzielczości 16 bitów

 

tu mamy ten temat w praktyce

 

pozdrawiam

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Idąc tą ścieżką myślową mam chęć zrobić zdjęcie drogi mlecznej z centrum Warszawy. Jeżeli nic nie pomijamy w tym wyliczeniu, powinno być to wykonalne przy odpowiedniej ilości subekspozycji i odjęciu gradientu LP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

warto spróbować

dokładnie tak postąpiłem ze zdjęciem M57. Przed odjęciem LP wyglądało tak

m57_stack.png.5637754aa0babc70759b47682e291ecd.png

jak widać histogram jest przesunięty w prawo. Między wartościami zerowymi, a pikiem tła nie ma żadnych informacji. Wystarczyło odjąć stałą bezwartościową część czyli poziom tła pochodzący od LP

 

pozdrawiam

Edytowane przez ZbyT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jest jeden haczyk w tym rozumowaniu. O ile przyjmujemy że LP podnosi tylko poziom tła bez wpływu na sygnału samego obiektu. No a co z tym fragmentem LP które powstaje w wyniku podświetlenia pyłów ( smogu) zawieszonych w powietrzu? To już nie tylko poziom tła, ale tez wyraźne obniżenie kontrastu samego obiektu. Czy to nadal będzie tylko tło?

Edytowane przez wessel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mgły, cirrusów i wysokiej wilgotności się nie przeskoczy, to prawie tak jakby dać mleczną pleksi przez teleskop :(

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Słuszne zagadnienie, ale smog/zapylenie to inny czynnik. W miastach czasami powietrze jest czyste mimo LP. Trzeba monitorować obydwa czynniki. Jeżeli przyjdzie mi chęć wykonania zdjęcia Mlecznej z centrum Warszawy, to oczywiście będę celował w czystą noc w Wakacje i w niedzielę, kiedy zapylenie transportowe jest najniższe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A Księżyc niszczy nam nawet perfekcyjne niebo, więc to nie tylko o miasta chodzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
45 minut temu, ZbyT napisał:

wbrew pozorom mamy większą rozdzielczość bitową zdjęć niż 16 bitów. W rzeczywistości programy stackujące nie liczą średniej ale sumują (to w zasadzie to samo tylko bez dzielenia przez ilość klatek). W ten sposób po zsumowaniu 2 klatek 16 bit otrzymujemy klatkę o rozdzielczości 17 bitów. Zsumowanie 16 klatek 16 bit daje nam już głębię 20 bitów itd. Dla krótkich czasów naświetlania wystarczyłyby praktycznie ADC o rozdzielczości 8 bitów (w praktyce 12 bitów dla CMOIS-ów przy wysokim gainie i tak niesie mniej informacji niż 12 bitów). Po zestackowaniu 256 klatek 8 bitów uzyskamy zdjęcie w rozdzielczości 16 bitów

 

Wg dokumentu: https://www.silabs.com/documents/public/application-notes/an118.pdf

żeby zwiększyć efektywną liczbę bitów przetwornika o N trzeba oversamplować 4^N razy. 

Więc z tego co rozumiem te liczby nie są aż tak optymistyczne, i żeby z ADC 8 bitowego dostać 16 bitów to trzeba zrobić nie 256, ale aż 65536 klatek :)

  • Lubię 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
37 minut temu, Behlur_Olderys napisał:

Wg dokumentu: https://www.silabs.com/documents/public/application-notes/an118.pdf

żeby zwiększyć efektywną liczbę bitów przetwornika o N trzeba oversamplować 4^N razy. 

Więc z tego co rozumiem te liczby nie są aż tak optymistyczne, i żeby z ADC 8 bitowego dostać 16 bitów to trzeba zrobić nie 256, ale aż 65536 klatek :)

a czy tam nie chodzi o sygnały zmienne?

my składamy sygnały niemal stałe w czasie i o nieco innym charakterze więc kilka rzeczy nam odpada np. szumy kwantyzacji (w końcu nie mamy do czynienia z sygnałem analogowym ale dyskretnym). Stackowanie można pomylić z oversamplingiem ale to jednak nie jest dokładnie to samo. Nie ma czegoś takiego jak połowa fotonu. Nie ma w tym żadnej rzeczywistej informacji o fotografowanym obiekcie

 

pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, ZbyT napisał:

a czy tam nie chodzi o sygnały zmienne?

my składamy sygnały niemal stałe w czasie i o nieco innym charakterze więc kilka rzeczy nam odpada np. szumy kwantyzacji (w końcu nie mamy do czynienia z sygnałem analogowym ale dyskretnym). Stackowanie można pomylić z oversamplingiem ale to jednak nie jest dokładnie to samo. Nie ma czegoś takiego jak połowa fotonu. Nie ma w tym żadnej rzeczywistej informacji o fotografowanym obiekcie

 

pozdrawiam

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC.

 

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

 

 

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
28 minut temu, Behlur_Olderys napisał:

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC.

 

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

 

Rewelacyjny artykuł. Potwierdza wiele z naszej dyskusji. No i świetna ilustracja, jak multiplikator ilości klatek wyciąga nam ciemne detale:stackingtable.png

 

Spuentować można go następująco - jak mieszkasz tam, gdzie jest LP, to możesz uzyskać zaskakująco dobre efekty stackując odpowiednio wiele klatek oraz dodanie filtra blokującego LP, co ułatwi walkę o wyższy S/N.

 

  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
9 minut temu, Adam_Jesion napisał:

Rewelacyjny artykuł. Potwierdza wiele z naszej dyskusji.

Ale też i neguje. Padła tu sugestia o sumie dłuższych klatek i jej odpowiedniku krótszych klatek, a to tak nie działa, krótszych trzeba więcej (suma czasów), a przy bardzo krótkich, niewspółmiernie więcej (suma czasów), niż iż sumy w dłuższym wydaniu.

 

 

Edytowane przez HAMAL
  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
46 minut temu, Behlur_Olderys napisał:

Nie, nie chodzi o zmienne w czasie sygnały: żeby pomiar ADC był wiarygodny mierzony sygnał musi być stały w czasie jednego pomiaru, lub - dla oversamplingu - w czasie X pomiarów. To szum zmienia się z pomiaru na pomiar, co wykorzystujemy.

 

ADC mierzy napięcie elementu fotoczułego (nie wiem, co tam jest, fotodioda, nieistotne) więc sygnał jak najbardziej jest analogowy - zamiana fotonu na napięcie już się dokonała, i wszystkie możliwe szumy już się pododawały.

 

 Nie widzę tutaj żadnej różnicy pomiędzy stackowaniem a oversamplingiem, może poza tym, że jeśli sygnał zmienia położenie z piksela na piksel to nie uśredniamy z jednego tylko z wielu ADC

jednak to nie jest dokładnie to samo. Oversampling czyli nadpróbkowanie to wykonanie dodatkowych pomiarów tego samego sygnału. W audio wykorzystywany jest do zmniejszenia szumu kwantyzacji przez pomiar pośrednich wartości sygnału

my robimy coś innego. Sygnał zależy od czasu ekspozycji. Częstsze wykonywanie pomiarów to skracanie ekspozycji, a tym samym zmniejszenie sygnału. Poza tym fotony są dyskretnymi porcjami energii, a fakt, że nie liczymy ich bezpośrednio nie ma tu znaczenia bo poszukiwaną przez nas informacją jest właśnie ilość fotonów, a nie napięcie na kondensatorze ... to tylko wartość pośrednia służąca do policzenia fotonów

 

52 minuty temu, Behlur_Olderys napisał:

Odnośnie głównego tematu dyskusji - ciekawe zdanie: sam sygnał LP można odjąć, ale nie jego szum:

https://jonrista.com/the-astrophotographers-guide/astrophotography-basics/snr/

po to robimy wiele ekspozycji by LP wraz z szumem sprowadzić do stałej wartości. Obiekty słabsze od LP i tak znajdą się ponad tym poziomem

spójrz na obrazek, który zamieściłem wyżej. LP znajduje się niemal w połowie histogramu. Szerokość tego piku reprezentuje szum fotonowy związany z LP ... a to tylko 142 subekspozycje. Mimo ogromnej wartości zaświetlenia słaby obiekt znalazł się ponad nim

LP spowodowało, że połowa histogramu nie niesie żadnej wartości, a to oznacza, że rozpiętość wartościowego sygnału zmniejszyła się o połowę czyli o jeden bit. Aby uzyskać taką samą rozpiętość bitową jak pod ciemnym niebem powinienem zebrać 2 razy więcej materiału, a w/g podlinkowanego przez ciebie pdf-a nawet 4 razy więcej

 

pozdrawiam

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Chciałbym tylko jeszcze dopowiedzieć:

Jeśli szum fotonowy jest proporcjonalny do pierwiastka z sygnału, to przy dużym LP trzeba napstrykać znacznie więcej fotek do usunięcia jego efektu. Dlaczego?

(typowa sytuacja z rodzaju: pod miejskim niebem nie widać DS-ów, bo LP jest od nich jaśniejsze):

 

Powiedzmy że na jednej klatce LP jest M = 4x silniejsze niż sygnał obiektu:

sygnał od obiektu (S) daje 4ADU, a LP (L = M*S) daje 16ADU. Szum od sygnału (Ns) będzie proporcjonalny do 2ADU, a szum od LP (Nn) - 4ADU.

SNR idealny = S / Ns = 4 /2 = 2

EDITED: (wg sugestii ZbyT)

SNR rzeczywisty: (zakładając idealne odjęcie LP od sygnału) : SNR =  S / sqrt(S + L) = 4 / sqrt(20) = 4 / 4.47 = 0.89

Wniosek: na 1 zdjęciu nawet po odjęciu LP nic nie widać, bo sygnał jest na mniej więcej podobnym poziomie co szum.

 

Stackujemy teraz 100 takich zdjęć:

sygnał = 100x4 = 400

LP = 100x16 = 1600

N = sqrt(400 + 1600) = ~45

 

SNR idealny = 400/20 = 20 (polepszenie 10x, jak byśmy oczekiwali po stacku 100 klatek)

SNR rzeczywisty: 400 / (45) = ~9.  Tutaj też mamy polepszenie SNR 10x 

 

Widzimy więc, że stosunek idealnego SNR do rzeczywistego jest niezmiennikiem operacji stackowania - tylko jeśli potrafimy idealnie odjąć sygnał LP!

 

Wniosek jest taki, że zarówno pod ciemnym niebem jak i pod jasnym stackowanie polepszy nam jakość w taki sam sposób.

Ale LP wprowadza nam stałe pogorszenie SNR rzeczywistego wobec idealnego, nawet jeśli idealnie odejmujemy sygnał LP (DBE czy czymś takim)

Jak duże jest to pogorszenie?

 

 SNRi / SNRr  = (S / Ns) / (S / (Ns + Nn)) = Ns + Nn  / Ns = sqrt (S + LP) / sqrt(S) = sqrt (S * (1 + M)) / sqrt(S) = sqrt(1 + M), gdzie M to stosunek sygnału LP do sygnału obiektu.

W tym wypadku M = 4, więc widać, że ze wzoru wychodzi ~2.23, co potwierdzają obliczenia. Co znaczy, że SNR jest ~2.23 razy gorsze niż idealne, a więc trzeba zwiększyć liczbę klatek (M+1) razy, żeby uzyskać ten sam SNR.

 

A zatem jeśli interesuje nas uzyskanie konkretnego SNR poprzez stackowanie, to LP powoduje, że zaczynamy na dzień dobry od gorszego SNR.

 

Wracając do przykładu:

Jeśli nasz obiekt ma na 1 klatce 4ADU, a satysfakcjonujące SNR = 20, to zupełnie bez LP wystarczy zrobić stack 100 zdjęć.

Jeśli przy tych samych założeniach mamy LP 4x jaśniejsze, niż nasz obiekt, to klatek trzeba ustrzelić 500!

 

Z drugiej strony, jeśli mamy dużo sygnału od obiektu a LP jeszcze mieści nam się w sensorze (tutaj głębia bitowa ma znaczenie!!!) to poprawiamy sytuację:

Naświetlamy klatkę 100x dłużej:

S = 400, Ns = 20,

LP = 1600 (UWAGA! potrzeba przynajmniej 11bit żeby nie zaświetlić klatki na maxa!!!)

szum tak jak wcześniej N ~ 45.

Efekt teoretycznie taki sam, jakby zrobić 100x 100-krotnie krótszych ekspozycji.

 

Dla jednej klatki mamy już:

idealny SNR = 20 (docelowy!)

rzeczywisty SNR ~ 9

Tak, jak wcześniej trzeba zrobić 5x więcej klatek, żeby wygładzić SNR do poziomu docelowego (20)

 

Kolejny więc wniosek: Nie ważne, czy dużo krótkich, czy mało długich klatek - tak długo, jak zastanawiamy się nad szumem od obiektu i LP powinno to być bez znaczenia.

(tylko że teraz trzeba się zastanowić nad szumem termicznym, prądem ciemnym, szumem odczytu....)

 

To takie obliczenia "serwetkowe" bez brania pod uwagę żadnego innego szumu, niż fotonowy. Proszę sprawdzić to rozumowanie :)

 

 

Edytowane przez Behlur_Olderys
  • Lubię 1
  • Kocham 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.