Skocz do zawartości

Zagadnienie zbyt małego pixela


Kapitan Cook

Rekomendowane odpowiedzi

31 minut temu, diver napisał:

Różnice będą widoczne, gdy będziesz obydwie fotki oglądał w ich natywnej pikselowej skali.

Powiedzmy, że z optyki (i warunków obserwacyjnych) uzyskujemy obraz gwiazdy o średnicy 4" i taka plama pada na matrycę. Przy skali 2"/px obraz gwiazdy zmieści się na 4  pikselach matrycy. Przy skali 1"/px na 16 pikselach.

Wszyscy tutaj zgodnie twierdzą (z doświadczenia przecież), że obraz gwiazdy na 4 pikselach będzie wyglądał lepiej niż ten na 16 pikselach. Tak czytam tę całą dyskusję.

Ale chodzi o to, że zdjęcie ze skali 1"/pix, które pozwala dostrzec wady optyki, jest co najmniej tak samo dobre, jak to 2"/pix. Po prostu, zdjęciu 1"/pix możesz zmniejszyć rozdzielczość na kompie 2x i otrzymasz dokładnie to samo, co ze skali 2"/pix i również "ukryjesz" wady optyki. Ale wystarczy że wady optyki rozmazują gwiazdę np na 1,5 pix przy skali 1"/pix i wówczas wystarczy zmniejszyć zdjęcie 1,5x, aby wad nie widzieć i już mamy lepsze zdjęcie niż ze skali 2"/pix - widzimy więcej detali, wciąż nie widząc wad. Czyli inaczej - zdjęcie z drobniejszą skalą może dać nam przyrost detalu do momentu uwidocznienia wad optyki, co jest na plus, a dalej nie zmienia już nic, uwidocznione wady możemy z powrotem ukryć resizem.

 

Ogólnie, zwykle oglądamy i publikujemy zdjęcie w zmniejszonej rozdzielczości, więc niezależnie od tego, czy robiliśmy je "zbyt małym pikselem", który pokazuje wady, czy też odpowiednio dużym, to efekt końcowy będzie identyczny, bo wykonaliśmy resize poniżej rozmiaru tych wad.

Cytat

 Wady kształtu obrazu (gwiazdy) są bardzo często powodowane również przez kiepski seeing, czego doświadczam niemal co dzień.

Chyba w równoległym wszechświecie :) Na zdjęciach kilkuminutowych obraz gwiazd to gauss, a różni się tylko rozmiarem - im gorszy seeing, tym większy placek. No chyba że przy słabym seeingu zaczyna Ci szaleć guiding - wtedy może pojawić się niesymetryczność.

  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

14 minut temu, diver napisał:

w wyniku turbulencji powietrza seeing potrafi zmieniać się z sekundy na sekundę.

Tak, seeing zmienia się z sekundy na sekundę. Ale w ciągu 5 minut te losowe turbulencje się uśredniają, dając symetryczny obraz gwiazdy.

17 minut temu, diver napisał:

Zagadnienie wątku jest następujące. Mamy dwie matryce tych samych wymiarów umieszczone w tej samej optyce. Mamy więc jednakowy FOV (wizualne powiększenie). Z pierwszej matrycy uzyskujemy powiedzmy skalę 0,5"/px, z drugiej 1"/px (druga ma większy piksel).

Załóżmy że mamy idealną optykę i nie ma seeingu. Powiedzmy że w oparciu o zasady czysto fizyczno-teoretyczne nasza optyka daje nam obraz gwiazdy o średnicy 2". Na pierwszej matrycy obraz gwiazdy będzie odwzorowany na 16 pikselach, na drugiej na 4 pikselach.

Załóżmy, że oglądamy zarejestrowane finalne obrazy w tej samej wizualnej skali, czyli w takich samych wizualnych wymiarach (nie oglądamy tego w natywnej skali pikselozy!) . Czy jakość obrazu (kształt i chroma przy kolorowej matrycy) będzie w obydwu przypadkach taka sama czy różna? A jeżeli różna, to z czego to wynika?

Tak, będzie taka sama. Pod warunkiem, że będziemy je oglądać tak, żeby zdjęcie ze skali 1"/pix nie było rozpikselowane na naszym monitorze. Bo jeśli będzie powiększone ponad 100%, to na nim zobaczymy pikselozę, a na tym drugim z 0,5"/pix zobaczymy wady optyki.

Odnośnik do komentarza
Udostępnij na innych stronach

Byśmy siedli przy piwku i może jakimś ogórku kiszonym, tobyśmy sobie ze śmiechem wszyscy przyznali rację.

A tak to dyskusje się toczą jak chmury po niebie :)
Chodźcie, na jakiś zlot pojedziemy i sobie to wyjaśnimy na spokojnie, bo takie dyskusje to są na dłuższą metę męczące... A moim zdaniem w pół godziny z projektorem przekonałbym każdego tutaj, że w zasadzie każdy opowiada prawdę - na swój sposób :)

 

...

 

jak ci ślepcy macający słonia :P

 

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

6 minut temu, Behlur_Olderys napisał:

Chodźcie, na jakiś zlot pojedziemy i sobie to wyjaśnimy na spokojnie, bo takie dyskusje to są na dłuższą metę męczące...

 

Dlaczego nie widziałem Cię na ostatnim zlocie? ;) Czekam więc na kolejny. :)

Odnośnik do komentarza
Udostępnij na innych stronach

14 minut temu, diver napisał:

 

Szalejesz Matuesz! ;) Napisałem, że w moich warunkach brzegowych do rozważań przyjmuję, że nie ma wad optyki.

No to nie zobaczysz wad, tylko placek :) Jeśli wyświetlisz zdjęcia tak samo tak, że żadne z nich nie jest powiększone ponad 100%, to będą identyczne. Jak powiększysz je bardziej, to to z drobniejszej skali pokaże ładny placuszek, a to drugie rozpikselowaną wersję pierwszego.

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 13.02.2021 o 12:29, Adam87 napisał:

 

Ok, taką sytuację rozumiem, ale jeśli zostawimy optykę i podepniemy do niej kamerę z mniejszym pixelem, przykładowo

 

Ogniskowa 500mm i kamera z pixelem 2um i 1um. Zakładamy że mają takie samo FOV, czyli ta z pixelem 1um będzie musiała mieć 4x wiecej MP.

 

To czy samo podpięcie kamery z tym mniejszym pixelem uwidoczni wady optyki bez cropowania w stosunku do tej z wiekszym pixelem?

 

Moim zdaniem powinno to wyglądać tak samo.

 

Jeśli źle rozumuję to dlatego że bawię się fotografią dzienną i zaczynając od FF o rozdzielczości 8 MP a kończąc na 45MP podpinając do tego samego obiketywu uzyskiwałem coraz lepszy detal.

Natomiast cały kadr wyglądał z grubsza tak samo.

 

Dlatego dziwiły mnie częste odpowiedzi aby nie kupować kamer o mniejszym pixelu, ponieważ uwidoczni to problemy prowadzenia i wady optyki.  Moim zdaniem jeśli obie dają taki sam FOV, pełen kadr powinien być taki sam.

 

 

 

 

 

Obraz po zastosowaniu bin 2x2 dla kamery 1um będzie wyglądał praktycznie tak samo jak dla kamery 2um. Odnośnie parametrów po bin 2x2, studnia będzie 4 x większa jak dla pojedynczego pixela, prąd ciemny będzie 4 x większy, sygnału będzie 4 x więcej, szum odczytu nie doda się algebraiczni tylko wzrośnie o pierwiastek z ilości binowanych pixeli, czyli sqrt(4)=2. Sygnału jest 4 x więcej a szum tylko dwa razy większy to stosunek sygnał szum wzrośnie 4/2 =2 razy. Wynikowy rn będzie raczej większy niż dla kamery z natywnym pixelem 2um. Jednak nowej kamery CMOS mają bardzo niski rn. W mojej ocenie obecnie mały pixel nie jest wielkim problemem, a daje sporą elastyczność skali.

 

Odnośnie  tematu spot size i wielkości pixela opisanego wyżej przez @wessel . Podchodząc akademicko, należało by przywołać teorię o próbkowania sygnału Nyquist–Shannon. Wnioski z niej są takie że potrzeba, aby gwiazda zajmowała  3 pixele, aby była dobrze spróbkowana.

 

Pixels-630x210.jpg

 

Teoretycznie jak gwiazda zmieści się w jednym pixelu to będzie kwadratowa. Jednak opisane doświadczenia @wessel są takie, że jej obraz jest przyejmny dla oka. Teorie nie robią zdjęć i ostatecznie liczy się wynik w postaci pięknych fotek. Drążąc temat głębiej, gwiazdy wyglądaja dobrze nawet jak sygnał jest lekko niedopróbkowany. Ostateczne zdjęcie to nie pojedyncza klatka a ich stack. Korzystamy z ditheringu, dochodzą szumy i inne niedkosonałości matrycy, aligancja i zniekształcenia geometryczne, błędy prowadzenia itp, więc obraz gwiazdy na stacku nie jest taki jak w teorii. Ogólnie rozmiar gwiazdy w zależności od seeingu: Star Size = (Seeing * ogniskowa )/206.3  (seeing-arcsec, gniskowa-mm, wynik um). np  FSQ106 dla seeingu 3" - (3*530)/206.3=7.82um. Jak producenci obliczają, te teoretyczne wykresy spot size, to chyba zakłądają punktowe źródło światła, a nie "rozmemłaną" :) przez seeing gwiazdę..... ?.

 

 

 

 

 

 

Edytowane przez rambro
Odnośnik do komentarza
Udostępnij na innych stronach

3 godziny temu, rambro napisał:

Teoretycznie jak gwiazda zmieści się w jednym pixelu to będzie kwadratowa.

Generalnie to im gwiazda jaśniejsza, tym więcej pikseli zajmie. Tylko te ciemne będą się mieścić w pikselu, ale im gwiazda jaśniejsza, tym dalsze prążki Airyego staja się widoczne (albo raczej ich rozmazane pozostałości) i generalnie gwiazda nie ma końca. Bardzo jasne gwiazdy potrafią świecić na kilkadziesiąt / set pikseli, oczywiście te dalsze partie są już bardzo słabe. Tak na prawdę, jak gwiazda niby mieści się na jednym pikselu, to wokół niego nadal jest jakieś minimalne pojaśnienie, które nadaje jej nieco okrągłości.

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 15.02.2021 o 00:33, trouvere napisał:

Jak widać na małej  fotce obraz gwiazdy przy słabym seeingu przy długim (relatywnie długim) czasie ekspozycji przybiera postać koncentrycznego placka, przy wnikliwej analizie jego amplitudy okaże się, że ma postać statystycznego rozkładu funkcji Gaussa o czym pisał @Behlur_Olderys, czemu nie należy się dziwić bo seeing właśnie w ten sposób wpływa na obrazowanie (statystycznie).

Na większej fotografii widoczne wady odwzorowania (aberracja chromatyczna) wprowadzane przez samą optykę (tą samą optykę) przy pomijalnym wpływie seeingu.

Jedyny problem to taki, że to kompletne bzdury. Oba efekty wynikają z mojego lamerstwa w obróbce o czym pisałem wyżej.

Mogę to zdjęcie zrobić teraz tak, że żaden z tych efektów nie wystąpi.

 

Edytowane przez kubaman
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 15.02.2021 o 00:42, Behlur_Olderys napisał:

Byśmy siedli przy piwku i może jakimś ogórku kiszonym, tobyśmy sobie ze śmiechem wszyscy przyznali rację.

 

 

 

"Behlur i Diver w jednym stali domku...". Konkretnie w domku nr 6.

Będzie ciekawie w Bukowcu :)

 

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 15.02.2021 o 00:42, Behlur_Olderys napisał:

Byśmy siedli przy piwku i może jakimś ogórku kiszonym, tobyśmy sobie ze śmiechem wszyscy przyznali rację.

 

Zanim jednak siądziemy przy piwku z ogórkiem, mam potrzebę jakiegoś praktycznego podsumowania tematu. ;) Wszystkie zacne wypowiedzi w tym wątku są mocno rozproszone tematycznie  i merytorycznie, podjąłem więc próbę zbudowania jakiegoś kompendium.

 

Kiedy piksel będzie zbyt mały? Problem trzeba rozważać w odniesieniu do optyki i mechaniki oraz skali setupu.

 

Optyka, warunki obserwacyjne  i mechanika setupu

 

Z punktu widzenia optyki i mechaniki setupu mamy trzy podstawowe czynniki wpływające na wielkość obrazu gwiazdy.

1. Rozdzielczość optyczna teleskopu, zależna od jego apertury: R ~138/Ap [mm] (R), np.

a) dla małego refraktora 60/300 mm R=2,3"

b) dla Newtona 200/1000 mm  R=0,69"

2. Seeing (s). W naszych nizinnych warunkach obserwacyjnych seeing wyrażony wielkością plamy obrazu gwiazdy o średnicy 2" należy uznać za rewelacyjny. Ale może się taki zdarzyć. Przy fotografii długoczasowej trzeba pamiętać, że seeing zmienia się w czasie - osiągnięcie 2" wydaje się mało realne. Do dalszych rozważań przyjmijmy, że udało się nam uzyskać 2,5".

3. Dokładność prowadzenia, czyli tracking (T). Można przyjąć, że nawet przy budżetowych montażach dokładność prowadzenia rzędu 1" jest zwykle do uzyskania.

Jak widać, w naszych warunkach praktycznie zawsze (bez względu na aperturę teleskopu) czynnikiem decydującym o wielkości obrazu gwiazdy jest seeing.

 

Można przyjąć, że średnica obrazu gwiazdy (FWHM wg Gaussa) wyniesie = (R^2+S^2+T^2)^1/2.

W zależności od wybranego teleskopu mamy:

a) dla małego refraktora 60 mm R=2,3" FWHM=3,54"

b) dla Newtona 200 mm FWHM=2,78"

 

Odwzorowanie na matrycy

 

Teraz możemy rozważyć nasze matryce i piksele. Powiedzmy, że mamy dwie matryce:

A z pikselem 2,5um;

B z pikselem 6,5 um.

Nie będziemy tutaj rozważać rozmiarów matryc czyli FOV, bo to nie dotyczy materii problemu.

 

Montujemy każdą z matryc do każdego z naszych dwóch teleskopów. Obliczamy skalę odwzorowania (~ 206*dpix[um]/FL[mm]) dla każdego z setupów.

I. Refraktor 60/300

1. z matrycą A: 1,72 ''/px

2. z matrycą B: 4,46 "/px

II. Newton 200/1000

1. z matrycą A: 0,52 "/px

2. z matrycą B: 1,34 "/px

 

Wg Nyquist'a optymalny wynik samplingu otrzymamy, jeżeli wielkość optyczna obrazu (Do) będzie dwa razy większa od skali optycznej (So).

 

Dla każdego z przypadków obliczmy teraz współczynnik Do/So, omawiając jednocześnie wyniki.

I.1. Do/So = 3,54"/1,72" ~ 2,1

-> Wielkość piksela dobrana idealnie.

I.2. Do/So = 3,54/4,46" ~ 0,8

-> Piksel za duży. Undersampling (za mała rozdzielczość) - szczegóły obrazu zginą na matrycy. Można spróbować radzić sobie w obróbce stosując drizzle'ing.

II.1. Do/So = 2,78"/0,52'' ~ 5,4

-> Piksel za mały. Oversampling (za duża rozdzielczość) - pomimo dużej rozdzielczości matrycy ilość szczegółów obrazu nie wzrośnie . Można spróbować radzić sobie w obróbce stosując binning.

II.2. Do/So = 2,78"/1,34" ~ 2,1

-> wielkość piksela dobrana idealnie

 

Widać więc, że kamery z małym pikselem są właściwym rozwiązaniem dla małych krótkoogniskowych teleskopów,  gdzie nie ma sensu silić się na duży (i z reguły drogi) piksel.

 

Warto zwrócić uwagę na to, jak duży wpływ na dobór piksela ma wielkość optyczna obrazu gwiazdy, wynikająca głównie z seeingu.

Omówię to jeszcze na przykładzie mojego setupu newton 200/1000 i kamery ASI294 z pikselem 4,63 um.

Przy seeingu 2,5" przyjętym do obliczeń w naszych przykładach dla mojego setupu otrzymuję Do/So ~ 2,9. Mam więc oversampling - lepsze efekty uzyskałbym zapewne z pikselem 6,5". Natomiast przy bardzo dobrym seeingu 2,0" otrzymam Do/So ~ 2,0. Czyli dla mojej kamery ASI294 idealnie. Przy jeszcze lepszym seeingu warto byłoby jednak sięgnąć po mniejszy piksel.

 

Jeszcze drobna uwaga dotycząca stosowania zbyt dużego piksela. Przy zbyt dużym pikselu obrazy wielu gwiazdek wylądują na jednym pikselu, co spowoduje w obrazie ich jednakową wielkość. Efekt "artystyczny" będzie raczej taki sobie - gwiazdki będą jak jednakowe ziarnka piasku. Nie warto więc też z wielkością piksela przesadzać.

 

Właściwości samej matrycy

1. Mniejszy piksel - mniejsza czułość, bo mniejsza powierzchnia matrycy zbiera mniej fotonów.

2. Mniejszy piksel - mniejszy SNR, jednak w nowych matrycach CMOS z małym read noise nie jest wielkim problemem.

 

Mały piksel? Zależy do czego. W wielu przypadkach będzie lepszy od dużego.

 

Pisząc to "kompendium" skorzystałem z wielu źródeł. W zakresie problemu rozdzielczości bazowałem głównie na dość obrazowym i czytelnym materiale astrojolo: https://astrojolo.com/gears/pixel-scale-and-resolution/

 

 

 

 

  • Lubię 1
  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

40 minut temu, diver napisał:

Z punktu widzenia optyki i mechaniki setupu mamy trzy podstawowe czynniki wpływające na wielkość obrazu gwiazdy.

Z punktu widzenia w którym nie bierzesz pod uwagę realnych parametrów budowanych teleskopów.

Chodzi mi o spot size, o którym pisał wielokrotnie wessel.

 

lst_spot.gif

obrazek ze strony: https://www.noao.edu/swift/proposal/node14.html

 

Przykład pokazuje o czym mówię. Każdy teleskop - każdy indywidualny egzemplarz - ma swoją dokładność wykonania. Wymiary tego spot size np. 10um definiuje - moim zdaniem - najbardziej istotny parametr do decyzji o wielkości piksela. Być może dla fali 550nm w samym środku optycznym będzie on zbliżony do rozdzielczości teoretycznej teleskopu. Ale poza centrum pojawiają się kometki, hełmy, kalafiory i rekiny. Dysponując odpowiednio małym pikselem będziesz widział te zwierzaki na matrycy. Jeśli rozmażą się w seeingu czy trackingu, to przynajmniej będą trochę zaokrąglone i nie takie straszne...

Tego nie da się obliczyć prostym wzorem, trzeba mieć spot diagram. To nam daje prawdziwe R, a właściwie jego przestrzenną dystrybucję. Wtedy można dopiero się zastanawiać.

Być może spot diagram od biedy dałoby się wyznaczyć empirycznie w domu? To by był wreszcie jakiś postęp w temacie "Jaki wziąć piksel do mojego teleskopu?".

 

Z ciekawych efektów fizycznych dorzucających swoje kamyki do ogródka jest jeszcze "crosstalk" czyli wpadanie fotonów do niewłaściwych pikseli - przenikanie przez ściany, rosnące wraz z długością fali (w 1200nm krzem jest przezroczysty...)

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

18 minut temu, Behlur_Olderys napisał:

Z punktu widzenia w którym nie bierzesz pod uwagę realnych parametrów budowanych teleskopów.

Chodzi mi o spot size, o którym pisał wielokrotnie wessel.

 

Masz rację Bartek, nie rozważałem oczywiście wad optycznych teleskopu. I masz rację, że spot size (a może raczej spot shape) wynikający z wad optyki będzie zwykle jakimś bohomazem, dalekim w kształcie od koła. Możemy więc dodać na wstępie ten czwarty czynnik wpływający na wielkość (kształt, jakość) obrazu gwiazdy.

 

Ale jak to się ma do rozważań o skali i wielkości piksela? Jeżeli spot size byłby większy niż seeing factor, to rzeczywiście mógłby być on czynnikiem decydującym o wyborze większego piksela. Jeżeli oczywiście przyjmiesz metodę utopienia bohomaza w jednym pikselu. Czyli duży piksel dobry na wszystko. ;)

Jeżeli @wessel używający niezłej optyki Takahasi musi topić swój spot size w jednym pikselu, to co mają robić inni używający bardziej budżetowych refraktorów? Kupować drogie kamery z wielkim pikselem, dzięki któremu jednocześnie ze względu na undersampling uzyskają "mydło"? To może lepiej zainwestować w lepszą optykę i używać piksela stosownego do seeingu?...

Odnośnik do komentarza
Udostępnij na innych stronach

W dniu 17.02.2021 o 17:58, kubaman napisał:

Jedyny problem to taki, że to kompletne bzdury. Oba efekty wynikają z mojego lamerstwa w obróbce o czym pisałem wyżej.

Też tak sądzę jak @kubaman. Można sobie kliknąć raz za dużo lub popełnić inny mały błąd i takie rzeczy wyskakują. Wie to każdy z nawet z niewielkim doswiadczeniem. Coś mi się wydaje że niektórzy "xxx" na tym forum lubią toksyczne rozmowy nie prowadzące do niczego. 

Odnośnik do komentarza
Udostępnij na innych stronach

20 godzin temu, Behlur_Olderys napisał:

Wymiary tego spot size np. 10um definiuje - moim zdaniem - najbardziej istotny parametr do decyzji o wielkości piksela.

Tyle tylko, że "spot size" nie uwzględnia w ogóle zjawiska dyfrakcji, to jest tylko to, co nam wychodzi z optyki geometrycznej. Na dobrą sprawę to akurat więcej mówi o jakości optyki - jak spot size mieści się w obrębie dysku Airy'ego, to można przyjąć, że dany obiektyw jest "ograniczony dyfrakcyjnie". Choć to kryterium też nie jest bez wad.

 

Do ustalenia optymalnej wielkości piksela więcej sensu ma np. parametr "encircled (a dla piksela to właściwie ensquared) energy", czyli ilość energii z punktowego źródła wpisana w koło (kwadrat) o danym rozmiarze.

Odnośnik do komentarza
Udostępnij na innych stronach

57 minut temu, Krzysztof z Bagien napisał:

Tyle tylko, że "spot size" nie uwzględnia w ogóle zjawiska dyfrakcji, to jest tylko to, co nam wychodzi z optyki geometrycznej. Na dobrą sprawę to akurat więcej mówi o jakości optyki - jak spot size mieści się w obrębie dysku Airy'ego, to można przyjąć, że dany obiektyw jest "ograniczony dyfrakcyjnie". Choć to kryterium też nie jest bez wad.

 

Do ustalenia optymalnej wielkości piksela więcej sensu ma np. parametr "encircled (a dla piksela to właściwie ensquared) energy", czyli ilość energii z punktowego źródła wpisana w koło (kwadrat) o danym rozmiarze.

 

 

To się wszystko sprowadza do porównania pewnych wielkości - metodycznie, jak już zapoczątkował @diver

W najprostszym wypadku trzeba wybrać największą z wielkości: seeing, dyfrakcja, tracking, spot size. Moim zdaniem rozdzielczość teoretyczna - wynikająca z samej dyfrakcji - niemal zawsze będzie najmniej liczącym się przyczynkiem. 

Poza tym zwracam uwagę na jedną pomijaną chyba jak dotąd rzecz: dyfrakcja, seeing nie zmieniają się zasadniczo w rogu matrycy vs środek. A wady optyczne (spot size) - jak najbardziej. Pytanie, czy chcemy mieć całe pole wolne od aberracji?

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

16 minut temu, Behlur_Olderys napisał:

 

 

To się wszystko sprowadza do porównania pewnych wielkości - metodycznie, jak już zapoczątkował @diver

W najprostszym wypadku trzeba wybrać największą z wielkości: seeing, dyfrakcja, tracking, spot size. Moim zdaniem rozdzielczość teoretyczna - wynikająca z samej dyfrakcji - niemal zawsze będzie najmniej liczącym się przyczynkiem. 

Poza tym zwracam uwagę na jedną pomijaną chyba jak dotąd rzecz: dyfrakcja, seeing nie zmieniają się zasadniczo w rogu matrycy vs środek. A wady optyczne (spot size) - jak najbardziej. Pytanie, czy chcemy mieć całe pole wolne od aberracji?

 

 

Jeszcze raz - spot size to jest konstrukt bardzo teoretyczny, niemający zbyt wiele wspólnego z rzeczywistością - co sprawia, o tejże rzeczywistości mówi niewiele. A jak już chce się na jego podstawie wyciągać jakieś wnioski, to trzeba dobrze rozumieć co się właściwie widzi i jakie są tego ograniczenia. Tak, zmienia się z odległością od osi optycznej - ale, jak pisałem, to nie jest cała historia. Jest sporo parametrów dużo lepiej opisujących to, co się z obrazem dzieje, uwzględniających zarówno optykę geometryczną jak i dyfrakcję. I lepiej nadających się do ustalenia optymalnego rozmiaru piksela.

Jak narysujesz sobie spot diagram dla np. lustra parabolicznego, to na osi dostaniesz punkt, taki geometryczny o zerowej średnicy - co by sugerowało, że zdolność rozdzielcza na osi jest nieskończona (i że można użyć dowolnie małych pikseli i będzie git). A przecież tak nie jest. Tak więc - przydatne narzędzie, ale z (dużymi) ograniczeniami, o których trzeba pamiętać.

Odnośnik do komentarza
Udostępnij na innych stronach

2 godziny temu, Krzysztof z Bagien napisał:

Jest sporo parametrów dużo lepiej opisujących to, co się z obrazem dzieje, uwzględniających zarówno optykę geometryczną jak i dyfrakcję. I lepiej nadających się do ustalenia optymalnego rozmiaru piksela.

 

Oczywiście, cały czas zmierzamy do ustalenia co i jak. Ja cały czas pamiętam, że sygnał od gwiazdy jest splatany po kolei z seeingiem, optyką/dyfrakcją, crosstalkiem itp. 

 

Moim zdaniem mamy do czynienia ze splotem przynajmniej 5 funkcji:

(spot image)*(Airy pattern)*(seeing Gauss)*(crosstalk Gauss)*(tracking1)

Teraz uprośćmy matematykę maksymalnie i powiedzmy, że wszędzie mamy gaussiany i każda funkcja ma swój FWHM.

 

(znając RMS spot image, który zazwyczaj jest podawany można zamodelować go gaussianem, bo tam RMS oznacza - zdaje się - po prostu standardowe odchylenie).

 

Przy splataniu gaussianów powstaje kolejny gaussian, a FWHM dodają się w kwadratach pod pierwiastkiem, jak to zauważył @diver, więc nasz ostateczny obraz gwiazdy  na matrycy będzie po prostu kolejną funkcją gaussa o FWHM w którym każdy parametr jest brany pod uwagę.

 

Szacując przynajmniej te 3 najoczywistsze czynniki: spot size, seeing i średnicę Airego, a potem wstawiając do wzoru - moim zdaniem - dostajemy pierwszy rząd przybliżenia wielkości realnego obrazu gwiazdy na matrycy.

 

Następny krok to oczywiście zmierzyć te obrazy dla konkretnej gwiazdy zmieniając niezależnie każdy z 3 parametrów.

Może być problem z seeingiem :)

Ale po takim doświadczeniu można by zweryfikować, na ile to przybliżenie jest ok, wyciągnąć jakieś wnioski na przyszłość itp. W ten sposób akt eksperymentu wiąże ze sobą teorię i rzeczywistość :)

 

 

 

 

 

1 tracking to najczęściej kreska. Ja bym w ogóle się akurat montażem nie przejmował, gdy mówimy o optyce.

Odnośnik do komentarza
Udostępnij na innych stronach

  

51 minut temu, trouvere napisał:

Jestem przekonany, że wielkość jak i kształt spot 'a powinien być parametrem zmierzonym a nie teoretycznym, jeśli jest "teoretyczny" to w rzeczywistości jest jeszcze gorzej, jako nieunikniony rozrzut produkcyjny.

Teoria a rzeczywistość niekoniecznie są ze sobą ściśle powiązane.

Spot size, w takim rozumieniu jak Bartek pisał, to parametr obliczony, a nie zmierzony. I w ogóle nie uwzględnia też ewentualnych niedoskonałości produkcyjnych - to jest to, co wynika z praw optyki geometrycznej i przy założeniu teoretycznego idealnego obiektywu. Nawet dla idealnie wykonanej optyki, i nawet bez uwzględniania dyfrakcji, obrazem punktowego źródła światła bardzo rzadko jest punkt.

Odnośnik do komentarza
Udostępnij na innych stronach

34 minuty temu, Behlur_Olderys napisał:

znając RMS spot image, który zazwyczaj jest podawany można zamodelować go gaussianem

No nie do końca, a właściwie to wcale :) - ważny jest też kształt tego spot image, czyli inaczej mówiąc - z jakich aberracji on się bierze, bo jedna drugiej nierówna.

Na ten przykład - cytuję, bo sam taki mądry nie jestem - astygmatyzm dający wg. praw optyki geometrycznej obraz punktu rozmyty do rozmiarów dysku Airy'ego zmniejsza kontrast (MTF - funkcję przenoszenia modulacji) obrazu o 46%, a aberracja sferyczna dająca takie samo rozmycie - o 2%. Nawet jak RMS wyjdzie taki sam dla różnych aberracji, to efekt końcowy może być bardzo różny.

https://www.telescope-optics.net/effects1.htm#Similar

"Simply put, there is no useful causal relationship between distribution of rays and diffraction image."

 

Edytowane przez Krzysztof z Bagien
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.