Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 052
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Piotr K.

  1. Wieśku, jeśli uważasz, że jest w tym jakiś błąd logiczny albo obliczeniowy, to wykaż go, proszę.
  2. Dobra, to jeszcze raz. Na jeden piskel o QE 60% padło 1000 fotonów, z czego zarejestrowało się 600. To jest nasz sygnał. Szum tego sygnału (nasza niepewność co do rzeczywistej liczby fotonów) wynosi pierwiastek z tego, czyli 24,5. SNR = 24,5. Jeśli masz 4 piksele na tej samej powierzchni, to na każdy z nich, średnio biorąc, padnie nie 1000, tylko 1/4 z tego, czyli ok. 250 fotonów. Z tego w każdym pikselu zarejestruje się 90%, czyli ok. 225 fotonów. Szum takego sygnału, czyli nasza niepewność co do rzeczywistej liczby fotonów lecących z nieba, ponownie wynosi pierwiastek z tego, czyli ok. 15. Czyli nasz SNR wynosi ok. 15. Czyli dla dwa razy mniejszych pikseli o QE 90% SNR jest ok. 1,6x gorszy, niż dla pikseli większych, ale o QE 60%. Masz bardziej szczegółowy, ale bardziej zaszumiony obraz. Mimo, że na obie matryce padła ta sama liczba fotonów.
  3. Kolego - tak. ALE SNR liczby tych fotonów będzie inny. Lepszy dla tych zsumowanych, bo jest ich więcej. Czy Ty w ogóle wiesz, co to jest sygnał, i co to jest szum? Skąd się to bierze, i dlaczego jest tak, że szum rośnie z pierwiastkiem?
  4. @holeris No i o to dokładnie chodzi. To jest w gruncie rzeczy banalnie proste, więc też nie rozumiem, dlaczego to budzi taką zażartą dyskusję. Na obie matryce z Twojego przykładu spadnie dokładnie tyle samo fotonów. Tyle że jedna da mało zaszumiony, ale mało szczegółowy obraz, a druga bardziej szczegółowy, ale też bardziej zaszumiony, bo na jeden piksel przypadnie mało fotonów. A obraz jest tworzony przez piksele, a nie przez matyce jako całość. Więc większy szum na pikselach = większy szum na całym obrazie. I nie ma znaczenia, że na obie matryce pada tyle samo fotonów, ważne jest to, ile pada na piksel.
  5. Kolejny bardzo merytoryczny i przemyślany argument
  6. Rozmiar matrycy nie, ale rozmiar piksela - jak najbardziej. Proszę bardzo, na przykładzie ED-ka 80: Mamy teleskop o aperturze 80 i ogniskowej 600 mm, zakładamy do niego reduktor ogniskowej 0,85x i mamy ogniskową 510 mm. Czyli światłosiła f/6.375. Gdy założymy do niego np. aparat Canon 1100D, z pikselem 5,2 um, to mamy skalę 2,10 arcsec/px. QE tego piksela wynosi 36%, czyli efektywna powierzchnia piksela to 5,2x5,2x0,36=9,73 um^2 To teraz zakładamy do tego samego teleskopu z reduktorem Canona 6D, z pikselem 6,54 um. Skala, czyli szczegółowość odwzorowania, spada nam do 2,64 arcsec/px. QE pikseli Canona 6D wynosi ok. 50%, więc efektywna powierzchnia tych pikseli to 6,54x6,54x0,5=21,38 um^2. To oznacza, że piksele Canona 6D łapią 21,38 / 9,73 = 2,19 więcej światła. Ale RÓWNOCZEŚNIE TRACIMY ROZDZIELCZOŚĆ, czyli tak, jakbyśmy robili binowanie, albo skracali ogniskową. A skrócenie ogniskowej, przy tej samej aperturze, to nic innego jak zmniejszenie światłosiły. No to liczymy - światłosiła 6,375^2=40,64, tę wartość dzielimy przez 2,19 i otrzymujemy 18,55. Z tego wyciągamy pierwiastek kwadratowy, i otrzymujemy światłosiłę ok. 4,3. Czyli dzięki założeniu do teleskopu ED80 z reduktorem, o światłosile f/6,375, Canona 6D zamiast Canona 1100D, uzyskujemy taki efekt, jakbyśmy z Canonem 1100D mieli teleskop f/4,3, który nam szybciej łapie światło. Oczywiście, teoretycznie podobny efekt uzyskamy, po prostu binując obraz z Canona 1100D. Ale nie wiem, jak bardzo to wpłynie na szczegółowość tak przekształconego obrazu w stosunku do natywnego obrazu z Canona 6D.
  7. Dobra, to odpowiedz mi na pytanie - czy 2,5x większy piksel złapie 2,5x więcej fotonów, czy nie? Gdzie napada więcej deszczu w tej samej jednostce czasu - do wiadra, czy do szklanki? W wartościach bezwględnych. Wciąż nie możemy się dogadać, ani z Tobą, ani z Wieśkiem we wcześniejszej dyskusji. Oczywiście, że na matryce o tych samych rozmiarach pada tyle samo fotonów. Tego nie kwestionuję. Ale jeśli dana matryca ma większe piksele, to automatycznie jest ich mniej, i każdy z nich złapie w siebie więcej padających fotonów, niż gdy piksele są mniejsze, i jest ich więcej. Jeśli w danym pikselu masz złapane 1000 fotonów, to szum tej informacji będzie równy pierwiastek z 1000 czyli 31, czyli SNR też jest równy 31. Jeśli w danym, mniejszym pikselu, złapiesz powiedzmy 500 fotonów, to szum tej informacji jest wyższy, bo pierwiastek z 500 to ok. 22, czyli SNR jest równy 22. Czyli w większych pikselach masz mniejszy szum, bo łapią więcej fotonów. Ale równocześnie przy większych pikselach tracisz informację przestrzenną, bo dają Ci niższą rozdzielczość. Jest to proces analogiczny do skracania ogniskowej - jeśli przy zachowanej średnicy apertury zmniejszysz ogniskową, to stracisz na rozdzielczości (bo skala odwzorowania stanie się mniej szczegółowa, bo zmaleje obraz padający na tą samą matrycę), ale zyskasz na SNR, bo na jeden piksel będzie leciało więcej fotonów. Równie dobrze to co piszę można przedstawić tak, że liczba fotonów jakie łapiemy w jednostce czasu w pikselu zależy od tego, z jakiej powierzchni nieba w arcsec^2 lecą nam na ten piksel fotony. Jeśli obejmujemy pikselem 2x większy kawałek nieba, to wpada nam w ten piksel 2x więcej fotonów. A 2x więcej fotonów to 1,4x mniejszy szum, bo pierwiastek z 2 to ok. 1,4. Pełna zgoda, że jest to również proces analogiczny do binowania. Ale pokaż mi kogoś, kto kupuje np. kamerę ASI183, z pikselem 2,4 um, tylko po to, żeby binować z niej obraz, żeby uzyskać odpowiednik piksela 4,8 um. Kamerę z małym pikselem kupuje się po to, żeby mieć bardziej szczegółowy obraz. Ale wtedy trzeba się liczyć z tym, że ten obraz będzie też bardziej zaszumiony, i że, aby uzyskać ten sam poziom SNR (bez binowania), to trzeba będzie proporcjonalnie palić dłuższe całkowite ekspozycje. O tyle dłuższe, o ile mniejsza jest powierzchnia piksela naszej ASI183 w porównaniu do piksela kamery, którą stosowaliśmy wcześniej, z uwzględnieniem QE obu tych kamer. To są podstawowe zależności, i arytmetyka na poziomie szkoły podstawowej, więc naprawdę nie wiem, czemu tak trudno jest mi wytłumaczyć o co w tym chodzi. I mega mnie też dziwi, że wygląda na to, że większośc użytkowników astrofoto w ogóle się nad tym nie zastanawia, i być może traktuje tego typu wyliczenia jak jakąś czarną magię, albo pseudonaukowy bełkot. Wg mnie zrozumienie podstaw tego, jak działa łapanie fotonów w piksele, i co z tego wynika, jest jak najbardziej pomocne i pomaga zrozumieć, co się tak naprawdę dzieje. Gdy czytam o tym, że matryca o QE = 80% łapie więcej światła niż matryca o QE=60%, to reaguję, ponieważ właśnie to jest dezinformacja - a raczej informacja niepełna. Bo jak masz matrycę z małym piskelem o QE=80%, to obraz z niej będzie bardziej szczegółowy, ale bardziej zaszumiony, niż obraz z matrycy z większym pikselem ale o QE=60%. Dopiero uwzględniając QE i rozmiar piskela, łącznie, można świadomie podejmować decyzje zakupowe. Zdając sobie sprawę, co się łączy z inwestycją w kamerę z mniejszym czy większym pikselem. W którym konkretnie miejscu wyginam pojęcia? Przedstawiam konkretne obliczenia, i tłumaczę, dlaczego są ważne i uzasadnione. Jeśli widzicie w tych obliczeniach jakiś błąd, logiczny albo obliczeniowy, to wskażcie go, proszę. Ale jak na razie z mojej strony są obliczenia, a z drugiej machanie rękami, powtarzanie "nie bo nie", "to tak nie działa" itp. Kolega ZbyT, który również rozumie o co w tym chodzi, a łeb ma nie od parady (znamy się osobiście), napisał toczka w toczkę to samo co ja - i został zagadany również machaniem rękami i tupaniem nóżką, oraz odesłaniem do kąta, żeby się douczył, zamiast merytorycznej dyskusji. Stoi za tym chęć wytłumaczenia userom, o co w tym chodzi. Żeby zrozumieli, jak to działa, i mogli podejmować świadome decyzje zakupowe. Żeby np. nie pojawiały się kwiatki typu "gdy jest gorąco, to należy palić krótkie klatki, żeby się nie kumulował szum termiczny", i tym podobne (wiem, że akurat ten temat nie ma większego związku z niniejszą dyskusją). A tego co piszę nie wyssałem sobie z palca - źródła, z których można się dowiedzieć co i jak podałem w poprzednim wątku, tym o wystarczającej ilości materiału. Ponadto polecam też ksiązki Deep Sky Imaging Primer oraz Digital SLR Astrophotography, tam są te rzeczy również omówione. Spędziłem nad tym wszystkim ze dwa miesiące, na przełomie 2022/2023, bo się uparłem, że zrozumiem wreszcie o co chodzi z magicznym symbolem e-/ADU. Rozkminiłem to, pomierzyłem parametry matryc moich aparatów i kamery, i śmiem twierdzić, że załapałem podstawy. Żadnym mega-fachowcem nie jestem, ale ideę rozumiem, i dlatego potrafię sobie policzyć, co do czego warto dobrać, żeby to miało sens. I dlatego piszę tu od czasu do czasu na forum, żeby się tą wiedzą podzielić.
  8. Nie bardzo rozumiem, co ma piernik do wiatraka... Czy u nas jakieś gorsze obiekty na niebie są? Bardziej krzywe? Światło z nich leci jakieś inne? Pełna klatka, o ile się chce korzystać z pełnego FOV, jakie zapewnia (a gdy się wydaje ogromne kwoty na chłodzoną kamerę FF, to raczej się chce, bo inaczej to nie ma sensu), wymaga dobrej optyki, kryjącej taki duży sensor. Tu zgoda. Ale z drugiej strony, w matrycach FF zwykle są duże piksele, które pomagają te wady trochę zamaskować. Poza tym te duże piksele łapią dużo światła (co z jakiegoś powodu nie może się przebić do świadomości dyskutantów ), więc umożliwiają szybsze łapanie wystarczającej ilości materiału. Więc jak najbardziej pod nasze polskie zaświetlone i zachmurzone niebo się nadają, i to nawet bardziej niż pod ciemne niebo. To prawda, im większy FOV, tym trudniej z gradientami. Ale jeśli ktoś ogarnia gradienty w ASI2600 podpiętej do ogniskowej ok. 400 mm, to ogarnie także gradienty w ASI2600 podpiętej do ogniskowej 600 mm, bo FOV obu tych zestawów są bardzo podobne. Wpiszcie sobie dane teleskopów i matryc w jakąś apkę typu Sky Safari czy inne Stellarium, albo w Telescopius.org, i sami sprawdźcie. Ja też nie miałem, ale zamierzam kupić Canona 6D, i podpiąć go do ED-ków 80 i 120 z reduktorami 0,85x. Zapewne będę musiał robić cropa do rozmiaru APS-C, bo wątpię żeby gwiazdki na rogach były akceptowalne - ale podpięcie matrycy z tak dużym pikselem pozwoli wykorzystać te teleskopy tak, jakby miały f/4,5 (w porównaniu do używania ich np. z Canonem 1100D).
  9. Oczywiście, że zbiera. Nie kamera, tylko piksel tej kamery. Piksel ASI2400 jest ok. 2,5x większy niż piksel ASI2600 - więc w tej samej jednostce czasu łapie 2,5x więcej fotonów. Równocześnie tracąc na szczegółowości obrazu. Jest to proces analogiczny do binowania. Pewnie, że mniejsze piksele można zbinować - ale nie mówimy o binowaniu, tylko o tym, ile fotonów w jednostce czasu leci na piksel w rozdzielczości natywnej. Gdzie tu widzisz dezinformację?
  10. A można też np. w Sirilu, po zrobieniu plate solve'a (albo kalibracji fotometrycznej, która też robi solve'a), zaznaczyć ramką wybrany fragment nieba z jakimś obiektem (trzeba się przełączyć na któryś kolor, w łączonym RGB nie działa), kliknąć prawym klawiszem myszy, wybrać "PSF" i "More details", i od razu przekierowuje nas na stronę Simbada.
  11. A czy dane są widziane na tych nośnikach z poziomu ASIair? Ja zawsze robię tak, że karty SD mam na stałe włożone w ASIair. Obrazy są widoczne w apce ASIair na smartfona w dziale Image Management, w osobnych katalogach. Jeśli chcę coś ściągnąć na dysk laptopa, to podłączam się laptopem do hotspota WiFi utworzonego przez ASIair, wchodzę w Eksploratora plików w Windowsie, wpisuję "\\asiair", żeby przejść do katalogów na nośniku włożonym w ASIair, i stamtąd ściągam dane na dysk lapka przez WiFi. Za moich czasów ZWO tę metodę zalecało jako najwłaściwszą, ale jak jest teraz, to nie wiem. Nie mam najnowszych wersji ASIair, korzystam z wersji Pro.
  12. Mieszkać gdzieś, gdzie często jest czyste niebo. Druga w kolejności jest zdalna buda pod czystym niebem, albo karnet na linie lotnicze, którymi np. w dwa weekendy w miesiącu mógłbym latać pod czyste niebo. Podkreślam - CZYSTE. Nie musi być ciemne, wystarczy mi czyste. Bo brak ciemnego nieba zrekompensuję sobie długością łącznej ekspozycji i/lub filtrami NB, a brak pogody jest jednoznaczny z niemożnością focenia.
  13. Jeśli rozważasz te kamery w kontekście ASKAR-a 600 mm z możliwością założenia reduktora 0,7x (ogniskowa spada do 420 mm), to wygląda to tak (teoretycznie, bo żadnej z tych kamer, ani takiego teleskopu, nie miałem i raczej nie zamierzam mieć, nawet gdyby mnie było stać): Po pierwsze, teoretyczna rozdzielczość optyczna idealnego obiektywu 108 mm wynosi plus/minus 1,06 arcsec (115/108, wg kryterium Dawesa). Założenie do ogniskowej 600 mm kamery ASI2600 z sensorem 3,76 um da Ci skalę obrazowania 1,29 arcsec/px, czyli trochę powyżej teoretycznego optycznego ideału - czyli wg mnie w sam raz, bo zawsze są jakieś aberracje optyczne, które ten ideał zaburzają. No i mamy jeszcze seeing w Polsce, dla którego skala 1,3" jest całkiem rozsądna, a już całkiem dokładna. Tyle że to będzie f/5,6, czyli dość ciemno - w porównaniu do np. f/4 musisz mieć dwa razy dłuższą łączną ekspozycję, żeby osiągnąć ten sam SNR. Po założeniu reduktora 0,7x ogniskowa spada do 420 mm, a z kamerą ASI2600 skala rośnie do 1,85 arcsec/px, czyli bardzo sensowna dla większości obiektów. No i masz wtedy f/3,9, czyli już jasny sprzęt. Natomiast zakładając do ASKAR-a 600 kamerę ASI2400 z pikselem 5,94 um to, pomijając większe pole widzenia, zyskujesz jedną, bardzo ważną w ciagle zachmurzonej Polsce rzecz - dzięki ogromnemu pikselowi ta kamera zbiera w tym samym czasie 2,5x więcej światła niż ASI2600. Czyli w godzinę zbierasz nią tyle samo materiału, co w 2,5 h kamerą ASI2600 (obie mają QE na poziomie 80%, więc decyduje różnica w powierzchni pikseli). ALE tracisz na rozdzielczości obrazu, bo przy ogniskowej 600 mm masz skalę 2,04 arcsec/px (całkiem sensowne, ale masz undersampling i nie wykorzystujesz w pełni rozdzielczości optycznej obiektywu), a po założeniu reduktora 0,7x skala jest jeszcze mniej dokładna, czyli 2,9 arcsec/px. Dobra do rozciągłych obiektów, ale galaktyczki będą pikselami. Ale za to zbierasz materiał 4x szybciej niż używając ASKAR-a 600 bez reduktora z kamerą ASI2600. No więc musisz sobie odpowiedzieć na pytanie, co jest dla Ciebie ważniejsze - szczegółowość obrazu (wtedy ASI2600), czy szybkość zbierania materiału (wtedy ASI2400). BTW, zakładając ASI2600 do ASKAR-a 600 z reduktorem 0,7x uzyskujesz mniej więcej to samo, co zakładając ASI2400 do ASKAR-a 600 bez reduktora. Podobna skala, podobny FOV, podobna szybkość zbierania materiału.
  14. @Behlur_Olderys tu jest wszystko opisane (dzięki @JKbooo za namiar na ten filmik): How I discovered the Hummingbird Nebula - YouTube
  15. Prawdopodobnie stożek rozogniskowanej podczerwieni jest węższy przy f/6 niż przy f/2,8. No i dodatkowo Twój refraktor może być lepiej skorygowany na podczerwień niż Samyang 135 mm.
  16. A masz możliwość dołożenia w zestawie dodatkowego filtra IR-cut? Tak żeby sprawdzić, czy to halo nie jest spowodowane rozogniskowaną podczerwienią. BTW, komuś już gdzieś na forum to pytanie zadawałem, ale Tobie chyba jeszcze nie (jeśli tak, to sorry za krótką pamięć ).
  17. A czy ten Twój filtr był może mierzony przez dobregochemika? Wiadomo, co tam się dzieje w paśmie podczerwieni?
  18. No to skoro już tak się nawymądrzałem , to jeszcze ostatnia uwaga, tym razem językowa - przy odmianie obcojęzycznych wyrazów apostrof dajemy tylko wtedy, gdy ostatnia litera obcego wyrazu jest niewymawiana. Np. iPhone -> iPhone'a, ponieważ ostatnie "e" w słowie iPhone jest niewymawiane (mówimy "ajfon"). Taka jest funkcja tego apostrofu - pokazać, że literka przed nim jest niewymawiana. Gdy wyraz kończy się na literę wymawianą, to odmieniamy go normalnie, bez apostrofu. Czyli używasz NoiseExterminatora Podobnie jak Facebooka, iOptrona, Taira (taki obiektyw), Samyanga itp. A swoją drogą zastanawia mnie, że prawie nikt nie próbuje używać przy odmianie obcych lub wątpliwych wyrazów np. myślników. W większości przypadków jest to apostrof - tak jakby nic innego nie przychodziło ludziom do głowy...
  19. Odpowiedzi pojawiły się już w tym wątku. Nie ma (a przynajmniej ja nic o tym nie wiem). Tzn. są kalkulatory optymalnego minimalnego czasu pojedycznej ekspozycji (tzw. suba), uwzględniające szumy kamery i poziom LP, ale nikt Ci nie policzy, ani nie powie, jaki jest optymalny czas łącznej ekspozycji np. dla Veila z takiego a takiego zestawu do astrofoto. Po prostu robisz sesję iluś-godzinną, w dzień to stackujesz, wyciągasz, i patrzysz czy poziom szumu jest dla Ciebie za wysoki, czy nie. Jeśli tak, to strzelasz drugą sesję, pamiętając o tym, że w miarę istotną zmianę uzyskasz nie po dwukrotnym wydłużeniu łącznej ekspozycji, tylko po czterokrotnym, i tak do skutku Ponadto pamiętaj też proszę, że od jakiegoś czasu są w obróbce w użyciu różne programy odszumiające, oparte na AI, które pozwalają idealnie wygładzić zdjęcia. Więc nie sugeruj się niemal zerowym poziomem zaszumienia zdjęć prezentowanych tu na forum - to jest wynik sztucznego odszumiania, a nie reprezentatywny efekt, wynikający z liczby godzin naświetlania. Myślę, że warto o tym wspomnieć, zanim ten czy ów początkujący zacznie się załamywać, że nigdy nie uzyskuje takich zdjęć
  20. Nie chcę się już w tym miejscu wdawać w rozważania nt. szumu odczytu. I tak dyskusja zrobiła się zbyt długa i skomplikowana, i pewnie mało kto wytrwale i ze zrozumieniem ją przeczyta. @dobrychemik, wiadomo, że jest tysiąc innych dodatkowych zmiennych, które wpływają na to, jak wygląda obraz. Ale nie chodzi w tej chwili o te różne dodatkowe szczegóły, tylko o podstawę. A podstawa jest taka, że SNR obrazu zależy od tego, ile fotonów zostanie złapanych przez piksele. A nie przez matrycę jako taką. Zainteresowanych pogłębieniem wiedzy i lepszym zrozumieniem jak to działa jak zawsze odsyłam do lektury artykułow z serii Fishing for photons na Cloudy Nights: Fishing for Photons - Articles - Articles - Cloudy Nights Wszystkich artykułów, zaczynając od tego na samym dole listy. W nich jest wyjaśnione to wszystko, co wyżej napisałem. Bardzo przydatna jest też lektura tego wątku: Sony IMX183 mono test thread - ASI, QHY, etc. - Beginning Deep Sky Imaging - Cloudy Nights Ma 48 stron, ale warto się przez to przegryźć, bo można tam wyłuskać dużo ciekawych rzeczy. Ale to raczej już po przeczytaniu i zrozumieniu serii Fishing for photons.
  21. @LibMar Ja absolutnie nie twierdzę, że chłodzone kamery astro z niskim szumem odczytu są gorsze od DSLR-ów Jeśli np. będziesz focił w wąskich narrowbandach (masło maślane, ale chodzi mi o węższe niż np. 12 nm czy 7 nm), to może się okazać, że jasność tła obrazu będzie zbyt niska, żeby wyjść ponad szum odczytu i ponad szum termiczny. Pamiętaj też, że Canon 6D ma te swoje osiągi dzięki temu, że ma gigantyczny piksel, łapiący bardzo dużo światła. Ale tracisz na szczegółowości obrazu. Dlatego ja zamierzam zakładać C6D (gdy już się trochę odbiję finansowo i go kupię) do w miarę długich teleskopów, typu ED80 czy ED120, żeby mieć w miarę szczegółowy obraz. Sam rozmiar matrycy nie ma tu znaczenia. Nie liczę na to, że ED-ki 80 i 120 będą mi kryły pełną klatkę, mam zamiar robić cropy do rozmiaru APS-C. To co się liczy to rozmiar piksela, i to, ile światła dzięki temu łapie.
  22. Ależ tak. Zupełnie tak! I nie tylko można, ale nawet trzeba Właśnie nie. Własnie ważne jest to, co zbiera pojedynczy piksel (bo rozumiem, że to masz na myśli, pisząc "sensor"). To nie cała matryca ma jakieś QE, tylko pojedynczy piksel tej matrycy. Bo to on jest najbardziej podstawową jednostką, łapiącą fotony (patrz np. schemat w połowie wysokości tej stronki). To dlatego skalę obrazu podaje się w arcsec/px - bo to jest po prostu powierzchnia nieba, z której fotony trafiają do naszego pojedynczego piksela. Dla tego pojedynczego piksela nie ma kompletnie żadnego znaczenia, czy obok niego są jeszcze jakieś inne piksele, czy nie. On po prostu łapie te fotony, które do niego wpadają, i gromadzi elektrony, z taką wydajnością, jakie ma QE. Im większy ten piksel jest, tym więcej złapie fotonów w czasie jednej ekspozycji. A im więcej fotonów w czasie jednej ekspozycji, tym silniejszy jest sygnał, a im silniejszy sygnał, tym lepszy SNR (ponieważ sygnał rośnie liniowo, a szum z pierwiastkiem). Prosty przyklad: Załóżmy, że nasz teleskop, o danej światłosile, w danej jednostce czasu daje nam strumień 100 fotonów na mikrometr kwadratowy (um2). I załóżmy, że QE piksela wynosi 100%. Zapomnijmy też na chwilę, czy te fotony to tylko sygnał z obiektu, czy też dodatkowo z LP, zapomnijmy o szumie prądu ciemnego itp. Leci nam 100 fotonów na um2. Jeśli teraz pod ten strumień fotonów wstawimy matrycę np. ASI1600, o pikselach mających rozmiar 3,8 um, czyli o powierzchni 14,44 um2, to łatwo policzyć, że w danej jednostce czasu złapie nam się 1444 fotony. Szum to pierwiastek z tego, czyli 38 fotonów. Taka jest nasza niepewność co do dokładności tego jednorazowego pomiaru. Nasz SNR wynosi zatem 1444 / 38 = 38 (tak się składa, że dla pojedynczego źródła sygnału dyskretnego SNR = szum tego sygnału). To teraz weźmy piksel np. Canona 1100D, który ma 5,2 um. Powierzchnia to 27,04 um2, a ona złapie nam w tej samej jednostce czasu 2704 fotony. Szum, czyli nasza niepewność pomiaru, to - ponownie - pierwiastek z tego, czyli 52. Czyli nasz SNR jest równy 52. Czyli mamy wyższy stosunek sygnału do szumu, czyli nasze oszacowanie rzeczywistej wartości sygnału jest dokładniejsze. I to nie są jakieś podejrzane, naciągane wyliczenia, na podstawie których można udowodnić cokolwiek, tylko fakty. Im większe masz wiaderko łapiące deszcz, tym więcej tego deszczu w to wiaderko złapiesz. A w szklankę złapiesz mniej, mimo że oba urządzenia łapią krople deszczu z "wydajnością deszczową" 100% Innymi słowy, zwiększając wielkość piksela, który łapie fotony, poprawiasz SNR. To właśnie dlatego robi się binning, prawda? Zmniejszasz rozdzielczość obrazu, tracąc informację przestrzenną, ale zyskujesz na SNR, ponieważ łączysz sygnał np. z czterech pikseli. A 4x więcej sygnału to tylko 2x więcej szumu (zakładając idealny binning). Jeśli pisząc "sensor" masz tym razem na myśli matrycę, to niestety, ale nie. To nie matryca jest pojedynczą jednostką gromadzącą fotony, pojedynczym fotodetektorem. Jest nim piksel. Piksel o QE 60% zamieni na informację 60% fotonów. Piksel o QE 80% zamieni na informację 80% fotonów - tu pełna zgoda. Ale LICZBA tych fotonów, padających na dany piksel, zależy od rozmiaru tego piksela. Duży piksel o QE 60% złapie 60% z większej liczby fotonów, mały piksel o QE 60% złapie 60% z mniejszej liczby fotonów. Dokładnie to, co wynika ze znaczenia tego określenia Efektywna wielkość piksela - czyli jest to taki ekwiwalent, pozwalający porównywać między sobą efektywność łapania fotonów przez różne piksele. Czyli zakładając jakiś rozmiar i QE piksela, możemy sobie policzyć, jak duży byłby piksel o QE 100%, łapiący tyle samo fotonów. Dzięki temu możemy np. porównywać czy piksel o wielkości 5,2 um i QE 36% złapie w rzeczywistości mniej czy więcej fotonów niż piksel o wielkości 2,4 um i QE 84%. Czyli wg mnie bardzo użyteczne narzędzie I faktycznie, ja też nigdzie nie spotkałem takiego terminu - dlatego pytałem, czy ktoś może zna jakiś fachowy odpowiednik. Ale nie zmienia to faktu, że tak to właśnie działa, czy to się komuś podoba, czy nie Piksel ASI294 zbierze ponad dwa razy więcej fotonów niż piksel ASI1600, ponieważ (bazuję na danych ze strony teleskopy.pl) ASI294 ma piksel 4,63 um i QE rzędu 90%. Zatem jej efektywna wielkość piksela wynosi 4,63^2*0,9 = 19,29. A efektywna wielkość piksela ASI1600 to 3,8^2*0,6=8,664. Łatwo policzyć, że 19,29 / 8,664 = 2,22. Oczywiście, że pogoń za QE nie jest bezsensowna. Jest jak najbardziej sensowna, ponieważ pozwala albo robić mniejsze, ale nadal w miarę wydajne w zbieraniu fotonów piksele, albo skracać czas ekspozycji, dokładnie tak jak napisałeś. Całe to powyżej zacytowane Twoje zdanie jest w 100% prawdziwe - w odniesieniu do PIKSELA, a nie do matrycy. Piksel o takim samym rozmiarze, ale o 20% wyższym QE, będzie o 20% szybciej zbierał sygnał. Już tłumaczę. Matryce dostaną tę samą ilość światła, w sensie że zbierają fotony z takiego samego obszaru nieba. I faktycznie piksele ASI2400 złapią ok. 2,5x więcej fotonów niż piksele ASI6200. To oznacza, że stosunek sygnału do szumu w tej samej jednostce czasu będzie lepszy w ASI2400. ALE!!! Ale ASI2400 traci na szczegółowości obrazu. Masz ten sam kawałek nieba, ale obrazowany z mniejszą dokładnością. Ta sama liczba fotonów, lecących z tego obszaru nieba, zostanie zapakowana do mniejszej liczby, ale większych wiaderek (czyli pikseli). Obraz będzie mniej zaszumiony, ale też mniej szczegółowy. Na tym to właśnie polega. Ta sama liczba fotonów jest dzielona na mniej lub więcej "wiaderek". Im więcej jest tych wiaderek na danej powierzchni (czyli im są mniejsze), tym na każde wiaderko przypada mniej fotonów. A mniej fotonów to gorszy SNR. Albo masz dobry SNR i mniejszą szczegółowość, albo masz gorszy SNR (więcej szumu), ale na bardziej szczegółowym obrazie. Ot i cała tajemnica Otóż to. Samo QE jeszcze o niczym nie świadczy.
  23. A Blur eXterminator doda do obrazu dowolny detal, bazując na współrzędnych RA i Dec miejsca na niebie
  24. Nie chciałem w to wchodzić, żeby nie komplikować tematu. Ale OK, może faktycznie dobrze też o tym wspomnieć. Samo QE to tylko połowa sukcesu. Ważna jest jeszcze wielkość piksela, a raczej jego powierzchnia, bo to na nią padają fotony. Im mniejsza powierzchnia piksela, tym mniej fotonów na nią padnie. Nie warto podniecać się samym QE. Dlaczego? Bo może się okazać, że mały piksel, nawet z wysokim QE, złapie MNIEJ fotonów, niż duży piksel z niskim QE. Prosty przykład: Kamera ASI1600, piksel 3,8 um, QE ok. 60%. Liczymy sobie coś, co roboczo nazywam "efektywną wielkością piskela" (może jest na to jakiś fachowy termin, jeśli tak, to dajcie proszę znać): efektywna wielkość piksela = powierzchnia x QE czyli dla ASI1600 e.w.p. = 3,8^2 x 0,6 = 8,664 To teraz zobaczmy, jak to wygląda w przypadku np. ASI183, która ma QE na poziomie 84%, ale piksel tylko 2,4 um: e.w.p. ASI183 = 2,4^2 x 0,83 = 4,78 A to oznacza, że kamera ASI1600, mimo że ma QE "tylko" 60%, łapie w jednostce czasu prawie DWA RAZY WIĘCEJ światła, niż ASI183 (8,664 / 4,78 = 1,81). A co ze znaną i kochaną ASI2600? Piksel 3,76 um, QE 80% e.w.p. ASI2600 = 3,76^2 x 0,8 = 11,31 Czyli jeśli chcemy przejść na ASI2600 z ASI1600, to wydajemy 10-13k PLN, a zyskujemy raptem 30% więcej łapanych fotonów (11,31 / 8,664 = 1,3). Jak się w tym zestawieniu ma Canon 1100D, z pikselem 5,2 i QE na, wydawałoby się, żałosnym poziomie 36%? Policzymy: e.w.p. Canon 1100D = 5,2^2 x 0,36 = 9,73 Czyli, no proszę, leciwy Canon, którego można kupić za 500-600 zeta, łapie ok. 12% WIĘCEj światła, niż ASI1600 I dlatego wg mnie sprzętem absolutnie nie do pobicia jest Canon 6D. Piksel 6,54 um, QE "tylko" 50%, ale jaka e.f.w.! e.f.w. Canon 6D = 6,54^2 x 0,5 = 21,4 Zostawia w tyle wszystko, co jest na rynku, zwłaszcza biorąc pod uwagę, że używane body można trafić za 1,5-2,5k PLN, zależnie od przebiegu. Oczywiście, są jeszcze kwestie szumu odczytu, szumu termicznego, wydajności kwantowej przy różnych długościach fal, itp., itd. Na potrzeby niniejszych rozważań wg mnie nie ma sensu w to wchodzić, bo to już są szczegóły. Ważne, ale raczej gdy ma się już sporo doświadczenia i wie się, co się robi. A jeszcze tak przy okazji - sprawdźcie sobie np. na stronce APT dane dot. matryc, i policzcie e.f.w. dla różnych aparatów. Okaże się, że dla sporej częsci e.f.w. jest bardzo podobne, mimo że jedne mają wyższe QE, a inne niższe. Ale mają też różne wielkości pikseli, i dlatego łącznie wychodzi mniej-więcej na to samo.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.