Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 055
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez Piotr K.

  1. Nie no, wiadomka, lepiej nie grzebać, jak już się wszystko poustawiało :) Ja nawet mam obiekcje przed wyjmowaniem CLS-a w Clipie z mojego aparatu, żeby przejść na RGB :)

     

    Dobra, to już się nie wymądrzam :) Napisz może jeszcze, proszę, jaka dokładnie była konfiguracja Twojego sprzętu z poprzednią kamerą, gdy szum na klatkach był mniejszy, i jaka jest teraz.

  2. Gorsze filtry puszczają więcej sygnału - tego niechcianego. I to powoduje, że tło nieba jest mniej zaszumione. Im węższe filtry założysz, tym ciemniejsze będziesz miał tło, ale tym większe ryzyko, że przy próbie wyciągnięcia będzie na nim widoczny szum. Musiałbyś spróbować założyć stare filtry do nowej kamery, albo nowe filtry do starej kamery, i zobaczyć co wyjdzie.

    • Lubię 1
  3. 10 minut temu, wismat napisał(a):

    tamta kamera to QHY163M

     

    OK, piksel podobny, ale QE większe w ASI2600, czyli faktycznie powinno być lepiej, zwłaszcza przy większej ilości materiału. A filtry z tamtą kamerą używałeś te same? I teleskop?

  4. 21 minut temu, wismat napisał(a):

    Wiadomo ze darki uśredniają ten szum ale przy tej kamerze i 100sztukach darków myślałem ze tak zostanie ten szum uśredniony że nie będzie tak widoczny. 

     

    To znaczy który szum uśredniają darki? :)

     

    Klatki light mają swój losowy szum (biorący się z sygnału z obiektu, z sygnału od LP, z sygnału od prądu ciemnego, oraz z szumu odczytu), klatki dark mają swój losowy szum, biorący się z sygnału prądu ciemnego oraz z szumu odczytu. Kalibrowanie lightów darkami w żaden sposób nie usunie losowego szumu z lightów. Jedynym sposobem na usunięcie losowego szumu z lightów (oprócz późniejszego odszumiania w obróbce) jest wypalenie dużej ilości materiału. Duża liczba darków pozwoli uśrednić szum prądu ciemnego na darkach, dzięki czemu masterdark jest gładki, i przy kalibracji lightów nie dodaje swojego szumu do materiału (sorry jeśli to wiesz, a ja się wymądrzam ;) ).

     

    Czyli - jeśli zestackowałeś same lighty, i stack ma mniej szumu niż stack skalibrowany darkami, to można podejrzewać, że szum na stacku skalibrowanym darkami pochodzi od darków. Ale jeśli szum jest podobny i na stacku z samych lightów, i na stacku z lightów skalibrowanych darkami, to znaczy, że to nie darki są winne (i zapewne nie są).

     

    21 minut temu, wismat napisał(a):

    6 godzin z poprzednią gorsza kamerą było gładko jak przy pupie niemowlęcia

     

    A co to była za kamera?

  5. 11 godzin temu, wismat napisał(a):

    dałem nawet po 100 darków co powinno zniwelować tą ziarnistość

     

    Darki nie usuną losowego szumu, co najwyżej dodadzą własny.

     

    Jakim teleskopem robiona była ta fotka?

     

    11 godzin temu, wismat napisał(a):

    Zdjęcie robiłem filrami SII Ha O3

     

    Jakie konkretnie to są filtry? Jaka szerokość pasma? Czy były mierzone przez @dobrychemik? Czy przepuszczają to, co mają przepuszczać, i czy pasują do światłosiły Twojego teleskopu?

     

    Moja hipoteza jest taka, że może filtry puszczają mniej sygnału NB niż powinny. Próbujesz wyciągać obiekty do odpowiedniego poziomu, ale ponieważ sygnału jest za mało, to wychodzi szum.

    • Dziękuję 1
  6. 12 minut temu, Michal_IAUZ napisał(a):

    trzymając się wiader, że kilka małych wiaderek nie równa się jednemu dużemu wiadru, bo w wiadrach brak szumu:)

     

    W analogii z wiaderkami też jest szum - czyli niedokładność pomiaru tego, ile rzeczywiście z nieba leci kropel deszczu w jednostce czasu. "Szumem" w tej analogii są różnice w ilości wody w wiaderkach po zakończeniu "ekspozycji", czyli zamknięciu nad wiaderkami jakiegoś daszku, który nam odcina wpadanie kropel deszczu.

  7. 4 minuty temu, licho52 napisał(a):

    Nie oznacza to że 2400MC jest lepsza od 2600MC ponieważ ma większy piksel

     

    A czy ja gdzieś napisałem, że 2400 jest lepsza od 2600? Przecież piszę tylko, że piksel kamery 2400 łapie 2,5x więcej światła. ALE równocześnie ta kamera traci na rozdzielczości względem 2600. Nie ma lepszych ani gorszych kamer, każda się nadaje do czegoś innego, i właśnie dlatego trzeba sobie zdawać sprawę z zależności, które wchodzą w grę, żeby móc podejmować świadome decyzje.

  8. 1 minutę temu, Wiesiek1952 napisał(a):

    Dyskusja z kimś kto nie rozumie geometrii euklidesowej i uparcie twierdzi, że 2 + 2 = 16 nie ma sensu.

     

    W którym konkretnie miejscu moje wyliczenia nie zgadzają się z podstawową arytmetyką? Pokazałem na podstawowym przykładzie, jak się liczy SNR dla obrazu w astrofoto. Taka jest zasada - lecące z nieba fotony podlegają rozkładowu poissonowskiemu, a on ma właśnie taką cechę, że szum (niepewność) jest równy pierwiastkowi z wartości sygnału. Możesz dowolnie temu zaprzeczać, nie zgadzać się i odsyłać mnie do kąta, żebym się douczył, ale niestety jest tak jak piszę :)

  9. 1 minutę temu, Wiesiek1952 napisał(a):

    Ooooooo.... mamy forumowicza, który zasługuje na Nobla z fizyki. Rozmiar piksela zmienia światłosiłę. Bajeczne. To się nawet do działu pseudonauka nie nadaje. Pirat jasnoościowy wysiada.

     

    Wieśku, jeśli uważasz, że jest w tym jakiś błąd logiczny albo obliczeniowy, to wykaż go, proszę.

  10. 2 godziny temu, Wiesiek1952 napisał(a):

    Jeśli na daną powierzchnię pada 1000 fotonów to duży piksel zbierający z QE 60% zbierze ich około 600. Na cztery piksele o tej samej powierzchni łącznej ale mniejsze o połowę też pada 1000 fotonów zbierane z EQ 90% oznacza zebranie około 900 fotonów.

     

    Dobra, to jeszcze raz. Na jeden piskel o QE 60% padło 1000 fotonów, z czego zarejestrowało się 600. To jest nasz sygnał. Szum tego sygnału (nasza niepewność co do rzeczywistej liczby fotonów) wynosi pierwiastek z tego, czyli 24,5. SNR = 24,5. Jeśli masz 4 piksele na tej samej powierzchni, to na każdy z nich, średnio biorąc, padnie nie 1000, tylko 1/4 z tego, czyli ok. 250 fotonów. Z tego w każdym pikselu zarejestruje się 90%, czyli ok. 225 fotonów. Szum takego sygnału, czyli nasza niepewność co do rzeczywistej liczby fotonów lecących z nieba, ponownie wynosi pierwiastek z tego, czyli ok. 15. Czyli nasz SNR wynosi ok. 15. Czyli dla dwa razy mniejszych pikseli o QE 90% SNR jest ok. 1,6x gorszy, niż dla pikseli większych, ale o QE 60%. Masz bardziej szczegółowy, ale bardziej zaszumiony obraz. Mimo, że na obie matryce padła ta sama liczba fotonów.

     

  11. 3 minuty temu, licho52 napisał(a):

    Jeżeli zsumujesz fotony z pixeli zajmujących tą samą powierzchnię, ilość fotonów będzie taka sama.  Czy jest to jeden, 4 czy 9 pikseli.

     

    Kolego - tak. ALE SNR liczby tych fotonów będzie inny. Lepszy dla tych zsumowanych, bo jest ich więcej. Czy Ty w ogóle wiesz, co to jest sygnał, i co to jest szum? Skąd się to bierze, i dlaczego jest tak, że szum rośnie z pierwiastkiem?

  12. @holeris No i o to dokładnie chodzi. To jest w gruncie rzeczy banalnie proste, więc też nie rozumiem, dlaczego to budzi taką zażartą dyskusję. Na obie matryce z Twojego przykładu spadnie dokładnie tyle samo fotonów. Tyle że jedna da mało zaszumiony, ale mało szczegółowy obraz, a druga bardziej szczegółowy, ale też bardziej zaszumiony, bo na jeden piksel przypadnie mało fotonów. A obraz jest tworzony przez piksele, a nie przez matyce jako całość. Więc większy szum na pikselach = większy szum na całym obrazie. I nie ma znaczenia, że na obie matryce pada tyle samo fotonów, ważne jest to, ile pada na piksel.

  13. 9 minut temu, Wiesiek1952 napisał(a):

    Może jednak przestań pisać te swoje "przemyślenia" i przeczytaj te książki jeszcze raz - tylko tym razem postaraj się zrozumieć co jest w nich napisane. Tym pseudonaukowym bełkotem wyrządzasz więcej szkody niż pożytku. Tu @licho52 ma absolutną rację.

     

    Kolejny bardzo merytoryczny i przemyślany argument :)

  14. 24 minuty temu, Wiesiek1952 napisał(a):

    To bardzo interesujące jak wielkość piksela i rozmiar matrycy zmienia światłosiłę teleskopu.

     

    Rozmiar matrycy nie, ale rozmiar piksela - jak najbardziej. Proszę bardzo, na przykładzie ED-ka 80:

     

    Mamy teleskop o aperturze 80 i ogniskowej 600 mm, zakładamy do niego reduktor ogniskowej 0,85x i mamy ogniskową 510 mm. Czyli światłosiła f/6.375.

     

    Gdy założymy do niego np. aparat Canon 1100D, z pikselem 5,2 um, to mamy skalę 2,10 arcsec/px. QE tego piksela wynosi 36%, czyli efektywna powierzchnia piksela to 5,2x5,2x0,36=9,73 um^2

     

    To teraz zakładamy do tego samego teleskopu z reduktorem Canona 6D, z pikselem 6,54 um. Skala, czyli szczegółowość odwzorowania, spada nam do 2,64 arcsec/px. QE pikseli Canona 6D wynosi ok. 50%, więc efektywna powierzchnia tych pikseli to 6,54x6,54x0,5=21,38 um^2.

     

    To oznacza, że piksele Canona 6D łapią 21,38 / 9,73 = 2,19 więcej światła.

     

    Ale RÓWNOCZEŚNIE TRACIMY ROZDZIELCZOŚĆ, czyli tak, jakbyśmy robili binowanie, albo skracali ogniskową. A skrócenie ogniskowej, przy tej samej aperturze, to nic innego jak zmniejszenie światłosiły.

     

    No to liczymy - światłosiła 6,375^2=40,64, tę wartość dzielimy przez 2,19 i otrzymujemy 18,55. Z tego wyciągamy pierwiastek kwadratowy, i otrzymujemy światłosiłę ok. 4,3.

     

    Czyli dzięki założeniu do teleskopu ED80 z reduktorem, o światłosile f/6,375, Canona 6D zamiast Canona 1100D, uzyskujemy taki efekt, jakbyśmy z Canonem 1100D mieli teleskop f/4,3, który nam szybciej łapie światło.

     

    Oczywiście, teoretycznie podobny efekt uzyskamy, po prostu binując obraz z Canona 1100D. Ale nie wiem, jak bardzo to wpłynie na szczegółowość tak przekształconego obrazu w stosunku do natywnego obrazu z Canona 6D.

  15. 42 minuty temu, licho52 napisał(a):

    duży piksel jako zaletę kamery i że "zbiera 2,5 raza więcej światła"

     

    Dobra, to odpowiedz mi na pytanie - czy 2,5x większy piksel złapie 2,5x więcej fotonów, czy nie? Gdzie napada więcej deszczu w tej samej jednostce czasu - do wiadra, czy do szklanki? W wartościach bezwględnych.

     

    42 minuty temu, licho52 napisał(a):

    2600mc zbiera taką samą ilość światła

     

    Wciąż nie możemy się dogadać, ani z Tobą, ani z Wieśkiem we wcześniejszej dyskusji. Oczywiście, że na matryce o tych samych rozmiarach pada tyle samo fotonów. Tego nie kwestionuję. Ale jeśli dana matryca ma większe piksele, to automatycznie jest ich mniej, i każdy z nich złapie w siebie więcej padających fotonów, niż gdy piksele są mniejsze, i jest ich więcej. Jeśli w danym pikselu masz złapane 1000 fotonów, to szum tej informacji będzie równy pierwiastek z 1000 czyli 31, czyli SNR też jest równy 31. Jeśli w danym, mniejszym pikselu, złapiesz powiedzmy 500 fotonów, to szum tej informacji jest wyższy, bo pierwiastek z 500 to ok. 22, czyli SNR jest równy 22. Czyli w większych pikselach masz mniejszy szum, bo łapią więcej fotonów. Ale równocześnie przy większych pikselach tracisz informację przestrzenną, bo dają Ci niższą rozdzielczość.

     

    Jest to proces analogiczny do skracania ogniskowej - jeśli przy zachowanej średnicy apertury zmniejszysz ogniskową, to stracisz na rozdzielczości (bo skala odwzorowania stanie się mniej szczegółowa, bo zmaleje obraz padający na tą samą matrycę), ale zyskasz na SNR, bo na jeden piksel będzie leciało więcej fotonów.

     

    Równie dobrze to co piszę można przedstawić tak, że liczba fotonów jakie łapiemy w jednostce czasu w pikselu zależy od tego, z jakiej powierzchni nieba w arcsec^2 lecą nam na ten piksel fotony. Jeśli obejmujemy pikselem 2x większy kawałek nieba, to wpada nam w ten piksel 2x więcej fotonów. A 2x więcej fotonów to 1,4x mniejszy szum, bo pierwiastek z 2 to ok. 1,4.

     

    Pełna zgoda, że jest to również proces analogiczny do binowania. Ale pokaż mi kogoś, kto kupuje np. kamerę ASI183, z pikselem 2,4 um, tylko po to, żeby binować z niej obraz, żeby uzyskać odpowiednik piksela 4,8 um. Kamerę z małym pikselem kupuje się po to, żeby mieć bardziej szczegółowy obraz. Ale wtedy trzeba się liczyć z tym, że ten obraz będzie też bardziej zaszumiony, i że, aby uzyskać ten sam poziom SNR (bez binowania), to trzeba będzie proporcjonalnie palić dłuższe całkowite ekspozycje. O tyle dłuższe, o ile mniejsza jest powierzchnia piksela naszej ASI183 w porównaniu do piksela kamery, którą stosowaliśmy wcześniej, z uwzględnieniem QE obu tych kamer.

     

    To są podstawowe zależności, i arytmetyka na poziomie szkoły podstawowej, więc naprawdę nie wiem, czemu tak trudno jest mi wytłumaczyć o co w tym chodzi. I mega mnie też dziwi, że wygląda na to, że większośc użytkowników astrofoto w ogóle się nad tym nie zastanawia, i być może traktuje tego typu wyliczenia jak jakąś czarną magię, albo pseudonaukowy bełkot.

     

    42 minuty temu, licho52 napisał(a):

    Nie wiem po co to robisz ale nie pomagasz początkującym w żaden sposób

     

    Wg mnie zrozumienie podstaw tego, jak działa łapanie fotonów w piksele, i co z tego wynika, jest jak najbardziej pomocne i pomaga zrozumieć, co się tak naprawdę dzieje. Gdy czytam o tym, że matryca o QE = 80% łapie więcej światła niż matryca o QE=60%, to reaguję, ponieważ właśnie to jest dezinformacja - a raczej informacja niepełna. Bo jak masz matrycę z małym piskelem o QE=80%, to obraz z niej będzie bardziej szczegółowy, ale bardziej zaszumiony, niż obraz z matrycy z większym pikselem ale o QE=60%. Dopiero uwzględniając QE i rozmiar piskela, łącznie, można świadomie podejmować decyzje zakupowe. Zdając sobie sprawę, co się łączy z inwestycją w kamerę z mniejszym czy większym pikselem.

     

    42 minuty temu, licho52 napisał(a):

    Spodziewam się że dalej prowadzić będziesz erystykę i wyginał pojęcia by udowodnić że masz rację.

     

    W którym konkretnie miejscu wyginam pojęcia? Przedstawiam konkretne obliczenia, i tłumaczę, dlaczego są ważne i uzasadnione. Jeśli widzicie w tych obliczeniach jakiś błąd, logiczny albo obliczeniowy, to wskażcie go, proszę. Ale jak na razie z mojej strony są obliczenia, a z drugiej machanie rękami, powtarzanie "nie bo nie", "to tak nie działa" itp. Kolega ZbyT, który również rozumie o co w tym chodzi, a łeb ma nie od parady (znamy się osobiście), napisał toczka w toczkę to samo co ja - i został zagadany również machaniem rękami i tupaniem nóżką, oraz odesłaniem do kąta, żeby się douczył, zamiast merytorycznej dyskusji.

     

    42 minuty temu, licho52 napisał(a):

    Nie mam pojęcia co za tym stoi ale będę to prostował, za każdym razem.

     

    Stoi za tym chęć wytłumaczenia userom, o co w tym chodzi. Żeby zrozumieli, jak to działa, i mogli podejmować świadome decyzje zakupowe. Żeby np. nie pojawiały się kwiatki typu "gdy jest gorąco, to należy palić krótkie klatki, żeby się nie kumulował szum termiczny", i tym podobne (wiem, że akurat ten temat nie ma większego związku z niniejszą dyskusją).

    A tego co piszę nie wyssałem sobie z palca - źródła, z których można się dowiedzieć co i jak podałem w poprzednim wątku, tym o wystarczającej ilości materiału. Ponadto polecam też ksiązki Deep Sky Imaging Primer oraz Digital SLR Astrophotography, tam są te rzeczy również omówione. Spędziłem nad tym wszystkim ze dwa miesiące, na przełomie 2022/2023, bo się uparłem, że zrozumiem wreszcie o co chodzi z magicznym symbolem e-/ADU. Rozkminiłem to, pomierzyłem parametry matryc moich aparatów i kamery, i śmiem twierdzić, że załapałem podstawy. Żadnym mega-fachowcem nie jestem, ale ideę rozumiem, i dlatego potrafię sobie policzyć, co do czego warto dobrać, żeby to miało sens. I dlatego piszę tu od czasu do czasu na forum, żeby się tą wiedzą podzielić.

    • Lubię 2
  16. Godzinę temu, Robson_g napisał(a):

    Mnie się wydaje , że jak FF, to chyba najwyższa jakość prawda? Czy nie? Jeżeli jakość bez kompromisów, no to gdzie w Polsce??????

     

    Nie bardzo rozumiem, co ma piernik do wiatraka... Czy u nas jakieś gorsze obiekty na niebie są? Bardziej krzywe? Światło z nich leci jakieś inne? Pełna klatka, o ile się chce korzystać z pełnego FOV, jakie zapewnia (a gdy się wydaje ogromne kwoty na chłodzoną kamerę FF, to raczej się chce, bo inaczej to nie ma sensu), wymaga dobrej optyki, kryjącej taki duży sensor. Tu zgoda. Ale z drugiej strony, w matrycach FF zwykle są duże piksele, które pomagają te wady trochę zamaskować. Poza tym te duże piksele łapią dużo światła (co z jakiegoś powodu nie może się przebić do świadomości dyskutantów :) ), więc umożliwiają szybsze łapanie wystarczającej ilości materiału. Więc jak najbardziej pod nasze polskie zaświetlone i zachmurzone niebo się nadają, i to nawet bardziej niż pod ciemne niebo.

     

    59 minut temu, Krzysiek Gaudy napisał(a):

    Pod kiepskim niebem przy FF przy tych ogniskowych o jakich w tym wątku mówimy wydaje mi się, że bardzo ciężko będzie opanować gradienty w tle od LP.

     

    To prawda, im większy FOV, tym trudniej z gradientami. Ale jeśli ktoś ogarnia gradienty w ASI2600 podpiętej do ogniskowej ok. 400 mm, to ogarnie także gradienty w ASI2600 podpiętej do ogniskowej 600 mm, bo FOV obu tych zestawów są bardzo podobne. Wpiszcie sobie dane teleskopów i matryc w jakąś apkę typu Sky Safari czy inne Stellarium, albo w Telescopius.org, i sami sprawdźcie.

     

    Godzinę temu, Krzysiek Gaudy napisał(a):

    nie miałem FF więc tak naprawdę nie wiem

     

    Ja też nie miałem, ale zamierzam kupić Canona 6D, i podpiąć go do ED-ków 80 i 120 z reduktorami 0,85x. Zapewne będę musiał robić cropa do rozmiaru APS-C, bo wątpię żeby gwiazdki na rogach były akceptowalne - ale podpięcie matrycy z tak dużym pikselem pozwoli wykorzystać te teleskopy tak, jakby miały f/4,5 (w porównaniu do używania ich np. z Canonem 1100D).

  17. 1 minutę temu, licho52 napisał(a):

    Nie pisz że "2400 zbiera 2.5 razy więcej światła" bo to jest ewidentna dezinformacja.

     

    Oczywiście, że zbiera. Nie kamera, tylko piksel tej kamery. Piksel ASI2400 jest ok. 2,5x większy niż piksel ASI2600 - więc w tej samej jednostce czasu łapie 2,5x więcej fotonów. Równocześnie tracąc na szczegółowości obrazu. Jest to proces analogiczny do binowania. Pewnie, że mniejsze piksele można zbinować - ale nie mówimy o binowaniu, tylko o tym, ile fotonów w jednostce czasu leci na piksel w rozdzielczości natywnej.

     

    Gdzie tu widzisz dezinformację?

  18. Godzinę temu, Herbert West napisał(a):

    Simbad i VizieR:

    http://cdsportal.u-strasbg.fr/

    Można sprawdzić co się znajduje w danym polu o danych współrzędnych.

     

    A można też np. w Sirilu, po zrobieniu plate solve'a (albo kalibracji fotometrycznej, która też robi solve'a), zaznaczyć ramką wybrany fragment nieba z jakimś obiektem (trzeba się przełączyć na któryś kolor, w łączonym RGB nie działa), kliknąć prawym klawiszem myszy, wybrać "PSF" i "More details", i od razu przekierowuje nas na stronę Simbada.

  19. A czy dane są widziane na tych nośnikach z poziomu ASIair? Ja zawsze robię tak, że karty SD mam na stałe włożone w ASIair. Obrazy są widoczne w apce ASIair na smartfona w dziale Image Management, w osobnych katalogach. Jeśli chcę coś ściągnąć na dysk laptopa, to podłączam się laptopem do hotspota WiFi utworzonego przez ASIair, wchodzę w Eksploratora plików w Windowsie, wpisuję "\\asiair", żeby przejść do katalogów na nośniku włożonym w ASIair, i stamtąd ściągam dane na dysk lapka przez WiFi. Za moich czasów ZWO tę metodę zalecało jako najwłaściwszą, ale jak jest teraz, to nie wiem. Nie mam najnowszych wersji ASIair, korzystam z wersji Pro.

  20. 16 minut temu, masarnia napisał(a):

     a jakby Cię było stać to co byś chciał mieć?

     

    Mieszkać gdzieś, gdzie często jest czyste niebo. Druga w kolejności jest zdalna buda pod czystym niebem, albo karnet na linie lotnicze, którymi np. w dwa weekendy w miesiącu mógłbym latać pod czyste niebo.

     

    Podkreślam - CZYSTE. Nie musi być ciemne, wystarczy mi czyste. Bo brak ciemnego nieba zrekompensuję sobie długością łącznej ekspozycji i/lub filtrami NB, a brak pogody jest jednoznaczny z niemożnością focenia.

     

  21. 16 godzin temu, dobrychemik napisał(a):

    Którą z tych kamer byście polecali do ogniskowych z zakresu 400-600mm?

     

    Jeśli rozważasz te kamery w kontekście ASKAR-a 600 mm z możliwością założenia reduktora 0,7x (ogniskowa spada do 420 mm), to wygląda to tak (teoretycznie, bo żadnej z tych kamer, ani takiego teleskopu, nie miałem i raczej nie zamierzam mieć, nawet gdyby mnie było stać):

     

    Po pierwsze, teoretyczna rozdzielczość optyczna idealnego obiektywu 108 mm wynosi plus/minus 1,06 arcsec (115/108, wg kryterium Dawesa).

     

    Założenie do ogniskowej 600 mm kamery ASI2600 z sensorem 3,76 um da Ci skalę obrazowania 1,29 arcsec/px, czyli trochę powyżej teoretycznego optycznego ideału - czyli wg mnie w sam raz, bo zawsze są jakieś aberracje optyczne, które ten ideał zaburzają. No i mamy jeszcze seeing w Polsce, dla którego skala 1,3" jest całkiem rozsądna, a już całkiem dokładna. Tyle że to będzie f/5,6, czyli dość ciemno - w porównaniu do np. f/4 musisz mieć dwa razy dłuższą łączną ekspozycję, żeby osiągnąć ten sam SNR.

     

    Po założeniu reduktora 0,7x ogniskowa spada do 420 mm, a z kamerą ASI2600 skala rośnie do 1,85 arcsec/px, czyli bardzo sensowna dla większości obiektów. No i masz wtedy f/3,9, czyli już jasny sprzęt.

     

    Natomiast zakładając do ASKAR-a 600 kamerę ASI2400 z pikselem 5,94 um to, pomijając większe pole widzenia, zyskujesz jedną, bardzo ważną w ciagle zachmurzonej Polsce rzecz - dzięki ogromnemu pikselowi ta kamera zbiera w tym samym czasie 2,5x więcej światła niż ASI2600. Czyli w godzinę zbierasz nią tyle samo materiału, co w 2,5 h kamerą ASI2600 (obie mają QE na poziomie 80%, więc decyduje różnica w powierzchni pikseli). ALE tracisz na rozdzielczości obrazu, bo przy ogniskowej 600 mm masz skalę 2,04 arcsec/px (całkiem sensowne, ale masz undersampling i nie wykorzystujesz w pełni rozdzielczości optycznej obiektywu), a po założeniu reduktora 0,7x skala jest jeszcze mniej dokładna, czyli 2,9 arcsec/px. Dobra do rozciągłych obiektów, ale galaktyczki będą pikselami. Ale za to zbierasz materiał 4x szybciej niż używając ASKAR-a 600 bez reduktora z kamerą ASI2600.

     

    No więc musisz sobie odpowiedzieć na pytanie, co jest dla Ciebie ważniejsze - szczegółowość obrazu (wtedy ASI2600), czy szybkość zbierania materiału (wtedy ASI2400).

     

    BTW, zakładając ASI2600 do ASKAR-a 600 z reduktorem 0,7x uzyskujesz mniej więcej to samo, co zakładając ASI2400 do ASKAR-a 600 bez reduktora. Podobna skala, podobny FOV, podobna szybkość zbierania materiału.

    • Lubię 1
    • Dziękuję 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.