Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 016
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Piotr K.

  1. A ile masz klatek light 120 s, a ile 200 s? Jeśli tych o długości 200 s masz w miarę sporo (ponad 30), to zestackuj tylko je, i potraktuj je darkami 200 s. Zobaczysz np., czy paski (banding) są mniej widoczne niż na materiale, w którym połączyłeś lighty 120 s z lightami 200 s, i skalibrowałeś wszystko razem darkami 200 s. Ogólnie zasada jest taka, że lighty palisz wszystkie tej samej długości, i jeśli już używasz darków, to też tej samej długości. Dygresja: Palenie dwóch sesji tego samego obiektu, na różnych czasach ekspozycji, też ma sens - ale wtedy, gdy np. chcesz mieć jeden stack na ramiona galaktyki (te klatki palisz dłuższe, i robisz do nich dłuższe darki), a drugi stack na bardzo jasne jądro galaktyki (te klatki palisz krótsze, i do nich robisz krótsze darki). Pierwszy materiał stackujesz osobno, z jego darkami, drugi materiał stackujesz też osobno, z jego darkami (pamiętając, żeby wszystkie klatki z obu materiałów zarejestrować na jedną wybraną klatkę - ale to jest inny temat), i dopiero potem, w obróbce, łączysz wszystko razem. Koniec dygresji Aha, i wiesz oczywiście, że darki MUSZĄ być mniej-więcej w tej samej temperaturze, co lighty? Nie chodzi o temperaturę otoczenia, tylko o temperaturę na matrycy. To jest kluczowa sprawa. +/- 2-3 stopnie C różnicy między lightami jeszcze ujdzie, ale większe różnice już mogą powodować, że nie wszystko się będzie dobrze kalibrowało. Jest jaśniej niż sądziłem Niemniej, fakt, że na zdjęciu bez darków wychodzą Ci paski (a nawet z darkami też są widoczne, poziome), jednoznacznie wskazuje na zbyt krótką ekspozycję i za niskie ISO. Jesteś z sygnałem zbyt blisko tych śmieci, które generuje matryca. Jak dojedziesz z histogramem między "245" a "Total pixels", to powinno być lepiej Jeśli prowadzenie montażu pozwala na palenie klatek po 200 s, to pal takie, ale na ISO 800. Albo i dłuższe czasy (jeśli montaż pozwala), np. 300 s. Albo czas 200 s, ale na ISO 1600. Nie przejmuj się, jeśli zaczną Ci się przepalać gwiazdy - usuniesz je przy pomocy programiku Starnet++, a w ich miejsce wstawisz dopalone osobno, na krótkich ekspozycjach typu np. 30 s. Jak będziesz miał wystarczająco jasne klatki, to nie będziesz się musiał przejmować robieniem darków, bo dithering Ci załatwi resztę. Nie. Jak masz np. 1 lighta, to robienie 1 darka nie ma żadnego sensu i tylko pogorszy sprawę Dobra, teraz na poważnie: Ogólnie rzecz biorąc, na zdjęciach mamy dwa rodzaje szumu. Szum losowy (z różnych źródeł, w tym także z temperatury na matrycy), oraz szum o stałym wzorze przestrzennym (nie wiem, czy jest jakieś fachowa polska nazwa, po angielsku to jest Fixed Pattern Noise). Szum losowy to takie "śnieżenie", "kasza", zjawisko podobne do śnieżenia na telewizorze ze źle ustawioną anteną. Na każdej kolejnej klatce jest inny, bo każdy piksel obrazu sobie szumi niezależnie od pozostałych, raz jest jaśniejszy, raz ciemniejszy itd. Szum o stałym wzorze przestrzennym natomiast to piksele, które z różnych powodów są wadliwe, i one są na zdjęciu zawsze w tym samym miejscu. Darki służą do usuwania właśnie tego drugiego rodzaju szumu, czyli szumu o stałym wzorze przestrzennym. Czyli np. hot pikseli. Oraz bandingu, jeśli masz to szczęście że jego wzorek jest stały na kolejnych klatkach (nie zawsze tak jest). A jedyne, co możesz poradzić na szum losowy, to zebrać tak dużo klatek, żeby po ich uśrednieniu ten szum się "wygładził", uśrednił. Jeśli masz za mało darków, to szum losowy w master darku nie będzie wystarczająco gładki, i jego "kasza" dołoży się do "kaszy", którą masz na lightach. Czyli - darków ma być tyle, żeby uśrednił się i wygładził ich szum losowy. Wtedy szum o stałym wzorze przestrzennym ładnie się odejmie, a wygładzony szum losowy nie spowoduje wzrostu szumu ma lightach. Może wystarczy 30 darków. Może będzie trzeba więcej - zależy jak bardzo szumi matryca. Ja zwykle robię 60 darków, no ale z chłodzoną kamerą to jest prosta sprawa. Z DSLR-ami nie robię darków w ogóle, ponieważ nie mają ampglow, więc od dawna stosuję dithering. A od ok. roku nauczyłem się, co to znaczy odpowiednio jasno naświetlona klatka light. I mam święty spokój
  2. Ja to robię tak, że jeśli np. moja klatka referencyjna jest w RGB (z OSC), a chcę do niej dopasować klatki z Ha, to tworzę nową sekwencję, dodając wszystkie klatki Ha i tą jedną w RGB, np. jako pierwszą, albo jako ostatnią. Potem, gdy sekwencja jest już gotowa, to można wybrać w tej tabelce ze wszystkimi klatkami, która z nich ma być referencyjna. Zaznaczasz ją (przed rejestracją jest to zdaje się pierwsza klatka w sekwencji), robisz rejestrację, a potem przed stackowaniem odznaczasz tą pierwszą klatkę z listy klatek zarejestrowanych, żeby jej nie stackował. Jest to dość upierdliwe, ale działało. Ale może jest jakiś prostszy sposób, jeśli tak, to chętnie się dowiem
  3. A czy masz darki i dla czasu 120 s, i dla czasu 200 s? Bo one się będą różnić poziomem zaszumienia. Próbowałbym zrobić mniej-więcej taką samą proporcję darków 120 s i 200 s, co lightów. EDIT - chociaż jeśli robiłeś dithering, a widzę, że robiłeś, to darkami bym się nie przejmował. Wrzuć ilghty, flaty i biasy w Deep Sky Stacker, i zobacz, co wyjdzie. EDIT 2 - kurczę, zamiast doczytać całość to odpisuję na szybko Dobra, już widzę, że bez darków wychodzą pionowe paski. Sposobem na to jest takie wydłużenie czasu ekspozycji i/lub zwiększenie ISO, żeby górka histogramu była przynajmniej 1/4 od lewej strony. Albo i dalej. Masz aparat z maleńkim pikselem, który łapie mało światła, więc to, co widzisz w tle Twojego zdjęcia, to jest głównie szum termiczny i szum odczytu. Pewnie na pojedycznych klatkach masz histogram ledwo-ledwo odklejony od lewej strony?
  4. Dodam jeszcze, że z tym bardziej zaszumionym obrazem przy węższych filtrach chodzi o trudniejsze wyjście ilością sygnału ponad szum odczytu. Czyli o to, o czym mówi Robin Glover w swoim wykładzie: Im węższy filtr i im ciemniejszy obiekt, tym dłuższe muszą być pojedyncze klatki, żeby w istotny sposób wyjść ponad szum odczytu. Dla mojej ASI1600 przy offset ok. 45 (tyle ustawia ASIair z automatu, to jest wartość w 12 bitach) i gain 139 policzyłem, że muszę mieć jasność tła przynajmniej na poziomie ok. 1200 ADU (16 bit), żeby nie przejmować się szumem odczytu. Nie wiem, jak jest z ASI2600, trzeba by to zmierzyć i policzyć. Jaką masz średnią wartość ADU dla biasa? Na stronie ZWO, na wykresie dla tej kamery, widać, że przy gain 100 szum odczytu wynosi albo ok. 1,5 e- (po włączeniu trybu HCG), albo ok. 3,25 e-. Może po prostu nie przełączyłeś się w ten tryb HCG, i stąd to większe zaszumienie? (ale nie wiem, czy to się da włączyć ręcznie, czy dzieje się to jakoś automatycznie?).
  5. A teleskop? Ten sam dla obu kamer? Jaki?
  6. Nie no, wiadomka, lepiej nie grzebać, jak już się wszystko poustawiało Ja nawet mam obiekcje przed wyjmowaniem CLS-a w Clipie z mojego aparatu, żeby przejść na RGB Dobra, to już się nie wymądrzam Napisz może jeszcze, proszę, jaka dokładnie była konfiguracja Twojego sprzętu z poprzednią kamerą, gdy szum na klatkach był mniejszy, i jaka jest teraz.
  7. Gorsze filtry puszczają więcej sygnału - tego niechcianego. I to powoduje, że tło nieba jest mniej zaszumione. Im węższe filtry założysz, tym ciemniejsze będziesz miał tło, ale tym większe ryzyko, że przy próbie wyciągnięcia będzie na nim widoczny szum. Musiałbyś spróbować założyć stare filtry do nowej kamery, albo nowe filtry do starej kamery, i zobaczyć co wyjdzie.
  8. OK, piksel podobny, ale QE większe w ASI2600, czyli faktycznie powinno być lepiej, zwłaszcza przy większej ilości materiału. A filtry z tamtą kamerą używałeś te same? I teleskop?
  9. To znaczy który szum uśredniają darki? Klatki light mają swój losowy szum (biorący się z sygnału z obiektu, z sygnału od LP, z sygnału od prądu ciemnego, oraz z szumu odczytu), klatki dark mają swój losowy szum, biorący się z sygnału prądu ciemnego oraz z szumu odczytu. Kalibrowanie lightów darkami w żaden sposób nie usunie losowego szumu z lightów. Jedynym sposobem na usunięcie losowego szumu z lightów (oprócz późniejszego odszumiania w obróbce) jest wypalenie dużej ilości materiału. Duża liczba darków pozwoli uśrednić szum prądu ciemnego na darkach, dzięki czemu masterdark jest gładki, i przy kalibracji lightów nie dodaje swojego szumu do materiału (sorry jeśli to wiesz, a ja się wymądrzam ). Czyli - jeśli zestackowałeś same lighty, i stack ma mniej szumu niż stack skalibrowany darkami, to można podejrzewać, że szum na stacku skalibrowanym darkami pochodzi od darków. Ale jeśli szum jest podobny i na stacku z samych lightów, i na stacku z lightów skalibrowanych darkami, to znaczy, że to nie darki są winne (i zapewne nie są). A co to była za kamera?
  10. Darki nie usuną losowego szumu, co najwyżej dodadzą własny. Jakim teleskopem robiona była ta fotka? Jakie konkretnie to są filtry? Jaka szerokość pasma? Czy były mierzone przez @dobrychemik? Czy przepuszczają to, co mają przepuszczać, i czy pasują do światłosiły Twojego teleskopu? Moja hipoteza jest taka, że może filtry puszczają mniej sygnału NB niż powinny. Próbujesz wyciągać obiekty do odpowiedniego poziomu, ale ponieważ sygnału jest za mało, to wychodzi szum.
  11. W analogii z wiaderkami też jest szum - czyli niedokładność pomiaru tego, ile rzeczywiście z nieba leci kropel deszczu w jednostce czasu. "Szumem" w tej analogii są różnice w ilości wody w wiaderkach po zakończeniu "ekspozycji", czyli zamknięciu nad wiaderkami jakiegoś daszku, który nam odcina wpadanie kropel deszczu.
  12. A czy ja gdzieś napisałem, że 2400 jest lepsza od 2600? Przecież piszę tylko, że piksel kamery 2400 łapie 2,5x więcej światła. ALE równocześnie ta kamera traci na rozdzielczości względem 2600. Nie ma lepszych ani gorszych kamer, każda się nadaje do czegoś innego, i właśnie dlatego trzeba sobie zdawać sprawę z zależności, które wchodzą w grę, żeby móc podejmować świadome decyzje.
  13. W którym konkretnie miejscu moje wyliczenia nie zgadzają się z podstawową arytmetyką? Pokazałem na podstawowym przykładzie, jak się liczy SNR dla obrazu w astrofoto. Taka jest zasada - lecące z nieba fotony podlegają rozkładowu poissonowskiemu, a on ma właśnie taką cechę, że szum (niepewność) jest równy pierwiastkowi z wartości sygnału. Możesz dowolnie temu zaprzeczać, nie zgadzać się i odsyłać mnie do kąta, żebym się douczył, ale niestety jest tak jak piszę
  14. Wieśku, jeśli uważasz, że jest w tym jakiś błąd logiczny albo obliczeniowy, to wykaż go, proszę.
  15. Dobra, to jeszcze raz. Na jeden piskel o QE 60% padło 1000 fotonów, z czego zarejestrowało się 600. To jest nasz sygnał. Szum tego sygnału (nasza niepewność co do rzeczywistej liczby fotonów) wynosi pierwiastek z tego, czyli 24,5. SNR = 24,5. Jeśli masz 4 piksele na tej samej powierzchni, to na każdy z nich, średnio biorąc, padnie nie 1000, tylko 1/4 z tego, czyli ok. 250 fotonów. Z tego w każdym pikselu zarejestruje się 90%, czyli ok. 225 fotonów. Szum takego sygnału, czyli nasza niepewność co do rzeczywistej liczby fotonów lecących z nieba, ponownie wynosi pierwiastek z tego, czyli ok. 15. Czyli nasz SNR wynosi ok. 15. Czyli dla dwa razy mniejszych pikseli o QE 90% SNR jest ok. 1,6x gorszy, niż dla pikseli większych, ale o QE 60%. Masz bardziej szczegółowy, ale bardziej zaszumiony obraz. Mimo, że na obie matryce padła ta sama liczba fotonów.
  16. Kolego - tak. ALE SNR liczby tych fotonów będzie inny. Lepszy dla tych zsumowanych, bo jest ich więcej. Czy Ty w ogóle wiesz, co to jest sygnał, i co to jest szum? Skąd się to bierze, i dlaczego jest tak, że szum rośnie z pierwiastkiem?
  17. @holeris No i o to dokładnie chodzi. To jest w gruncie rzeczy banalnie proste, więc też nie rozumiem, dlaczego to budzi taką zażartą dyskusję. Na obie matryce z Twojego przykładu spadnie dokładnie tyle samo fotonów. Tyle że jedna da mało zaszumiony, ale mało szczegółowy obraz, a druga bardziej szczegółowy, ale też bardziej zaszumiony, bo na jeden piksel przypadnie mało fotonów. A obraz jest tworzony przez piksele, a nie przez matyce jako całość. Więc większy szum na pikselach = większy szum na całym obrazie. I nie ma znaczenia, że na obie matryce pada tyle samo fotonów, ważne jest to, ile pada na piksel.
  18. Kolejny bardzo merytoryczny i przemyślany argument
  19. Rozmiar matrycy nie, ale rozmiar piksela - jak najbardziej. Proszę bardzo, na przykładzie ED-ka 80: Mamy teleskop o aperturze 80 i ogniskowej 600 mm, zakładamy do niego reduktor ogniskowej 0,85x i mamy ogniskową 510 mm. Czyli światłosiła f/6.375. Gdy założymy do niego np. aparat Canon 1100D, z pikselem 5,2 um, to mamy skalę 2,10 arcsec/px. QE tego piksela wynosi 36%, czyli efektywna powierzchnia piksela to 5,2x5,2x0,36=9,73 um^2 To teraz zakładamy do tego samego teleskopu z reduktorem Canona 6D, z pikselem 6,54 um. Skala, czyli szczegółowość odwzorowania, spada nam do 2,64 arcsec/px. QE pikseli Canona 6D wynosi ok. 50%, więc efektywna powierzchnia tych pikseli to 6,54x6,54x0,5=21,38 um^2. To oznacza, że piksele Canona 6D łapią 21,38 / 9,73 = 2,19 więcej światła. Ale RÓWNOCZEŚNIE TRACIMY ROZDZIELCZOŚĆ, czyli tak, jakbyśmy robili binowanie, albo skracali ogniskową. A skrócenie ogniskowej, przy tej samej aperturze, to nic innego jak zmniejszenie światłosiły. No to liczymy - światłosiła 6,375^2=40,64, tę wartość dzielimy przez 2,19 i otrzymujemy 18,55. Z tego wyciągamy pierwiastek kwadratowy, i otrzymujemy światłosiłę ok. 4,3. Czyli dzięki założeniu do teleskopu ED80 z reduktorem, o światłosile f/6,375, Canona 6D zamiast Canona 1100D, uzyskujemy taki efekt, jakbyśmy z Canonem 1100D mieli teleskop f/4,3, który nam szybciej łapie światło. Oczywiście, teoretycznie podobny efekt uzyskamy, po prostu binując obraz z Canona 1100D. Ale nie wiem, jak bardzo to wpłynie na szczegółowość tak przekształconego obrazu w stosunku do natywnego obrazu z Canona 6D.
  20. Dobra, to odpowiedz mi na pytanie - czy 2,5x większy piksel złapie 2,5x więcej fotonów, czy nie? Gdzie napada więcej deszczu w tej samej jednostce czasu - do wiadra, czy do szklanki? W wartościach bezwględnych. Wciąż nie możemy się dogadać, ani z Tobą, ani z Wieśkiem we wcześniejszej dyskusji. Oczywiście, że na matryce o tych samych rozmiarach pada tyle samo fotonów. Tego nie kwestionuję. Ale jeśli dana matryca ma większe piksele, to automatycznie jest ich mniej, i każdy z nich złapie w siebie więcej padających fotonów, niż gdy piksele są mniejsze, i jest ich więcej. Jeśli w danym pikselu masz złapane 1000 fotonów, to szum tej informacji będzie równy pierwiastek z 1000 czyli 31, czyli SNR też jest równy 31. Jeśli w danym, mniejszym pikselu, złapiesz powiedzmy 500 fotonów, to szum tej informacji jest wyższy, bo pierwiastek z 500 to ok. 22, czyli SNR jest równy 22. Czyli w większych pikselach masz mniejszy szum, bo łapią więcej fotonów. Ale równocześnie przy większych pikselach tracisz informację przestrzenną, bo dają Ci niższą rozdzielczość. Jest to proces analogiczny do skracania ogniskowej - jeśli przy zachowanej średnicy apertury zmniejszysz ogniskową, to stracisz na rozdzielczości (bo skala odwzorowania stanie się mniej szczegółowa, bo zmaleje obraz padający na tą samą matrycę), ale zyskasz na SNR, bo na jeden piksel będzie leciało więcej fotonów. Równie dobrze to co piszę można przedstawić tak, że liczba fotonów jakie łapiemy w jednostce czasu w pikselu zależy od tego, z jakiej powierzchni nieba w arcsec^2 lecą nam na ten piksel fotony. Jeśli obejmujemy pikselem 2x większy kawałek nieba, to wpada nam w ten piksel 2x więcej fotonów. A 2x więcej fotonów to 1,4x mniejszy szum, bo pierwiastek z 2 to ok. 1,4. Pełna zgoda, że jest to również proces analogiczny do binowania. Ale pokaż mi kogoś, kto kupuje np. kamerę ASI183, z pikselem 2,4 um, tylko po to, żeby binować z niej obraz, żeby uzyskać odpowiednik piksela 4,8 um. Kamerę z małym pikselem kupuje się po to, żeby mieć bardziej szczegółowy obraz. Ale wtedy trzeba się liczyć z tym, że ten obraz będzie też bardziej zaszumiony, i że, aby uzyskać ten sam poziom SNR (bez binowania), to trzeba będzie proporcjonalnie palić dłuższe całkowite ekspozycje. O tyle dłuższe, o ile mniejsza jest powierzchnia piksela naszej ASI183 w porównaniu do piksela kamery, którą stosowaliśmy wcześniej, z uwzględnieniem QE obu tych kamer. To są podstawowe zależności, i arytmetyka na poziomie szkoły podstawowej, więc naprawdę nie wiem, czemu tak trudno jest mi wytłumaczyć o co w tym chodzi. I mega mnie też dziwi, że wygląda na to, że większośc użytkowników astrofoto w ogóle się nad tym nie zastanawia, i być może traktuje tego typu wyliczenia jak jakąś czarną magię, albo pseudonaukowy bełkot. Wg mnie zrozumienie podstaw tego, jak działa łapanie fotonów w piksele, i co z tego wynika, jest jak najbardziej pomocne i pomaga zrozumieć, co się tak naprawdę dzieje. Gdy czytam o tym, że matryca o QE = 80% łapie więcej światła niż matryca o QE=60%, to reaguję, ponieważ właśnie to jest dezinformacja - a raczej informacja niepełna. Bo jak masz matrycę z małym piskelem o QE=80%, to obraz z niej będzie bardziej szczegółowy, ale bardziej zaszumiony, niż obraz z matrycy z większym pikselem ale o QE=60%. Dopiero uwzględniając QE i rozmiar piskela, łącznie, można świadomie podejmować decyzje zakupowe. Zdając sobie sprawę, co się łączy z inwestycją w kamerę z mniejszym czy większym pikselem. W którym konkretnie miejscu wyginam pojęcia? Przedstawiam konkretne obliczenia, i tłumaczę, dlaczego są ważne i uzasadnione. Jeśli widzicie w tych obliczeniach jakiś błąd, logiczny albo obliczeniowy, to wskażcie go, proszę. Ale jak na razie z mojej strony są obliczenia, a z drugiej machanie rękami, powtarzanie "nie bo nie", "to tak nie działa" itp. Kolega ZbyT, który również rozumie o co w tym chodzi, a łeb ma nie od parady (znamy się osobiście), napisał toczka w toczkę to samo co ja - i został zagadany również machaniem rękami i tupaniem nóżką, oraz odesłaniem do kąta, żeby się douczył, zamiast merytorycznej dyskusji. Stoi za tym chęć wytłumaczenia userom, o co w tym chodzi. Żeby zrozumieli, jak to działa, i mogli podejmować świadome decyzje zakupowe. Żeby np. nie pojawiały się kwiatki typu "gdy jest gorąco, to należy palić krótkie klatki, żeby się nie kumulował szum termiczny", i tym podobne (wiem, że akurat ten temat nie ma większego związku z niniejszą dyskusją). A tego co piszę nie wyssałem sobie z palca - źródła, z których można się dowiedzieć co i jak podałem w poprzednim wątku, tym o wystarczającej ilości materiału. Ponadto polecam też ksiązki Deep Sky Imaging Primer oraz Digital SLR Astrophotography, tam są te rzeczy również omówione. Spędziłem nad tym wszystkim ze dwa miesiące, na przełomie 2022/2023, bo się uparłem, że zrozumiem wreszcie o co chodzi z magicznym symbolem e-/ADU. Rozkminiłem to, pomierzyłem parametry matryc moich aparatów i kamery, i śmiem twierdzić, że załapałem podstawy. Żadnym mega-fachowcem nie jestem, ale ideę rozumiem, i dlatego potrafię sobie policzyć, co do czego warto dobrać, żeby to miało sens. I dlatego piszę tu od czasu do czasu na forum, żeby się tą wiedzą podzielić.
  21. Nie bardzo rozumiem, co ma piernik do wiatraka... Czy u nas jakieś gorsze obiekty na niebie są? Bardziej krzywe? Światło z nich leci jakieś inne? Pełna klatka, o ile się chce korzystać z pełnego FOV, jakie zapewnia (a gdy się wydaje ogromne kwoty na chłodzoną kamerę FF, to raczej się chce, bo inaczej to nie ma sensu), wymaga dobrej optyki, kryjącej taki duży sensor. Tu zgoda. Ale z drugiej strony, w matrycach FF zwykle są duże piksele, które pomagają te wady trochę zamaskować. Poza tym te duże piksele łapią dużo światła (co z jakiegoś powodu nie może się przebić do świadomości dyskutantów ), więc umożliwiają szybsze łapanie wystarczającej ilości materiału. Więc jak najbardziej pod nasze polskie zaświetlone i zachmurzone niebo się nadają, i to nawet bardziej niż pod ciemne niebo. To prawda, im większy FOV, tym trudniej z gradientami. Ale jeśli ktoś ogarnia gradienty w ASI2600 podpiętej do ogniskowej ok. 400 mm, to ogarnie także gradienty w ASI2600 podpiętej do ogniskowej 600 mm, bo FOV obu tych zestawów są bardzo podobne. Wpiszcie sobie dane teleskopów i matryc w jakąś apkę typu Sky Safari czy inne Stellarium, albo w Telescopius.org, i sami sprawdźcie. Ja też nie miałem, ale zamierzam kupić Canona 6D, i podpiąć go do ED-ków 80 i 120 z reduktorami 0,85x. Zapewne będę musiał robić cropa do rozmiaru APS-C, bo wątpię żeby gwiazdki na rogach były akceptowalne - ale podpięcie matrycy z tak dużym pikselem pozwoli wykorzystać te teleskopy tak, jakby miały f/4,5 (w porównaniu do używania ich np. z Canonem 1100D).
  22. Oczywiście, że zbiera. Nie kamera, tylko piksel tej kamery. Piksel ASI2400 jest ok. 2,5x większy niż piksel ASI2600 - więc w tej samej jednostce czasu łapie 2,5x więcej fotonów. Równocześnie tracąc na szczegółowości obrazu. Jest to proces analogiczny do binowania. Pewnie, że mniejsze piksele można zbinować - ale nie mówimy o binowaniu, tylko o tym, ile fotonów w jednostce czasu leci na piksel w rozdzielczości natywnej. Gdzie tu widzisz dezinformację?
  23. A można też np. w Sirilu, po zrobieniu plate solve'a (albo kalibracji fotometrycznej, która też robi solve'a), zaznaczyć ramką wybrany fragment nieba z jakimś obiektem (trzeba się przełączyć na któryś kolor, w łączonym RGB nie działa), kliknąć prawym klawiszem myszy, wybrać "PSF" i "More details", i od razu przekierowuje nas na stronę Simbada.
  24. A czy dane są widziane na tych nośnikach z poziomu ASIair? Ja zawsze robię tak, że karty SD mam na stałe włożone w ASIair. Obrazy są widoczne w apce ASIair na smartfona w dziale Image Management, w osobnych katalogach. Jeśli chcę coś ściągnąć na dysk laptopa, to podłączam się laptopem do hotspota WiFi utworzonego przez ASIair, wchodzę w Eksploratora plików w Windowsie, wpisuję "\\asiair", żeby przejść do katalogów na nośniku włożonym w ASIair, i stamtąd ściągam dane na dysk lapka przez WiFi. Za moich czasów ZWO tę metodę zalecało jako najwłaściwszą, ale jak jest teraz, to nie wiem. Nie mam najnowszych wersji ASIair, korzystam z wersji Pro.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.