Skocz do zawartości

Ilość zebranego materiału, a efekt końcowy


blazer1983

Rekomendowane odpowiedzi

Cześć wszystkim,

mam do Was pytanie.

Ostatnio zbierałem materiał NGC6960, do pierwszej obróbki usiadłem przy łącznej ekspozycji 7,5h następnie 13h i finalnie 21h.

Szczerze powiem, że nie widziałem po obrazie końcowym zbyt wielkiej różnicy.

Czy ktoś z Was spotkał się z jakimś zestawieniem które pokazuje różnice w ilości zebranego materiału?

Oglądając różne tutoriale na YT niektórzy autorzy mówią o ilości 40h i więcej, stąd ten post bo ciekaw jestem jak to jest.

Odnośnik do komentarza
Udostępnij na innych stronach

9 godzin temu, blazer1983 napisał(a):

Pewnie masz rację tylko, że na tym filmiku jest zaledwie 8h, a mi bardzie chodzi właśnie o porównanie 20h, 30h, 40h itd.

Czy jest sens w zbieraniu tak dużej ilości materiału przy naszych polskich warunkach.

 

 

Wszystko zależy od obiektu, sprzętu i jakości nieba. Po zlocie w Bieszczadach wpadną Irysy, Ameryki i NGC 1333 palone po 2 godziny i będą ładne.

 

Obraz 10h ma 40% lepszy SNR niż po 5h.  By uzyskać następne 40% potrzeba już focić 20h.  W pewnym momencie uderzamy w ścianę. W przypadku focenia "z balkonu" potrzeba dużo dłuższego czasu niż z ciemnego nieba.

 

Edytowane przez licho52
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

do tego co napisał @Piotr K. dochodzi jeszcze "wydajność kamery" czyli Quantum Efficiency. W skrócie chodzi o to jaki procent fotonów jest zamieniany na elektrony bo te generują obraz. Obecne kamery mają QE na poziomie 80 - 90% czyli każde 100 fotonów produkuje 80 do 90 elektronów. Starsze kamery mają to QE sporo niższe np. 50-60%. To się oczywiście przekłada na czas potrzebny do uzbierania tego samego. Im QE lepsze tym szybciej uzbieramy potrzebną ilość informacji.

 

 

  • Lubię 6
Odnośnik do komentarza
Udostępnij na innych stronach

12 minut temu, Wiesiek1952 napisał(a):

do tego co napisał @Piotr K. dochodzi jeszcze "wydajność kamery" czyli Quantum Efficiency. W skrócie chodzi o to jaki procent fotonów jest zamieniany na elektrony bo te generują obraz. Obecne kamery mają QE na poziomie 80 - 90% czyli każde 100 fotonów produkuje 80 do 90 elektronów. Starsze kamery mają to QE sporo niższe np. 50-60%. To się oczywiście przekłada na czas potrzebny do uzbierania tego samego. Im QE lepsze tym szybciej uzbieramy potrzebną ilość informacji.

 

 

 

Warto nadmienić, że QE silnie zależy od długości fali światła i maksymalne, czyli te wspomniane około 90%, ma tylko w okolicy światła zielonego. Im dalej od niego, tym gorzej.

Odnośnik do komentarza
Udostępnij na innych stronach

41 minut temu, Wiesiek1952 napisał(a):

"wydajność kamery" czyli Quantum Efficiency. W skrócie chodzi o to jaki procent fotonów jest zamieniany na elektrony bo te generują obraz. Obecne kamery mają QE na poziomie 80 - 90% czyli każde 100 fotonów produkuje 80 do 90 elektronów. Starsze kamery mają to QE sporo niższe np. 50-60%. To się oczywiście przekłada na czas potrzebny do uzbierania tego samego. Im QE lepsze tym szybciej uzbieramy potrzebną ilość informacji.

 

Nie chciałem w to wchodzić, żeby nie komplikować tematu. Ale OK, może faktycznie dobrze też o tym wspomnieć.

 

38 minut temu, blazer1983 napisał(a):

Wiesiek1952 tak ten parametr jest kluczowy, dzięki za wpis

 

Samo QE to tylko połowa sukcesu. Ważna jest jeszcze wielkość piksela, a raczej jego powierzchnia, bo to na nią padają fotony. Im mniejsza powierzchnia piksela, tym mniej fotonów na nią padnie. Nie warto podniecać się samym QE. Dlaczego? Bo może się okazać, że mały piksel, nawet z wysokim QE, złapie MNIEJ fotonów, niż duży piksel z niskim QE.

 

Prosty przykład:

 

Kamera ASI1600, piksel 3,8 um, QE ok. 60%. Liczymy sobie coś, co roboczo nazywam "efektywną wielkością piskela" (może jest na to jakiś fachowy termin, jeśli tak, to dajcie proszę znać):

 

efektywna wielkość piksela = powierzchnia x QE

 

czyli dla ASI1600 e.w.p. = 3,8^2 x 0,6 = 8,664

 

To teraz zobaczmy, jak to wygląda w przypadku np. ASI183, która ma QE na poziomie 84%, ale piksel tylko 2,4 um:

 

e.w.p. ASI183 = 2,4^2 x 0,83 = 4,78

 

A to oznacza, że kamera ASI1600, mimo że ma QE "tylko" 60%, łapie w jednostce czasu prawie DWA RAZY WIĘCEJ światła, niż ASI183 (8,664 / 4,78 = 1,81).

 

A co ze znaną i kochaną ASI2600? Piksel 3,76 um, QE 80%

 

e.w.p. ASI2600 = 3,76^2 x 0,8 = 11,31

 

Czyli jeśli chcemy przejść na ASI2600 z ASI1600, to wydajemy 10-13k PLN, a zyskujemy raptem 30% więcej łapanych fotonów (11,31 / 8,664 = 1,3).

 

Jak się w tym zestawieniu ma Canon 1100D, z pikselem 5,2 i QE na, wydawałoby się, żałosnym poziomie 36%? Policzymy:

 

e.w.p. Canon 1100D = 5,2^2 x 0,36 = 9,73

 

Czyli, no proszę, leciwy Canon, którego można kupić za 500-600 zeta, łapie ok. 12% WIĘCEj światła, niż ASI1600 :)

 

I dlatego wg mnie sprzętem absolutnie nie do pobicia jest Canon 6D. Piksel 6,54 um, QE "tylko" 50%, ale jaka e.f.w.!

 

e.f.w. Canon 6D = 6,54^2 x 0,5 = 21,4

 

Zostawia w tyle wszystko, co jest na rynku, zwłaszcza biorąc pod uwagę, że używane body można trafić za 1,5-2,5k PLN, zależnie od przebiegu.

 

Oczywiście, są jeszcze kwestie szumu odczytu, szumu termicznego, wydajności kwantowej przy różnych długościach fal, itp., itd. Na potrzeby niniejszych rozważań wg mnie nie ma sensu w to wchodzić, bo to już są szczegóły. Ważne, ale raczej gdy ma się już sporo doświadczenia i wie się, co się robi.

 

A jeszcze tak przy okazji - sprawdźcie sobie np. na stronce APT dane dot. matryc, i policzcie e.f.w. dla różnych aparatów. Okaże się, że dla sporej częsci e.f.w. jest bardzo podobne, mimo że jedne mają wyższe QE, a inne niższe. Ale mają też różne wielkości pikseli, i dlatego łącznie wychodzi mniej-więcej na to samo.

Edytowane przez Piotr K.
  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

No i pięknie, wszystko klarownie wyjaśnione i wg. mnie to powinno zostać gdzieś przypięte na forum.
Ale wracając do tematu wątku: wiem teraz że samyang na f2 złapie w 1h tyle co rura f5,6 w 7,5h, ale wciąż nie wiem ile to będzie wystarczający czas by np przy e.f.w = 8, bortle 6 i rurce f5 zdjęcie wyszło przyzwoite.

Ktoś może powiedzieć 'czy zdjęcie jest przyzwoite jest kwestią subiektywną', ale może da się określić przyzwoitość za pomocą np SNR.

Odnośnik do komentarza
Udostępnij na innych stronach

Zbyt wiele zmiennych, które trzeba by uwzględnić, by podać konkretną wartość. Przecież nawet wysokość nad horyzontem i kierunek mogą mieć olbrzymi wpływ na wielkość szumu. Po prostu trzeba na bieżąco sprawdzać co wychodzi z dotychczas zebranego materiału i w pewnym momencie odpuścić.

Zachęcam jednak do analizowania tła w surowych plikach i w stakach - jak duże jest odchylenie standardowe pikseli samego tła, bez gwiazd, mgławic itp.

  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

Dla mnie to wygląda tak nie patrząc na obliczenia matematyczne, kwadraty, potęgowanie i inne. Mam materiał powiedzmy równo 20 godzin. Robiąc stack chcę odrzucić najsłabsze 10-20 procent - sporo ale warto. Cirrus, błąd prowadzenia, szarpnie kabel itp itd. Palę dalej te 2 godziny więcej ale ja chcę mieć bardzo dobej jakości materiał więc palę 30 godzin i daję odrzut 20-30 procent itd. Można tak w nieskończoność :)

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Godzinę temu, dobrychemik napisał(a):

Zbyt wiele zmiennych, które trzeba by uwzględnić, by podać konkretną wartość. Przecież nawet wysokość nad horyzontem i kierunek mogą mieć olbrzymi wpływ na wielkość szumu. Po prostu trzeba na bieżąco sprawdzać co wychodzi z dotychczas zebranego materiału i w pewnym momencie odpuścić.

Zachęcam jednak do analizowania tła w surowych plikach i w stakach - jak duże jest odchylenie standardowe pikseli samego tła, bez gwiazd, mgławic itp.

Ja staram się focić obiekty, które aktualnie znajdują się najwyżej na nieboskłonie ale ta lista zapewne szybko się skończy i będę musiał walczyć z atmosferą 😪

Odnośnik do komentarza
Udostępnij na innych stronach

41 minut temu, _Spirit_ napisał(a):

Dla mnie to wygląda tak nie patrząc na obliczenia matematyczne, kwadraty, potęgowanie i inne. Mam materiał powiedzmy równo 20 godzin. Robiąc stack chcę odrzucić najsłabsze 10-20 procent - sporo ale warto. Cirrus, błąd prowadzenia, szarpnie kabel itp itd. Palę dalej te 2 godziny więcej ale ja chcę mieć bardzo dobej jakości materiał więc palę 30 godzin i daję odrzut 20-30 procent itd. Można tak w nieskończoność :)

Ja ostatnim czasem do selekcjonowania materiału używam w Pixinsight skrypt SubframeSelector i selekcjonuje klatki na podstawie:

- FWHM

- Eccentricity

- Stars

Jak najbardziej selekcjonowanie i odrzucanie złych klatek jest zasadne co do końcowego stacka. 

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.