Skocz do zawartości

Kilka pytań teoretycznych


Patryk Kizny

Rekomendowane odpowiedzi

Zakładam ten wątek mając kilka pytań w sprawie technik astrofotograficznych i teorii.

Zakładam również, że z czasem pewnie pytań przybędzie. Tematy niby były poruszane w niektórych wątkach, ale ciężko mi znaleźć dokładną odpowiedź.

 

Po kolei:

 

1. Binning a czułość.

Teoretycznie, o ile mi wiadomo fotografuje się w biningu >1x1 po to, by zmniejszyć czas naświetlania.

Co się rzeczywiście dzieje w binningu 2x2 przy tym samym gainie?

a) powierzchnia aktywna dla 1 pixela, która zbiera światło jest zwiększona 4-krotnie. Teoretycznie zatem w bin 2x2 zyskujemy 4-krotnie większą wydajność rozumianą jako ilość zarejestrowanego światła w jednostce czasu.

B) podobno, tutaj nie mogę znaleźć jednoznacznego potwierdzenia, zwiększa się też głębokość studni, co może zabezpieczać przed bloomingiem.

 

Pytania:

a) co dokładnie się dzieje w kamerze? Czy zczytywany jest obraz w pełnej rozdzielczości przez ADC, a następnie dane z pixeli 1x1 są sumowane, w efekcie czego powstaje informacja na temat każdego pixela 2x2? Jeśli tak, to gdzie? sumowanie następuje w ADC? czy gdzieś dalej w procesorach kamery?

Czy też już podczas samego zczytywania następuje odczyt w jakiś sposób (jak?) z 1 poczwórnego pxela? Trudno mi sobie wyobrazić to połączenie pixeli w binningu.

B) z tą głębokością studni, to na mój rozum to nie jest prawda. To tak jak z wiadrami - jak mamy 4 wiadra i wystawimy je na deszcz, to zbierzemy 4x więcej deszczu w ciągu jednostki czasu. Ale jednocześnie ciągle każde wiadro jest osobne, więc pojemność każdego z nich jest taka sama. Czyli jeśli np. założymy, że mamy wiadra po 10 litrów, a desz spada w kroplach (nierozrywalnych) po 15 litrów, to takiej kropli i tak nie zmieścimy w żadnym z wiader, więc nic nam nie da to, ze mamy 4. Chyba jednak w bin 2x2 ciągle mamy takie same pixele, więc głębokość studni się nie zwiększa? Łańcuch jest tak mocny, jak mocne jest jego najsłabsze ogniwo.

c) Jeśli przy binningu odczyt następuje i tak z pojedynczych pixeli a konwersja następuje w ADC lub później poprzez zsumowanie sygnału z 4 pixeli, to przecież chyba nie ma sensu binować, bo możemy naświetlić pełną rozdzielczość i potem w miarę potrzeby zokonać binningu software'owego. A jednocześnie mamy normalny niezbinowany obraz w pełnej rozdzrilczości. Coś jak z niewywołanym kolorem RAWa w DSLR. To prawda, czy się mylę?

 

2. Flaty i kolor

Nie mam w tym momencie przykładu, ale spróbuję potem zamieścić ilustrację.

Przy fotografowaniu moją kamerą bez flatów mam bardzo duzy problem z obróbką koloru.

Chodzi o to, że rozkład natężenia światła w kadrze zmienia się bardzo mocno w zależności od filtra. W efekcie zawsze jak zestackuję RGB to w tle mam widoczną bardzo wyraźną tęczę w makroskali kadru.

Żeby to jasniej opisać - powiedzmy, że przy dużym stretchu (ale jednak takim, jaki się stosuje wyciągając sygnał słabych mgławic) lewa 1/3 kadru jest niebieska, środkowa jest żółta, a prawa czerwona.

 

Analogicznie, flaty w kolorze, które robie pokazują te różnice natężeń.

Czy to jest normalne, że obraz w każdym z filtrów aż tak się od siebie różni jeśli chodzi o rozkład natężenia w różnych partiach kadru?

W dodatko nie jest to kwestia tego, że on jest zawsze koncentryczny względem środka kadru, tyklo jest raczej tak, że w każdym z filtrów jest zupełnie inaczej - maximum nie wypada zawsze w środku kadru.

 

Czy coś jest nie tak, czy to jest normalne i skasuję to normalnie flatami?

 

Poniższa fota przedstawia goły stack RGB jedynie z wyrównanym poziomem tła, żeby usunąć dominantę jednego z kolorów.

Wychodzi dokładnie tęcza, o której mówię.

 

Picture-2.jpg

Edytowane przez pkz
  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

...b ) podobno, tutaj nie mogę znaleźć jednoznacznego potwierdzenia,zwiększa się też głębokość studni, co może zabezpieczać przedbloomingiem...

nie

 

to może inaczej: pojedynczy pixel to nie wiaderko, to kawałek pola całej matrycy oddzielony od sąsiednich pixeli "drucikami" pod napięciem, utrzymywane napięcie tych ścieżek nie pozwala rozlać/połączyć się elektronom z sąsiednich poletek,

przy bin 2 to po prostu co drugi drucik jest pod napięciem

a takie poletko to też nie poletko, to kondensator, wstępnie naładowany przed expozycją, a to jak bardzo da się go naładować, określa studnię potencjału pojedynczego pixela, więc jeżeli Twoja kamera ma tę studnię "głębokości" 25 tys elektronów, to i tak nawet ten 4x większy pixel (przy bin2) uzbiera/zliczy tylko 25 tysięcy elektronów, tyle że zrobi to szybciej, bo z większej powierzchni

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Teoretycznie "sprzętowego" bin'a nie można porównywać z softwareowym, ale... teoria teorią, praktyka praktyką. Np. w przypadku mojej matrycy binning wiele nie daje. Jest wygodny do kadrowania, bo daje większy S/N. W czym rzecz? Trzeba pamiętać, że jest coś takiego jak sprawność kwantowa kamery. Jeżeli moja kamera w peak'u daje blisko 90% QE, to znaczy, że 9 na 10 fotonów zostanie zarejestrowanych. Załóżmy - w teorii. Jeżeli zrobię bin 2, to trudno będzie mi zwiększyć rejestrowalność fotonów 4x, bo to by znaczyło, że naglę łapię 36 fotonów na 10, które przybyły z kosmosu. A to chyba - delikatnie mówiąc, niemożliwe ;) Binnig więc zwiększy efektywność do pewnego stopnia. Pozostały "zysk" to lepszy stosunek sygnału do szumu.

 

I faktycznie, w mojej kamerze bin2 np. w RGB nie daje praktycznie nic więcej. Wygląda nawet gorzej, przez "brzydszy" szum. Wszystko robię w bin 1. W przypadku kamer multi-mega-pikselowych bin 2 ma zdecydowanie większy sens. Jak jest u ciebie, musisz sam empirycznie sprawdzić. Będziesz wiedział, czy to ma sens.

 

Co do flatów - witaj w świecie "większych" matryc mono. Przy większym polu widzenia zmienia się wszystko. Weźmy tylko kilka podstawowych czynników:

1. sprawność matrycy zmienia się wraz z jej miejscem, do tego w różnych widmach inaczej działa. Na małej jest to niezauważalne, na większej - coraz bardziej.

2. duże pole to też duża szansa na rejestrowanie nierówności zaświetlenia nieba, czyli potocznie zwane - gradienty

3. duże filtry też mogą nie być idealne...

4. sama optyka też generuje winietowanie

5. duża matryca wprowadza też większe ryzyko spadku sprawności na zewnętrzynych częściach przez efekt zwiększonego kąta padania promieni świetlnych (wygląda jak winietowanie, ale nim w istocie nie jest).

 

Pewnie można dopisać jeszcze parę powodów. O ile w małych matrycach problem flatów przy dobrej optyce jest marginalny i od biedy można się bez nich obejść, o tyle ich "potrzeba" rośnie wraz ze skalą krążka światła i samej matrycy.

 

Wyobraź sobie, co będzie się działo u mnie, przy matrycy prawie 4cm x 4cm. To jest masakra i wymaga bardzo, bardzo dużego nacisku na pracę z flatami, oraz samego balansowania lokalnej jasności klatki. Nowe problemy, nowe możliwości.

 

To najpopularniejszy zawód użytkowników w związku z kupieniem topowej kamery (czyli z wielką matrycą). Jeżeli nie są do tego przygotowani, to są zirytowani na maxa. Stąd można czasami spotkać ProLine'y 2 msc. na giełdach ;)

 

Twoja matryca to już spory kawałek powierzchni. Jest wielkości APS-c, czyli DSLRowski format. W kolorowych matrycach problem ten nie występuje, bo zdjęcie powstaje w jednej chwili, we wszystkich kolorach. Każdy piksel robi zdjęcie tylko w 1 kolorze i w tych samych warunkach. W kolorowej np. jeden kanał robisz w zenicie, inny np. na 30 stopniach elewacji. Nie ma możliwości, żeby rozkład jasności klatki był taki sam, a przy dużym polu różnice będę ogromne, nawet z dobrze zrobioną biblioteką flatów.

 

Dla pocieszenia powiem, że można się tego nauczyć, a jak moja wiedza będzie przydatna przy potworze wielkiego formatu, to się jeszcze okaże. Następny rok na naukę ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Adam,

 

Dziękuję za info w sprawie flatów.

Porobię dobre flaty i zobaczymy o ile problem się rozwiąże. Wolałbym uniknąć żonglowania maskami i layersami w PS.

Oczywiście potrafie sobie to wszystko w PS pościągać, ale myślałem, że da się tego uniknąć.

 

Odnośnie bina:

Trzeba pamiętać, że jest coś takiego jak sprawność kwantowa kamery.Jeżeli moja kamera w peak'u daje blisko 90% QE, to znaczy, że 9 na 10fotonów zostanie zarejestrowanych. Załóżmy - w teorii. Jeżeli zrobiębin 2, to trudno będzie mi zwiększyć rejestrowalność fotonów 4x, bo toby znaczyło, że naglę łapię 36 fotonów na 10, które przybyły z kosmosu.

 

No tutaj się nie zgodzę - zapominasz o jednej bardzo ważnej rzeczy: QE=90% oznacza, że kamera zbiera 9 z 10 fotonów na jednostkę powierzchni (pixel). Ale przy bin 2x2 jednostka powierzchni zwiększa Ci się 4 krotnie. A zatem istotnie, zbierasz 36 fotonów, ale nie z 10 tylko z 40.

 

Nadal nie wiem jednak na czym polega istota biningu i czy chodzi o sumowanie wartości pixeli, czy jest jednak jakaś wartość dodana inna niż 4 krotnie większa powierzchnia.

Jeśli to jest sumowanie, to nie ma sensu robić bina, bo tracisz bezpowrotnie rozdzielczość, podczas kiedy binując softwareowo zostawiasz zdjęcie niedookreślone - możesz sobie je zbinować w dowolnym momencie.

Dlaczego uważasz że bin softwareowy to nie to samo co sprzętowy?

Odnośnik do komentarza
Udostępnij na innych stronach

No tutaj się nie zgodzę - zapominasz o jednej bardzo ważnej rzeczy: QE=90% oznacza, że kamera zbiera 9 z 10 fotonów na jednostkę powierzchni (pixel). Ale przy bin 2x2 jednostka powierzchni zwiększa Ci się 4 krotnie. A zatem istotnie, zbierasz 36 fotonów, ale nie z 10 tylko z 40.

Ale bin nie produkuje dodatkowej powierzchni. Porównaj sobie z sytuacją w bin 1. Te 4 piksele też by złapały fotony z efektywnością 9/10. Punktem odniesienia w obydwu przypadkach jest jednostka powierzchni 2x2 - czyli taki super piksel. Niezależnie od tego, czy będzie to bin1, czy bin2 ilość fotonów spadnie taka sama - w jednostce czasu. Przy kamerach o bardzo niskim szumie odczytu oraz dużej sprawności kwantowej, różnica między bin 1 i bin 2 będzie mniejsza, niż w kamerze która dorzuca sporo szumiących elektronów w czasie zczytywania, oraz ma niską ogólną sprawność.

 

Dobrym przykładem dla wyobraźni może być sytuacja nierealna. Zastosuję ją tylko w celach logicznych. Załóżmy, że mamy matrycę o nieskończonej studni, zerowym szumie (także odczytu) oraz 100% sprawności kwantowej. Pytanie: jaka będzie różnica bin 1 vs bin 2 :szczerbaty:

Edytowane przez Adam_Jesion
edit
Odnośnik do komentarza
Udostępnij na innych stronach

Nadal nie wiem jednak na czym polega istota biningu

Wedłóg mnie, praktyczna różnica bin sprzętowy vs softwareowy leży w problematyce zbędnych elektronów generujących szum. Załóżmy, że skonwertowanie ładunku na informację cyfrową kosztuje wprowadzenie do informacji 10 elektronów (szum). Odnieśmy się teraz do super piksela 2x2. Hipotetycznie zakładamy, że odczyt każdego z nich wygeneruje na 10 elektronów niechcianych, zwanych szumem "odczytu". Teraz wyobraźmy sobie, że na każdy piksel w ciągu 1 min ekspozycji doleci 10 fotonów.

 

1. Sytuacja 1 - bin 1. Mamy 10 fotonów na 1 piksel z kosmosu, odczyt każdego z piksela kosztuje 10 elektronów szumu (superpiksel 2x2 oznacza że mamy 40 elektronów zamienionych z fotonów i 40 elektronów pochodzących z odczytu - szum). Efekt - szum, oraz zero informacji (za mało, żeby informacja wydostała się z szumu). Zrobienie softwareowego biningu w tej hipotetycznej sytuacji nie da absolutnie nic, poza zmniejszeniem samego szumu (żadna informacja się nie pojawi).

 

2. Sytuacja 2 - bin 2 - super piksel 2x2 piksele. Na każdą jednostkę wpadnie 10 fotonów, czyli super piksel zakumuluje 10x4, czyli 40 fotonów. Odczyt mamy jeden z superpiksela, czyli dochodzi 10 elektronów szumu, zostaje +30 jednostek powyżej szumu. Sporo informacji - prawda?

 

Oczywiście obraz powyższej hipotetycznej sytuacji pogarsza sprawność kwantowa. Ale sam tok myślowy jest chyba prawidłowy, bo przecież poruszamy się w świecie fotonów, które dosłownie wyżynają się ponad granicę szumu.

Odnośnik do komentarza
Udostępnij na innych stronach

Adam! no właśnie o to pytam!

Właśnie próbuję zrozumieć czym się różni bin1 od bin2. Na przykładzie:

 

Hipotetyczna sytuacja:

QE = 90%

Rozdzielczość matrycy: 2x2 pixele

Rozmiar pixela = 1 mikron

Strumień światła (jednorodny): 10 fotonów/ 1 mikron^2 / 1s

 

Bin 1x1, ekspozycja 1 s.

Łącznie na matrycę pada 4 (powierzchnia) * 10(ilość fotonów w ciągu sekundy) *0.9 (QE) = 36 fotonów.

Na 1 pixel pada Ci 9 fotonów.

 

Załóżmy taki gain i współczynnik konwersji, że te 9 fotonów daje nam sygnał na poziomie 90 jednostek dla każdego pixela.

Więc masz 4 pixele naświetlone do wartości 9.

Jak sobie softwareowo zbinujesz, to masz i poczwórny pixel o wartości 36 jednostek.

 

Bin 2x2, ekspozycja 1s.

Łącznie na matrycę pada 4 (powierzchnia) * 10(ilość fotonów w ciągu sekundy) *0.9 (QE) = 36 fotonów.

Na 1 poczwórny pixel pada Ci razem 36 fotonów.

 

Jedyna różnica jest taka, że jeśli (!) bin nie polega na sumowaniu wartości pixeli po odczycie (a z tego co pisał sumas wynika, że tak nie jest, bo poprostu fizycznie pixek jest 4 razy większy - połączone naczynia), to masz z pixela od razu sygnał 36 jednostek, a zatem silniejszy, czyli biorąc pod uwagę readout noise stosunek S/N będzie większy, bo Ci readout noise nie zje informacji. Więc chyba sobie odpowiedziałem.

 

Pytanie czy w moim rozumowaniu nie ma błędu.

Odnośnik do komentarza
Udostępnij na innych stronach

Co się rzeczywiście dzieje w binningu 2x2 przy tym samym gainie?

a) powierzchnia aktywna dla 1 pixela, która zbiera światło jest zwiększona 4-krotnie. Teoretycznie zatem w bin 2x2 zyskujemy 4-krotnie większą wydajność rozumianą jako ilość zarejestrowanego światła w jednostce czasu.

B) podobno, tutaj nie mogę znaleźć jednoznacznego potwierdzenia, zwiększa się też głębokość studni, co może zabezpieczać przed bloomingiem.

 

dokładnie tak jak piszesz studnia potencjału x4.

w 4 razy krótszym czasie rejestrujesz tyle samo fotonów co w 1x1

w 2 razy krótszym czasie masz 2x więcej fotonów co w 1x1 i wieksze S/N

Na A/D mozesz mieć napięcie z fizyczną rozdzielczością większa o 1 bit.

Odnośnik do komentarza
Udostępnij na innych stronach

w 4 razy krótszym czasie rejestrujesz tyle samo fotonów co w 1x1

w 2 razy krótszym czasie masz 2x więcej fotonów co w 1x1 i wieksze S/N

Jest to ogromne uproszczenie, wręcz mit i legenda. Rozwiń mi myśl pierwszą - skąd weźmiesz 4 razy więcej fotonów? Załóżmy że mamy do czynienia z kamerą 90% QE - 9 na 10 fotonów zostanie zamienionych na elektrony, a następnie zliczonych. Załóżmy hipotetycznie, że mamy z kosmosu 10 fotonów zbliżających się do matrycy (tyle na 1 piksel).

 

Za to ostatni Twój punkt jest istotny:

 

"Na A/D mozesz mieć napięcie z fizyczną rozdzielczością większa o 1 bit."

Edytowane przez Adam_Jesion
Odnośnik do komentarza
Udostępnij na innych stronach

Czyli w praktyce bin 2x2 powoduje wyłącznie zwiększenie S/N ratio poprzez zmniejszenie szumu odczytu proporcjonalnie do bina.

Tylko tyle i aż tyle.

No właśnie - aż tyle. S/N jest potwornie niedocenianym parametrem kamer. Błąd odczytu jest różny. W naszych zastosowaniach te przypadkowe elektrony powodujące szum odczytu są kluczowe, nierzadko bardziej, niż samo QE.

 

Żeby poprawić ogólną sprawność zestawu możemy:

1. zwiększyć QE kamery

2. zmniejszyć szum odczytu

3. zwiększyć aperturę (większe wiadro do łapania fotonów, bo to one sa głównym podmiotem naszych rozważań)

4. zwiększyć piksel (i matrycę) razem z aperturą

Odnośnik do komentarza
Udostępnij na innych stronach

Pozatym jeszcze jest cos takiego jak szum sygnału i nie ma sytuacji, że na sąsiednie pixele pada po 10fotonów. przy średniej np 10fotonów na pixel na sąsiednie pixele trafi +/-(10)^1/2 to jest rozrzut aż +/-31%. Jeżeli mamy bin 2x2 to mamy średnią 40fotonów i szum spada do +/-16% z samego faktu, że powierzchnia pixela jest 4x wieksza.

 

przy 2x krótszym czasie mamy 20 fotonów więc +/-20% i tak jest mniejszy szum niż bin 1x1.

 

krótszy czas, mniejszy szum sygnału, mniejszy szum odczytu, mniejszy szum termiczny, bo studnia rośnie 4x a powierzchnia dostarczająca elektrony z zewnątrzy nie rośnie 4x.

 

przy binningu softwarowym również spada szum ze względu włąsnie na różnice w poziomie rejestracji pomiędzy pixelami.

Edytowane przez McArti
Odnośnik do komentarza
Udostępnij na innych stronach

Jest to ogromne uproszczenie, wręcz mit i legenda. Rozwiń mi myśl pierwszą - skąd weźmiesz 4 razy więcej fotonów?

 

no przeciech kośmos świci na wszystkie pixle równo. bin to kanały pootwierane między studniami potencjału i to wszystko. sens binningu jest taki sam jak wzrostu pixela i studni potencjału.

Odnośnik do komentarza
Udostępnij na innych stronach

Okey przymijmy, że studnia jest x4.

 

U mnie do tego dochodzi mniejszy gain. Czyli jeszcze większy S/N.

QSI zaleca, by w bin 1x1 korzystać z trybu high gain - 0.5 e-/ADU, a w bin 2x2 i więcej ustawiać tryb low gain - 1.0 e-/ADU.

 

To zwiększa podobno dynamikę tonalną i kamera tak nie bloomi. Chodziaż ja nigdy w życiu blooma na mojej kamerze nie doświadczyłem.

Nawet na półgodzinnych klatkach z zachodnią częścią Veila, gdzie sygnał jasnej gwiazdy w centrum kadru mógł juz mocno dawać w sensor.

Edytowane przez pkz
Odnośnik do komentarza
Udostępnij na innych stronach

Lecimy dalej z pytaniami

 

3) Filtry a ogniskowanie

Mój aktualny setup to: TOA 130 APO @F5.6, Filtry Baadera LRGB.

Teoria wskazuje, że ogniskowanie poszczególnych długości fal powinnosię różnić. ALE z drugiej strony to jest APO, więc właśnie ta różnicaogniskowania powinna być skorygowana.

 

Praktyka wykazuje, że offset dla filtrów wynosi 0-2 jednostek, gdzie jednostka dla mojego wokusera to 27 mikronów.

Uważam, że w praktyce można przyjąć offset 0, błąd rzędu 2 jednostek moze być kwestią niedokładności pomiaru (seeing).

Więc olewam refocusowanie pomiędzy filtrami, a sesje palę naprzemiennie RGB.

 

A zatem pytania:

a) jak w moim przypadku powinno być teoretycznie z offsetami dla filtrów?

B) w jaki sposób to wyliczyć?

c) jak wychodzi z offsetami w praktyce w Waszych zestawach?

 

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Nie mam przed sobą wzoru na wyliczenie "grubości" punktu ostrości w Twoim setupie, ale 27 mikronów to dużo za dużo, żeby uzyskać zawsze idealną ostrość (systemy autofocusowania nie będą Ci działać prawidłowo). Powinieneś mieć coś koło 6-7 mikronów na krok, a samych kroków na całym wyciągu TOA około 10 tys. Oznacza to, że masz źle ustawiony step size. Pewnie masz wartość 4, przestaw sobie na 1 i skalibruj jeszcze raz robofocusa.

 

Prawdopodobnie masz dlatego tak małe różnice w offsetach, bo dokładność działania robofocusa jest poniżej offsetu filtra. Wielkość offsetu zależy od jasności optyki. Do f5 generalnie jest dobrze z każdymi filtrami parafokalnymi. Sytuacja trochę komplikuje się przy f4 i niżej.

 

Sprawdź też samo koło (mechanika), czy zmiana filtra nie powoduje przestawienia ostrości. Wybierz sobie jakąś gwiazdkę, zmierz ją w maximie (np. 3 pomiary uśrednij) i potem poobracaj koło parę razy i wróć do tego samego filtra, na którym robiłeś pomiar. Jeżeli wartość FWHM jest taka sama, jak poprzednie, tzn. że możesz zmieniać filtry bez refocusowania.

 

TOA jest niezwykle podatne na zmiany temperatury, dlatego miej to na uwadze robiąc pomiary, czy testy. Przede wszystkim daj mu 2h na wychłodzenie, dopiero wtedy zacznij pomiary. W przypadku mierzenia offsetów dla filtrów powinieneś zawsze robić to parami:

1. L (referencyjny)

2. R

3. L, G

4. L, B

5. L, Ha

6. itd.

 

Nie da się zmierzyć offsetu w TOA w polskich warunkach robiąc tak, że mierzymy L i potem po kolei RGBHaOIIISII... Robiąc tak, jak napisałem, zauważysz pod koniec mierzenia, jak mocno przesunęło się samo L w czasie zmiany nocnej temperatury.

Odnośnik do komentarza
Udostępnij na innych stronach

Teoria wskazuje, że ogniskowanie poszczególnych długości fal powinnosię różnić. ALE z drugiej strony to jest APO, więc właśnie ta różnicaogniskowania powinna być skorygowana.

tylko, że przesunięcie ognisk przy filtrach nie wynika z tego, że obiektyw to nie apo a dlatego, że każda długość fali inaczej przechodzi przez płaskie szkło.

 

ps. oczywiście producent moze kombionwac parafokalność dobierając różne grubości każdego z filtrów.

filtry i ognisko.GIF

Edytowane przez McArti
Odnośnik do komentarza
Udostępnij na innych stronach

All right. Wsystko jasne. O tym nie pomyślałem.

Zapewne zatem filtry Baadera CCD LRGB nie są parafokalne?

Są i dlatego różnice będą subtelne. Gdyby nie były, to różnica byłaby większa. Jak łatwo się domyślić, parafokalność uzyskuje się przez kontrolę grubości. Pytanie brzmi, ale przy jakiej światłosile? Kąt padania promieni zmienia się wraz z szybkością sprzętu, więc trudno zrobić tak, żeby coś było parafokalne np. dla f8 i jednocześnie też idealnie sprawdzało się przy f2. Baadery znośnie sprawdzają się do f5-f6. Poniżej trzeba offsetować. Astrodony wypadają pod tym względem trochę lepiej, ale dla mnie wykluczone są przez odblaski. Do nowej kamery kupiłem kwadraty Baadera i naprawdę nie dlatego, że były tańsze.

 

"Astrodon filters are known for being parfocal on most systems. The new thickness tolerance of +/-0.025mm (25 microns) for Generation 2 LRGB fitlers is a factor of 2 better than Gerneration 1 filters, and should be parfocal for systems down to f/3.5, IF your optical system is well color corrected"

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.