Skocz do zawartości

Porównanie kamer różnych marek z takimi samymi sensorami


Rekomendowane odpowiedzi

Tak mi w głowie właśnie zaświtało, że skoro mamy dzięki Oskarowi całkiem sporo informacji na temat różnych filtrów, to może warto by było także porównać kamery. Jest to zadanie o tyle prostsze, że SharpCap ma wbudowane narzędzie do analizy sensora kamery, które pozwala uzyskać jego charakterystykę (co później się przydaje np. do automatycznego określenia optymalnych ustawień czasu naświetlania i gainu - ale to inna nieco bajka). Można więc to sobie zrobić samemu w domu i nie potrzeba do tego żadnych specjalistycznych narzędzi - wystarczy kamera i komputer.

 

Do tego typu rozmyślań skłoniło mnie to, że charakterystyki kamer ZWO i Player One są najwyraźniej różne (co wyszło nam w innym wątku) a także to, że ostatnio zmierzyłem sobie w ten sposób kamerę SV305 od Svbony, która posiada kolorowy sensor IMX290 - więc niby taki sam, jak w ASI290MC, ale jej zmierzona w SharpCapie charakterystyka nie pokrywa się z tym, co na swojej stronie prezentuje ZWO. Mam też ASI462MC - i tutaj pomiary dość dobrze się zgadzają z tym, co jest na stronie producenta, więc zakładam, że ZWO nie publikuje jakichś tam wykresów z dupy, tylko że faktycznie ich wersja kamery jakoś się różni do tej od Svbony (oni niestety nie mają na stronie takich danych) czy też innych marek.

@Behlur_Olderys - Ty zdaje się masz 462 w wersji od QHY, więc gdybyś mógł wykonać taką analizę i pokazać wyniki, to porównalibyśmy sobie to z tym, co wyszło u mnie. Jak ktoś ma jakąś kamerę z matrycą IMX290 w wersji kolorowej, to też bym poprosił. Inne modele kamer/matryc też jak najbardziej można porównać, bo czemu nie - tylko po prostu te dwie mam pod ręką.

 

Poczytać o narzędziu można sobie tutaj:

https://www.sharpcap.co.uk/sharpcap/features/sensor-analysis

Cała procedura jest dość prosta - trzeba mieć po prostu jednolite, stałe oświetlenie (najlepiej więc robić to przy sztucznym świetle nad którym mamy kontrolę) i możliwość zakrycia kamery, kiedy będzie taka potrzeba (program poprosi o to w pewnym momencie). Włączamy pomiar, program mówi nam, czy jest mu za jasno czy za ciemno, jak mu wszystko pasuje, to już sobie całą robotę zrobi. U mnie było za jasno tak na dzień dobry, więc zwyczajnie przykrywałem kamery zwykłą kartką z drukarki; do pomiarów kamery miałem bez żadnych obiektywów. Kolor światła nie ma znaczenia, liczy się tylko jego natężenie. Aha, pomiary można wykonywać tylko dla kamer, które SharpCap może w pełni kontrolować (więc np. webcamy odpadają) i tylko w trybie RAW (osobno dla 8 i 12/14/16 bitów).

 

Moje wyniki:

 

ASI462MC

w trybie ośmiobitowym:

image.png.8177b199dc37813bbf89d558f11b16c2.png

 

i dwunastobitowym:

image.png.09420f840bca9731ed1300482be004b3.png

 

I wykres od ZWO (generalnie pokrywający się z tym, co SharpCap zmierzył w 12 bitach):

image.png.53892d5acf5ed6394e55ffaefb3ea260.png

 

Svbony SV305

8 bitów:

image.png.8c3ecc9c5abb2be40b7cdad1a8ef0996.png

 

 i 12 bitów:

image.png.4a2a5d51ae7c886a2b7d61c42265edd6.png

 

Dla porównania wykres od ASI290MC - naniosłem na niego to, co wyszło z pomiaru SV305, żeby było widać, jakie są różnice:

image.jpeg.7264fc8c8fda6c1034617543b1ed1f45.jpeg

 

 

Edit: a, bo jeszcze zapomniałem napisać!

SharpCap może nam wyświetlić histogram rejestrowanego obrazu; jak już sobie wykonamy oba pomiary (8 i 12/14/16 bitów) dla danej kamery, to są one zapisane i na ich podstawie program informuje nas m.in. o tym, czy w danych warunkach jest sens nagrywania w formacie ośmio- czy szesnastobitowym i jak bardzo przy danych ustawieniach szum odczytu wpływa na to, co próbujemy zarejestrować. SharpCap może też automatycznie określić optymalny czas naświetlania i gain w danych warunkach - ale to już jest funkcja dostępna tylko w wersji płatnej (bo sama analiza sensora i histogram są też w wersji darmowej).

Untitled.thumb.png.2d03712e54f77db726739cc39b14e41f.png

Nad histogramem mamy dwa paski - górny informuje o wpływie szumu odczytu (czerwony - dominuje, pomarańczowy - jest istotny, zielony - jest pomijalny); dolny mówi o tym, czy dany zakres jasności rejestrować w 8 czy więcej bitach (ciemnozielony - obecny tryb jest optymalny, jasnozielony - można przełączyć na 8 bitów bez straty informacji).

Edytowane przez Krzysztof z Bagien
  • Lubię 7
Odnośnik do komentarza
Udostępnij na innych stronach

Fajne bo mam SV305 ale totalnie nie wiem co Ty pokazałeś,  jak czytać tę wykresy co one w ogóle pokazują.  Pewnie będą się jarać wyjadacze astrofoto.

To ja poprosze drugi wątek z tym samym ale w wersji dla laik (zacznij od definicji i opisów poszczególnych pojęć i wykresów). 

Dzięki z góry.... 

Odnośnik do komentarza
Udostępnij na innych stronach

35 minut temu, dobrychemik napisał:

@Krzysztof z Bagien A sprawdzałeś powtarzalność wyników? Powinny się trochę różnić za każdym razem jeśli są efektem rzeczywistych pomiarów.

Specjalnie dla Ciebie - drugi pomiar ASI462MC, podpiętej do innego komputera (jeśli używamy kamery z kilkoma komputerami, to właściwie to można sobie plik z zapisanymi wynikami po prostu skopiować na innego kompa, nie trzeba za za każdym razem od nowa się w to bawić - ale for science ;))

 

8 bitów:

image.png.658503ef928a8f1eeb7f55f886edbd2d.png

 

12 bitów:

image.png.a3b2f16f581c4a33c97981e2c9689534.png

 

Jakieś tam niewielkie różnice faktycznie są.

  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

35 minut temu, wampum napisał:

Fajne bo mam SV305 ale totalnie nie wiem co Ty pokazałeś,  jak czytać tę wykresy co one w ogóle pokazują.  Pewnie będą się jarać wyjadacze astrofoto.

To ja poprosze drugi wątek z tym samym ale w wersji dla laik (zacznij od definicji i opisów poszczególnych pojęć i wykresów). 

Dzięki z góry.... 

Nie wiem, czy czuję się kompetentny, żeby to tłumaczyć. Wydaj mi się, że mniej-więcej wiem o co cho, ale nie chciałbym napisać jakichś głupot. W wolnej chwili spróbuję coś na ten temat napisać, ale w sumie żeby sensownie korzystać z kamery astro, to nie trzeba tego wszystkiego rozumieć; ten wątek to w większości takie tam dywagacje dla nerdów bez większego znaczenia strategicznego :)

Odnośnik do komentarza
Udostępnij na innych stronach

23 minuty temu, Piotrek K napisał:

jak oceniasz SvBony SV305?

Nie wiem, bo za dużo jej nie używałem - kupiłem ją parę dni temu z myślą o kamerze all-sky (bo poprzednią kamerę popsułem :(). Ale generalnie wszystko w niej działa, nagrywa co ma nagrywać, nie wywala się - więc chyba jest git.

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

2 godziny temu, Krzysztof z Bagien napisał:

Nie wiem, czy czuję się kompetentny, żeby to tłumaczyć. Wydaj mi się, że mniej-więcej wiem o co cho, ale nie chciałbym napisać jakichś głupot. W wolnej chwili spróbuję coś na ten temat napisać, ale w sumie żeby sensownie korzystać z kamery astro, to nie trzeba tego wszystkiego rozumieć; ten wątek to w większości takie tam dywagacje dla nerdów bez większego znaczenia strategicznego :)

Ja się przyłączam do prośby jako aspirujący do rozpoczęcia przygody z astrofoto, dobrze by było znać teorie zanim zabiorę się za praktykę… równie dobrze by było znać teorie zanim totalnie się w to wkręcę i wydam kilka tysi na kamerkę :ermm:

Odnośnik do komentarza
Udostępnij na innych stronach

6 godzin temu, wampum napisał:

jak czytać tę wykresy co one w ogóle pokazują

 

FWC - studnia potencjału. Parametr mówi o tym ile ładunku jest w stanie zgromadzić piksel zanim, zostanie całkowicie nasycony, co skutkuje przepaleniem piksela. Im większy piksel, tym większa wartość.

Kamery planetarne mają zwykle max kilkanaście tys. Atik TE-77 i pikselu 24um ma 300000e- jak podzielisz to przez szum odczytu, czyli 8e-, zostaje 37500. Ta wartość "mieści się" w przetworniku 16 bitowym, ale w 14 bitowym już nie (2^16 i 2^14).

W praktyce możesz palić dłuższe klatki, zanim gwiazdy zrobią się białe. Player One ma w ofercie kamerę ze studnią 100000, co pozwala zarejestrować jednocześnie detal protuberancji i detal tarczy słonecznej. Zwykle składa się 2 ekspozycje, bo protki świecą słabo, potrzeba dla nich większego wzmocnienia lub/i dłuższego czasu, co spowoduje przepalenie tarczy i otrzymasz na zdjęciach białe koło. Nikonem o studni ~75k rejestrowałem detal na "nowym" Księżycu i światło popielate. Sierp nie był przepalony. ***

 

Szum odczytu to szum własny pikseli i elektroniki, np. wzmacniacza. Pojawia się, gdy sprzęt jest podłączony do zasilania i nie zależy od długości klatek, ma wartość stałą, dla konkretnych ustawień. Ile klatek zbierzesz, tyle razy również zbierzesz szum odczytu. 

 

Z powyższych dwóch parametrów wynika zakres dynamiczny sensora, czyli ile przejść tonalnych będzie w stanie zarejestrować. Zwykle podaje się wzór studnia/szum odczytu = zakres dynamiczny, ale dobrze policzyć to jako X=20*log(studnia/szum odczytu). Dostajesz wynik w dB. Żeby zmienić go na "kroki", jakie widać w tabelkach kamer, dzielisz wynik przez 6.

Przykład: Atik 383L ma studnię 25500 i szum 7. Wychodzi w zaokrągleniu 12. Jeśli miałbyś przetwornik 2 bitowy, rozpozna on tylko 4 stany. Zakładamy, że nie ma szumu odczytu i studnia wynosi 10000. Przetworniki odczytują wartości pikseli: 5013, 5500, 6000, 7000, 2500, itd. Mimo, że analogowo rozdzielczość tych wartości będzie duża, cyfrowo zostaną pogrupowane jako 1 wartość, a maksymalnie otrzymasz 4 odcienie szarości. 

 

***Od razu może pojawić się wątpliwość, skoro szum odczytu zbieramy z sygnałem przy każdej klatce, to po co stackować 250 z 1000 klatek Księżyca? Żeby podnieść zakres dynamiczny. 
ASI290 ma studnię 14600, przy szumie ~3,2, max. 12 bitów. Modyfikujemy poprzedni wzór: X=20*log(studnia/(szum odczytu/SQRT ilość klatek ))/6 -> 20*log (14600/(3,2/SQRT 250)/6 =16,19. to jest teoretyczna , maksymalna wartość.
Jeśli podstawisz pod wzór studnię z kamery do DS, np. 100000, szum 3 i 100 subów, to okaże się, że lepiej będzie zachować stack w 32 bitach niż 16. Po coś te grube tysiące się w końcu wydało (:

  • Lubię 3
  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

8 godzin temu, wampum napisał:

(zacznij od definicji i opisów poszczególnych pojęć i wykresów).

 

4 godziny temu, szquar napisał:

Ja się przyłączam

 

 

Dobra, to tak na szybko; gdybym napisał tu jakieś bzdury, to proszę mnie poprawić.

Żeby dobrze wytłumaczyć o co chodzi w tych pomiarach i wykresach, musimy zacząć od początku, czyli od tego, jak w ogóle działa matryca światłoczuła. Każdy piksel to taki malutki detektor promieniowania elektromagnetycznego (światła) oparty półprzewodniki. W (bardzo) dużym skrócie - jak na taki piksel pada światło, to zaczyna płynąć w nim prąd. Generalnie każdy pojedynczy foton może nam wygenerować jeden elektron (dlatego też niektóre wartości podaje się właśnie w elektronach oznaczanych jako e lub e-), ale nie każdy to zrobi - prawdopodobieństwo, że takie zjawisko zajdzie to tzw. sprawność kwantowa (QE - quantum efficiency). Np. jeśli sensor ma sprawność kwantową na poziomie 90% to oznacza, że statystycznie 90% padających na każdy piksel fotonów wygeneruje po elektronie (na tych wykresach nie ma informacji o sprawności kwantowej i wykorzystując opisane tu mechanizmy nie możemy jej zmierzyć, więc musimy wierzyć w to, co podaje producent). Im sprawność kwantowa wyższa - tym lepiej. Oczywiście im dłużej naświetlamy każdy piksel, tym więcej fotonów na niego padnie i więcej elektronów nam się wygeneruje.
Ten wygenerowany prąd jest następnie wzmacniany (myślę, że można w skrócie powiedzieć, że za stopień tego wzmocnienia odpowiada parametr "gain", który możemy sobie ustawiać podczas rejestracji obrazu; przy najniższym ustawieniu mamy jakieś tam wzmocnienie bazowe, a im wyżej to ustawimy, tym zmocnienie będzie większe) i "zliczany" przez przetwornik analogowo-cyfrowy (analog-digital converter, ADC - czyli układ, który ten nasz analogowy prąd z elektronów przetwarza do postaci cyfrowej). Im wyższe napięcie, tym więcej zliczeń zarejestruje ADC (zależność powinna być generalnie liniowa), te zliczenie określane są jako ADU (analog-digital unit, czyli dosłownie jednostki analogowo-cyfrowe).
Maksymalna wartość zliczeń ADC określana jest w bitach, ale oznacza efektywnie po prostu to ile różnych poziomów jasności dany sensor jest w stanie od siebie odróżnić i zapisać w postaci cyfrowej; np. IMX462 ma ADU dwunastobitowy, czyli rozróżnia 2^12, czyli 4096 poziomów jasności. Jak łatwo zauważyć - im więcej bitów ma ADC danego sensora, tym dokładniej jesteśmy w stanie odwzorować rzeczywistość; ale nie trzeba się tym aż tak bardzo przejmować, o czym później.
Ponieważ każde urządzenie ma jakąś tam skończoną dokładność, to sam proces odczytu napięcia z piksela i późniejsza zamiana na postać cyfrową muszą być obarczone błędem - ten błąd to szum odczytu - i jest to wartość charakterystyczna dla danego sensora, generalnie im jest mniejszy, tym lepiej. Statystycznie jest to wartość, jaka zostanie dodana do tego, co zarejestrował dany piksel (jest to wartość losowa, czasem jest więcej, czasem mniej). Nowoczesne matryce CMOS mylą się w bardzo niewielkim stopniu (szczególnie w porównaniu np. do starszych urządzeń CCD). Co istotne, szum odczytu nie jest stały, ale zmniejsza się wraz ze zwiększaniem gainu; dodatkowo nowsze matryce zmieniają sposób odczytu przy wyszszych wartościach gainu tak, żeby jeszcze bardziej zmniejszyć szum odczytu - np. na wykresie z ASI462MC czerwone iksy oznaczają właśnie szum odczytu i widać skokowy spadek powyżej gainu 80. Im wyższy gain, tym łatwiej zarejestrować jakieś dane tam, gdzie nie ma za dużo światła, ale odbywa się to niestety kosztem tego, że tam gdzie jest jasno dość szybko dobijemy do maksimum ADU i przestaniemy rejestrować cokolwiek użytecznego (prześwietlimy obraz), więc zmniejsza się nam efektywna rozpiętość tonalna nagrywanego obrazu.

Po wykonaniu pomiarów dostajemy tabelkę z danymi - i mamy w niej:
- Gain Value - jest to wartość gainu, którą ustawiamy w programie podczas rejestracji (różni producenci stosują różne skale, czasem zaczyna się to od 0, czasem o 100 itd.); pozioma oś na wykresie
- e/ADU - ile elektronów (na piksel) potrzeba, żeby zwiększyć zliczenie ADC o jeden (dla danego piksela); im ta wartość jest większa, tym mamy większą rozpiętość tonalną (różnica między maksymalnym i minimalnym poziomem jasności rejestrowanego obrazu jest największa), ale kosztem rozróżniania niewielkich różnic w jasności - a jak jest mała, to odwrotnie (mała rozpiętość tonalna, ale za to lepiej odróżniamy niewielkie różnice); zielone plusiki na wykresie.
- Read Noise (e) - szum odczytu, wyrażony w elektronach (o tyle elektronów statystycznie myli się nam matryca podczas odczytu każdego piksela przy danym gainie); jeżeli rejestrowany sygnał będzie dużo mniejszy od tej wartości (za mało światła i/lub za krótki czas naświetlania, więc fotony generują za mało elektronów), to po prostu zginie w tym szumie i nie będziemy w stanie go poprawnie zinterpretować; czerwone iksy na wykresie.
- Full Well (e) - pojemność "studni" każdego pojedynczego piksela w elektronach, czyli tyle elektronów każdy piksel może wygenerować, zanim będzie całkowicie nasycony, co na wyjściu da nam całkowicie biały piksel w obrazie; jeśli dobijemy do tego maksimum i będziemy naświetlać piksel dalej, to nie zarejestrujemy już żadnych danych (mamy piksel całkowicie biały i bardziej biały nie będzie - czyli go prześwietlimy).
- Relative gain - wzmocnienie względne, czyli powiedzmy mnożnik wzmocnienia; tyle razy bardziej od wzmocnienia bazowego sygnał jest wzmacniany przy danym ustawieniu gainu.
- Rel. gain (db) - to, co powyżej, tylko wyrażone w decybelach.
- Dynamic Range (Stops) - rozpiętość tonalna rejestrowanego obrazu w jednostkach ekspozycji (EV), anglojęzyczni nazywają je "stops"; inaczej mówiąc, jest to stosunek maksymalnej jasności, która może być prawidłowo zmierzona, do minimalnej, determinowanej przez szum odczytu (nie możemy zmierzyć jasności równej 0, bo nawet jak nie będzie żadnego światła, to i tak będziemy mieć szum); maksymalna wartość w EV będzie równa ilości bitów ADC.

Na wykresach na białym tle (tych od producenta) mamy generalnie to samo. Na poziomej osi jest gain jaki możemy sobie ustawić, a poszczególne okienka to:
- FW(e-) - Full well, czyli pojemność studni.
- GAIN(e-/ADU) - to samo co e/ADU
- DR(stops) - dynamic range, czyli rozpiętość tonalna (w EV).
- Read noise(e-rms) - szum odczytu.


Jakie można wnioski wyciągnąć z tego typu wykresów?
Możemy np. zobaczyć, jakie będą optymalne ustawienia dla danego scenariusza, przy czym po tych pomiarach mamy dane zarówno dla nagrywania w ośmiu bitach (mniejsze pliki!) jak i dwunastu (większe pliki - bez względu na to, czy ADC ma 12, 14 czy 16 bitów i tak pliki są szesnastobitowe), bo producent podaje tylko dane dla maksymalnej głębi bitowej - ale to jest trochę takie dzielenie włosa na czworo, bo jak się parametry dobierze na oko, szczególnie przy nagrywaniu jasnych obiektów jak planety czy Księżyc, to nic strasznego się tak naprawdę nie stanie, jeśli nie trafimy w te optymalne ustawienia. Przy planetach i Księżycu generalnie nie ma sensu rejestracja w formacie szesnastobitowym, spokojnie można przejść na 8 bitów i niczego się nie traci (a pliki wychodzą sporo mniejsze i jesteśmy w stanie wyciągnąć więcej klatek na sekundę). Można też spokojnie dać duży gain, bo co prawda rozpiętość tonalna pojedynczej klatki będzie taka sobie (choć np. z pomiarów wyszło, że dla obu kamer w 8 bitach możemy gain ustawić i na 300 i dalej pojedyncza klatka ma maksymalną możliwą głębię tonalną), ale jak zestackujemy ich odpowiednio dużo, to wzrośnie ona znacząco (i dlatego właśnie niekoniecznie trzeba się martwić tym, że kamera ma tylko 12 bitów).
Jeśli chcemy mieć jak największą rozpiętość tonalną, to powinniśmy nagrywać z jak najniższym gainem i dobrać odpowiednio długi czas naświetlania (albo ustawić High Conversion Gain, czyli taką wartość, w której elektronika przełączy się w ten drugi tryb z mniejszym szumem odczytu - jeśli nasza kamera ma taką funkcję) - ale to bardziej dotyczy obiektów głębokiego nieba, więc niekoniecznie celów dla kamer planetarnych (choć można i w tym celu ich używać i osiągnąć całkiem sensowne efekty - dzięki niskiemu szumowi odczytu).
Bardzo fajnym narzędziem jest też właśnie ten sprytny histogram ("smart histogram") w SharpCapie, bo tam możemy w prosty sposób zobaczyć, czy dane ustawienia są w miarę sensowne - czy może zwiększyć czas naświetlania, albo czy przejść na format szesnastobitowy. Jest też opcja (ale, jak pisałem wcześniej, tylko w wersji płatnej), żeby program sam dobrał właściwe ustawienia - i wyniki pewnie niektórych by mocno zaskoczyły, bo przy tak niskich szumach odczytu jakie oferują nowoczesne kamery, wcale nie potrzeba naświetlać klatek po 15 minut, żeby zarejestrować różne tam mgławice czy inne galaktyki.
I to jest czysta matematyka, którą wymyślili ludzie dużo mądrzejsi ode mnie (a piszę to dlatego, że na stówę zaraz ktoś przyjdzie i powie, że to nieprawda i że se coś wymyślam - a to wcale nie ja wymyślam i to akurat nie są te ewentualne bzdury, które należałoby poprawić :P)

  • Lubię 1
  • Dziękuję 2
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.