Skocz do zawartości

ASI462MC vs ASI178MM


Misza

Rekomendowane odpowiedzi

Czy ktoś miał już do czynienia ze stosunkowo nowa asi462 ? Zastanawiam się jak ta kamera wypadłaby na planetach w porównaniu z np monochromatyczną 178mm. Tą druga posiadam i używam od roku, jestem z niej w zasadzie zadowolony ale na szybko rotujących planetach jest problem przy zbieraniu materiału dla kolejno IR R G B (przesunięcie) dlatego zastanawiam się czy taka kolorowa, nowsza jakby nie było, konstrukcja nie stanowiłaby sensownej alternatywy?

Odnośnik do komentarza
Udostępnij na innych stronach

Moim zdaniem nagrywanie planet w RGB kamerą mono jest... dyskusyjne. Znaczy, jak innej nie masz, to możesz albo tak albo wcale, więc tutaj tak jakby nie ma alternatywy, ale nie sądzę, żeby efekty były lepsze niż po prostu RGB z kamery kolorowej (byleby nagrywać w formacie nieskompresowanym, to sobie potem Autostakkert ładnie ogarnie debayeryzację), a kolorowa jednak będzie po prostu wygodniejsza do tego celu.

 

A co do pytanie - mam 462 i złego słowa nie powiem, wydaje mi się, że to w tej chwili najsensowniejsza kamera planetarna na rynku. Do nagrywania IrRGB jest idealna - ma rewelacyjną czułość w podczerwieni (jedną z najwyższych, jeśli nie najwyższą z dostępnych obecnie matryc w ogóle), powyżej ok. 800nm maska Bayera robi się przezroczysta i kamera jest monochromatyczna w tym zakresie, więc z filtrem 850nm łapiesz luminancję w Ir, a całe RGB rejestrujesz z filtrem ir-cut za jednym zamachem.

Czyli w sumie masz niejako dwa w jednym - kamerę mono i kolorową, a jako bonus - będzie bardzo dobrze współpracować z filtrem metanowym, bo to w końcu właśnie podczerwień (889nm).

Edytowane przez Krzysztof z Bagien
  • Lubię 5
Odnośnik do komentarza
Udostępnij na innych stronach

8 godzin temu, Krzysztof z Bagien napisał:

Moim zdaniem nagrywanie planet w RGB kamerą mono jest... dyskusyjne. Znaczy, jak innej nie masz, to możesz albo tak albo wcale, więc tutaj tak jakby nie ma alternatywy, ale nie sądzę, żeby efekty były lepsze niż po prostu RGB z kamery kolorowej (byleby nagrywać w formacie nieskompresowanym, to sobie potem Autostakkert ładnie ogarnie debayeryzację), a kolorowa jednak będzie po prostu wygodniejsza do tego celu.

 

A co do pytanie - mam 462 i złego słowa nie powiem, wydaje mi się, że to w tej chwili najsensowniejsza kamera planetarna na rynku. Do nagrywania IrRGB jest idealna - ma rewelacyjną czułość w podczerwieni (jedną z najwyższych, jeśli nie najwyższą z dostępnych obecnie matryc w ogóle), powyżej ok. 800nm maska Bayera robi się przezroczysta i kamera jest monochromatyczna w tym zakresie, więc z filtrem 850nm łapiesz luminancję w Ir, a całe RGB rejestrujesz z filtrem ir-cut za jednym zamachem.

Czyli w sumie masz niejako dwa w jednym - kamerę mono i kolorową, a jako bonus - będzie bardzo dobrze współpracować z filtrem metanowym, bo to w końcu właśnie podczerwień (889nm).

Podpisuję się pod tym. Mam tą samą kamerę i polecam!

Odnośnik do komentarza
Udostępnij na innych stronach

8 godzin temu, count.neverest napisał:

Trochę tańsza, z tym sensorem jest kamera Player One: https://player-one-astronomy.com/product/mars-color-camera/

Dzień dobry

269 USD w Chinach, tak? Jakie obliczenia prowadzą do uporządkowania zbioru cen kamer z matrycą IMX462, wskazującego że Player One jest tańszy (co, gdzie, jak, od czego)

Proszę to jakoś przybliżyć :)

W obliczeniach proszę przyjąć przyspieszenie w polu grawitacyjnym Ziemi g = 10 m/s2, USD/PLN 3,8, transport = 0, cło = 5%, VAT 23%

  • Haha 1
Odnośnik do komentarza
Udostępnij na innych stronach

9 godzin temu, Misza napisał:

Czy ktoś miał już do czynienia ze stosunkowo nowa asi462 ? Zastanawiam się jak ta kamera wypadłaby na planetach w porównaniu z np monochromatyczną 178mm. Tą druga posiadam i używam od roku, jestem z niej w zasadzie zadowolony ale na szybko rotujących planetach jest problem przy zbieraniu materiału dla kolejno IR R G B (przesunięcie) dlatego zastanawiam się czy taka kolorowa, nowsza jakby nie było, konstrukcja nie stanowiłaby sensownej alternatywy?

 

Czy naprawdę zbiera się wolniej? Fakt derotacja jest dyskusyjna, bo to jednak mocna obróbka cyfrowa prawie jak nakładanie tekstury... ale można ją robić. Jednak, że wolniej to się nie zgodzę. Można robić "łatwiej" OSC, ale nic nie zastąpi detalu niepokrytego CFA sensorem.

 

To tego znowu troche podstawówkowej matmy, zeby nie bylo za trudno.

 

a) 4 piksele kamery czulej na całe pasmo = 4*RGB + 4*IR

b) 4 piksele "zwykłej" kamery OSC = RGB + G

c) 4 piksele kamery 462mc (unikatowa czułość  w IR) = RGB + G + 4*IR

 

Widać, że sensor mono nawet z UV/IR cut jest czulszy 4RGB/(RGB+G) razy. Jeśli kanały mają równą intensywnosc (co zwykle nie jest prawdą) to mamy 4*3/4 = 3 razy więcej zebranego swiatla. Czyli dokladnie tyle samo...

 

Jak mówił klasyk... życia nie oszukasz.

 

Widać, że tak naprawdę fotony zbiera się "tak samo szybko" z powodu braku ograniczeń na transmisji przez filtry. Czy zalożymy "własne" LRGB czy bayerowski CFA... intensywnosciowo są niewielkie różnice.

 

Uniwersalność kamery mono do "naukowych" astrozastosowań, UV, IR, CH4, 540 nm, LRGB jest nie do przecenienia. Poza tym warto zadać sobie pytanie... czy to jest produkcja zdjęć one click szot (ma byc łatwo, ale mam hobby! ale mam!) czy hobby które Was fascynuje (robie to, bo mnie ciekawi swiat)?

 

Ja na pewno będę próbował składać planety w tym sezonie z różnych pasm. A 462mc też mam.

 

Ostayecznie, wydaje sie, ze posiadac 178mm (tez mam) oraz 462mc to nie jest overkill przy tym hobby...

 

 

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

@teleskopy.pl teleskopy.pl Porównałem aktualne ceny, podane na stronie producenta 299 vs 269$. W tej cenie kamera PO jest wyposażona we wbudowany tilter, w pudełku jest też gruszka do czyszczenia matrycy i klucz imbusowy. Ma też DPS (nie wiem jak to wygląda w praktyce) i wbudowany DDR3 256MB. Napisałem o tym głównie dlatego, żeby zwrócić uwagę na nowego producenta a nie robić porównywarkę cen u delarów. Przy odpowiedniej dawce determinacji przyspieszenie w polu grawitacyjnym i inne zmienne będą pomijalne, bo mogą wynieść 0.

Odnośnik do komentarza
Udostępnij na innych stronach

5 godzin temu, Przemek Majewski napisał:

Można robić "łatwiej" OSC, ale nic nie zastąpi detalu niepokrytego CFA sensorem.

 

To tego znowu troche podstawówkowej matmy, zeby nie bylo za trudno.

 

a) 4 piksele kamery czulej na całe pasmo = 4*RGB + 4*IR

b) 4 piksele "zwykłej" kamery OSC = RGB + G

c) 4 piksele kamery 462mc (unikatowa czułość  w IR) = RGB + G + 4*IR

 

Widać, że sensor mono nawet z UV/IR cut jest czulszy 4RGB/(RGB+G) razy. Jeśli kanały mają równą intensywnosc (co zwykle nie jest prawdą) to mamy 4*3/4 = 3 razy więcej zebranego swiatla. Czyli dokladnie tyle samo...

Generalnie nowsze sensory mają wyższą sprawność kwantową niż starsze, więc bez porównania tego parametru trudno tak naprawdę robić jakieś wyliczenia. Ale akurat przy nagraniach planetarnych to na brak światła raczej nie narzekamy i każdy kanał można spokojnie nawet przepalić jak ktoś chce, więc czułość (czyli w efekcie ilość zebranych fotonów) nie jest tu problemem. Matryca mono daje teoretycznie większą zdolność rozdzielczą w porównaniu do matrycy z maską Bayera - ale właśnie tylko teoretycznie w tym konkretnym zastosowaniu. Kamera RGB zbierze w tym samym czasie trzykrotnie więcej materiału, który na surowo faktycznie ma mniejszą rozdzielczość, ale po pierwsze jest go, jak wspomniałem, trzy razy więcej* (więc łatwiej wybrać naprawdę dobre dane), a po drugie AutoStakkert potrafi to zdebayeryzować z subpikselową dokładnością podczas stackowania, więc przynajmniej część informacji, która normalnie byłaby utracona i interpolowana, można odzyskać w ten sposób.

A trzeba też pamiętać, że jeśli kanał luminancji będzie w wysokiej rozdzielczości i szczegółowy, to kolory można dać w mniejszej rozdzielczości a i tak będzie to wyglądać dobrze, bo tak działa ludzki wzrok.

 

____________

* a tak naprawdę nawet trochę więcej niż trzy razy więcej, bo nie marnuje się czasu na zmianę filtrów; ja wiem, że to może być w sumie kilka - kilkanaście sekund przy odpowiednim sprzęcie, ale jak się rejestruje w sumie minuty materiału, to nawet te kilkanaście sekund daje jakąś tam wymierną różnicę i przekłada się na setki albo nawet tysiące klatek.

Edytowane przez Krzysztof z Bagien
  • Smutny 1
Odnośnik do komentarza
Udostępnij na innych stronach

19 godzin temu, Krzysztof z Bagien napisał:

1)

Generalnie nowsze sensory mają wyższą sprawność kwantową niż starsze, więc bez porównania tego parametru trudno tak naprawdę robić jakieś wyliczenia. Ale akurat przy nagraniach planetarnych to na brak światła raczej nie narzekamy i każdy kanał można spokojnie nawet przepalić jak ktoś chce, więc czułość (czyli w efekcie ilość zebranych fotonów) nie jest tu problemem.

 

2)

a po drugie AutoStakkert potrafi to zdebayeryzować z subpikselową dokładnością podczas stackowania, więc przynajmniej część informacji, która normalnie byłaby utracona i interpolowana

 

Ad 1) Chyba jasne, że w tej dyskusji mowię o dwoch wyimaginowanych sensorach O TEJ SAMEJ EFEKTYWNOŚCI. Może faktycznie dyskutant ma mnie za imbecyla, ale nie porowniuje matrycy mono z QE 80% ze starą matrycą z QE 10%. Bo chyba nie o to pytał autor!

 

Ad1 jeszcze) co z tego ze nie narzekamy na swiatlo w foto planet? 3 x szybciej to 3 x szybciej. I właśnie o to chodzi pytajacemu by zdazyc przed rotacją. Ponadto nie chodzi o czas jednej klatki, tylko o to, że tę samą liczbe fotonow co w OSC w minutę mozna zebrac w 15 sekund w L mono. To chyba dość proste powinno być do zrozumienia :)

 

Ad 2)

"zdebajerować z subpikselową dokładnością" no to niezła bajerka jest. szkoda że troche bełkot. na ścianę sobie powieszę, bo to niejako odkrycie. jak one się tam wgryzaja subpiksel mając 4 probki o odtwarzajac wiecej niz 12...

 

POPROSZĘ ŹRÓDŁO DO TEJ RADOSNEJ TWÓRCZOŚCI PARANAUKOWEJ. Tam może też będzie można coś skorygować.

Odnośnik do komentarza
Udostępnij na innych stronach

19 godzin temu, Krzysztof z Bagien napisał:

Kamera RGB zbierze w tym samym czasie trzykrotnie więcej materiału, który na surowo faktycznie ma mniejszą rozdzielczość, ale po pierwsze jest go, jak wspomniałem, trzy razy więcej* (więc łatwiej wybrać naprawdę dobre dane)

 

 

 

Nie. Nie zbierze w tym samym czasie 3 razy wiecej. Zbierze tyle samo, albo nieznacznie wiecej z powodu kanalu G. Czego nie zrozumiałes w mojej "szkolnej matematyce" ze powtarzasz brednie ze stron sprzedawców. Te opisy to automaty piszą.

 

Więc jeszcze raz:

 

1) Mono + filtr G: 4 zielone piksele

2) OSC: 2 zielone piksele

^ tu dwa razy mniej

 

W R i B tylko 1/4 pikseli odpowiada. 

 

Z filtrem L kamera mono zbiera 3 x szybciej. Z filtrami R B tak samo jak JEDEN piksel z czterech kamery OSC w tym czasie.

 

"Kamera RGB zbierze trzy razy tyle"...

Borze zielony, wolno pisać takie brednie?

 

EDIT 1: Poproszę źrodlo paranaukowe bo się chce douczyć w tym temacie w takim razie :)

Edytowane przez Przemek Majewski
Odnośnik do komentarza
Udostępnij na innych stronach

1 godzinę temu, Przemek Majewski napisał:

 

Nie. Nie zbierze w tym samym czasie 3 razy wiecej.

 

Niech T to czas naświetlania jednej klatki, a J to strumień światła od obiektu. Wyobraźmy sobie podstawową komórkę matrycy jako obszar 2x2 piksele. Wtedy akwizycję można zapisać tak, jak poniżej:

 

sesja.png

 

 

Jak pokazują obliczenia, kamera mono zbierze w tym samym czasie 33% więcej materiału (albo kamera kolorowa będzie miała 25% mniej materiału), przy czym wynika to tylko z tego, że kamera kolorowa będzie miała nadmiar zieleni. Zasadniczo więc, gdyby nie interesował nas konkretny kolor ale ogólnie ilość zebranego światła, to z dużym przybliżeniem można powiedzieć, że będzie to tyle samo.

 

Założenie jakie poczyniłem, to że robimy setki zdjęć, więc nie ma się co przejmować próbkowaniem kolorów, tj. zakładam, że szczegóły jakiegoś obiektu trafiają na piksele R G czy B z równym prawdopodobieństwem. Założenie to mogło by być nieprawdziwe w przypadku teleskopu Hubbla, którego nie obowiązuje seeing, ale na Ziemi raczej jest to oczywiste.

 

Dodatkowe założenie to że w zasadzie nie ma wielkiego znaczenia czy mówimy o pixelu mono przykrytym zewnętrznym filtrem R, czy pikselu kolorowym z maską R.

 

Pozdrawiam

 

 

PS warto zwrócić uwagę, że zakładam tą samą rozdzielczość. Operacja zmiany rozdzielczości (rozumianej jako bezstratną zmianę ilości pikseli w obrazie) przez interpolację pociąga za sobą zmianę SNR: 

4x mniejsza rozdzielczość to 2x większy SNR i na odwrót: 4x większa rozdzielczość to 2x mniejszy SNR.

 

I chyba to tłumaczy nieporozumienie, bo w tym świetle zarówno @Krzysztof z Bagien jak i @Przemek Majewski macie rację :)

 

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

43 minuty temu, Behlur_Olderys napisał:

 

Niech T to czas naświetlania jednej klatki, a J to strumień światła od obiektu. Wyobraźmy sobie podstawową komórkę matrycy jako obszar 2x2 piksele. Wtedy akwizycję można zapisać tak, jak poniżej:

 

sesja.png

 

 

Jak pokazują obliczenia, kamera mono zbierze w tym samym czasie 33% więcej materiału (albo kamera kolorowa będzie miała 25% mniej materiału), przy czym wynika to tylko z tego, że kamera kolorowa będzie miała nadmiar zieleni. Zasadniczo więc, gdyby nie interesował nas konkretny kolor ale ogólnie ilość zebranego światła, to z dużym przybliżeniem można powiedzieć, że będzie to tyle samo.

 

Założenie jakie poczyniłem, to że robimy setki zdjęć, więc nie ma się co przejmować próbkowaniem kolorów, tj. zakładam, że szczegóły jakiegoś obiektu trafiają na piksele R G czy B z równym prawdopodobieństwem. Założenie to mogło by być nieprawdziwe w przypadku teleskopu Hubbla, którego nie obowiązuje seeing, ale na Ziemi raczej jest to oczywiste.

 

Dodatkowe założenie to że w zasadzie nie ma wielkiego znaczenia czy mówimy o pixelu mono przykrytym zewnętrznym filtrem R, czy pikselu kolorowym z maską R.

 

Pozdrawiam

 

 

PS warto zwrócić uwagę, że zakładam tą samą rozdzielczość. Operacja zmiany rozdzielczości (rozumianej jako bezstratną zmianę ilości pikseli w obrazie) przez interpolację pociąga za sobą zmianę SNR: 

4x mniejsza rozdzielczość to 2x większy SNR i na odwrót: 4x większa rozdzielczość to 2x mniejszy SNR.

 

I chyba to tłumaczy nieporozumienie, bo w tym świetle zarówno @Krzysztof z Bagien jak i @Przemek Majewski macie rację :)

 

 

1) mniej czytalenie sie chyba nie dalo xD

 

przeciez dokladnie to samo napisalem:

 

4 RGB vs RGB+G -- bez filtra

a 4 G vs 2 G

i 4 B vs 1 B z filtrani ale przy tym samym czasie. Wiec nie wiem co ten material uzupelnia. Ale dzięki za powtorzenie mojego rozumowania z wyjsciowego komentarza.

 

W skrocie: Kamera mono zbiera 3 razy szybciej ale potrzeba 3 sesje. I wychodzi prawie "na zero". Rozdzielczosc mono za to lepsza.

 

Inaczej: Godzina z jednej apertury z tym samym polem widzenia to to samo. Niezależnie, czy sprobkowane OSC, czy też 3 razy po 20 minut.

 

Zwykle jednak wersja mono i wrsja mc maja pod spodem ten sam piksel. a komórka rozdzielczosciowa jednak jest inna. O tym się tez wiecznie zapomina, ze luminancje tworzą tak naprawdę glownie te dwa piksele G.

 

Najbardziej ciekawi mnie "subpikselowe debajerowanie przez autostakkert". Bo to niezłe kuriozum. Próbuję sie domyślać, ale niezła zagadka :)

Odnośnik do komentarza
Udostępnij na innych stronach

2 godziny temu, Przemek Majewski napisał:

Chyba jasne, że w tej dyskusji mowię o dwoch wyimaginowanych sensorach O TEJ SAMEJ EFEKTYWNOŚCI.

A przeczytaj tytuł wątku.

 

Co do reszty - zmień ton wypowiedzi, to może pogadamy. Nawet jak uważasz, że masz rację, to nie musisz się zachowywać jak pretensjonalny dupek, któremu się wydaje, że pozjadał wszystkie rozumy. Bez odbioru.

  • Lubię 2
  • Dziękuję 1
Odnośnik do komentarza
Udostępnij na innych stronach

5 minut temu, Przemek Majewski napisał:

mniej czytalenie sie chyba nie dalo xD

 

przeciez dokladnie to samo napisalem:

 

Ty piszesz, ja liczę.

Twoje można przeczytać i uwierzyć albo nie, a moje można sprawdzić i albo się zgadza, albo nie.

 

7 minut temu, Przemek Majewski napisał:

Rozdzielczosc mono za to lepsza.

 

Nie, nie jest lepsza, o ile zbierasz odpowiednio wiele klatek.

 

Jak widać na poniższych ilustracjach wynik w kategoriach rozdzielczości i zebranego światła jest identyczny.

Oczywiście zakładając, że nie trafiamy maską bayera dokładnie w te same szczegóły obiektu na przestrzeni np. kilkuset klatek wydaje się to niemożliwe.

 

 

kolor_mono.png

 

 

 

 

 

mono_mono.png

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

Godzinę temu, Behlur_Olderys napisał:

zakładając, że nie trafiamy maską bayera dokładnie w te same szczegóły obiektu na przestrzeni np. kilkuset klatek wydaje się to niemożliwe.

Kołmogorow aż się roześmiał :D Co niemożliwe? Jak najbardziej możliwe :D Trzeba się tylko postarać

Odnośnik do komentarza
Udostępnij na innych stronach

3 godziny temu, Krzysztof z Bagien napisał:

A przeczytaj tytuł wątku.

 

Co do reszty - zmień ton wypowiedzi, to może pogadamy. Nawet jak uważasz, że masz rację, to nie musisz się zachowywać jak pretensjonalny dupek, któremu się wydaje, że pozjadał wszystkie rozumy. Bez odbioru.

 

 

dziękuję za pozytywną opinię :) (wolę to... niż bredzić)

 

:)

 

Edytowane przez Przemek Majewski
Odnośnik do komentarza
Udostępnij na innych stronach

4 godziny temu, Behlur_Olderys napisał:

1) Ty piszesz, ja liczę.

Twoje można przeczytać i uwierzyć albo nie, a moje można sprawdzić i albo się zgadza, albo nie.

 

2) Nie, nie jest lepsza, o ile zbierasz odpowiednio wiele klatek.

 

 

1) Gratuluję. Ja piszę, ze trzeba pomnozyc efektywność przez czas i szerokość pasma, a ty liczysz.

 

Ja bym się nie podjął. czapki z głów.

 

2) Prawda. Najlepiej tyle samo czasu co kamerą mono. :) Subpixel debayer.

 

Ad 2) W innym temacie, dipskaj, jest CFA drizzle, który ma zrobić z wielu zmozaikowanych zdjec jednego kolorowego stacka. Bardzo użyteczna opcja która robi mono-reassembly bez debayerowania. Daje troche wiecej w zielonym kanale a w astro wolelibysmy chyba więcej czerwonego i niebieskiego. I ten brak kontroli jest qg mnie głównym zarzutem. Wielu użytkowników używa osc z l-extreme, gdzie żyją praktycznie tylko 2 piksele. Ale możesz mnie przekonywać, ze kolorowe rysunki sa lepsze, od identycznej idei przekazanej jednym zdaniem :)

 

Addendum: Nadal wspolnym mianownikiem jest ten sam strumien przez tę samą aperture w tym samym czasie.

 

To moze ja się czegoś nauczę:

Pytanie, ten sam czas przez tę sama aperturę i teoretyczne sensory, co lepiej OSC czy Mono x 3?

 

Oczywiscie w OSC nie można np "dopalić wiecej blue", bo trzeba wszystko razem. Wiec jasne, ze OSC jest niewygodny w tej materii, ale takie teoretyczne pytanie. Przynajmniej dla mnie. Ciekawi mnie jaką przewagę w dyskusji dadzą te dwa zielone piksele. Prosiłbym uwzględnic efektywność kwantową w funkcji długosci fali, a także widmo emisyjne mgławic tzw "wodorówek" i jak ono wpływa na efektywność tych zielonych pikseli. Żeby można było coś... obliczyć i sprawdzić :) Ponieważ sam nie ogarniam, ucieszyłyby mnie jakieś rachunki :)

 

Edytowane przez Przemek Majewski
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.