Skocz do zawartości

Przemek Majewski

Społeczność Astropolis
  • Postów

    684
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Odpowiedzi opublikowane przez Przemek Majewski

  1. @Tayson

     

    aha, tak, konkluzja, że kalibracja działa. wiem, troche trywialne, ale przeszukanie internetu daje sporo "kalibracyjnych horrorów". uwagi klientów którzy sobie nie radzą (rodo) też się pojawiają.

     

    chciałem krok po kroku pokazać w wypadku sensora, ktory nie jest "idealny" jak krok po kroku kalibracja powinna wygladać i jak "prostuje" nam "klatkę".

     

    jeśli uważasz ze to zbyt trywialne, to nie będę w przyszłości pisał taki raporcikow z moich zabaw :)

  2. 4 minuty temu, dobrychemik napisał:

    Przemku dziękuję za odpowiedź. 

    Głupio zrobiłem pytając o sprawę dotyczącą ASI294 w Twoim wątku. Przepraszam, będę się bardziej pilnował.

    nie przesadzaj, wątek na temat asi294, i jak mnie już znacie -- sporo żartuje, bardziej chodzilo mi o to, że sporo pracy włożyłem, w robienie tych darków, flatów, kosmosów, tpl tez pomogli bo miałem dostęp do zgloszeń serwisowych asi294mc nie cool.i asi294mc cool, wiec miałem to jak sprawdzić. Po prostu nie spodziewałem się tak prostego pytanie tak ot cyk pod postem z taką ilością pracy ;) A w sumie wiesz, że też zawsze mozesz do mnie napisać prywatnie i zwykle odpowiadam obszernie. A jak chcemy, to jakis watek o HCG vs LCG i dlaczego jest offset, też zrobię ;)

     

    Chcemy?

    • Lubię 2
  3. Tomek,

     

    1) HCG to High Conversion Gain, to na pewno wiesz, może powinienem rozwinąć akronim. Dwa zestawy "wzmacniaczy" w każdym pikselu, jedne zoptymalizowane pod niskie światło (HCG) i drugie pod duże (LowCG, LCG). Ciekawa sprawa.

     

    2) Tak, płuca na flacie w bliskim IR, przynajmniej to moja diagnoza obecna. Nie mówie, że ostateczna. Na forach CN mowią czasem o tym, poza tym debajerują te flaty z wersji MC i też pokazują przez to "problemy z kolorami", które wyniakają raczek z blednej prezentacji flata.

     

    Flata powinno sie splitować i ogladać każdy kanal rgb osobno,  nie debajerować. A kalibrować oczywiście wszystko przed debajerowaniem.

     

    Czy to uzupełnia Twoje wątpliwości? ;)

    • Lubię 1
  4. 11 godzin temu, dobrychemik napisał:

    Akurat jestem od kilku dni szczęśliwym posiadaczem ASI 294 MC-Pro i mam jedno zasadnicze pytanie: jaki stosować Gain?

     

    Nota bene ja też mam jedno zasadnicze pytanie: co sprawiło, że postanowiłeś to pytanie zadać w tym wątku?

     

    Narzuca mi się też drugie: dlaczego nie zaczałeś swojej wypowiedzi od jakiegoś small talku, np. "fajne opracowanie Przemek, a jakiego gainu używałeś i dlaczego?".

     

    Ale to ja jestem bucem :) No nic. Tym niemniej spróbowałem odpowiedzieć :)

     

     

    • Kocham 1
    • Haha 1
    • Zmieszany 1
  5. 9 godzin temu, dobrychemik napisał:

    Akurat jestem od kilku dni szczęśliwym posiadaczem ASI 294 MC-Pro i mam jedno zasadnicze pytanie: jaki stosować Gain? Czy to jest tak, że do różnych obiektów warto go zmieniać czy lepiej ustawić raz i, póki jestem zielony, nie zmieniać? Jeśli nie zmieniać to jaką wartość ustawić?

     

    może to lekki offtop, ale w Twoim wypadku jak już Tobie odpowiedziano - gain 120, offset 4. tak jak pisałem, zrób < sekundowego darka i upewnij się, że nie ma zerowych pikseli.

     

    co do gainu są super prelekcje Dr. Glovera na YT, ale w praktyce, zmienianie gainu daje niewiele wiecej niż męczarnie z kalibracją, szczegolnie w wypadku amp glowowych kamer -- musialbyć robić lub skalowac darki!

     

    ogólnie przybliżone zasady do każdych kamer są takie:

     

    - uzywasz najmniejszego HCG (jeśli takie jest)

    - do Księżyca albo ds-ów używasz gainu zero tylko jeśli focisz jasny obiekt jakimś f/2 (np. jeśli na HCG robiłbyś minutowe ekspozycje to na gainie 0 będziesz robił pięciominutowe, o lepszym SNR i bedzie wygodniej)

    - zapomnij o bajkach typu "unity gain" bo to największa bzdura całego internetu. tym bardziej, że "biedni" posiadacze 6200 lub 2600 nie bardzo mają co zrobić, bo nie maja "unity gainu". ;)

     

    Co robię np. ja? Jak coś testuje z balkonu a nie chce mi się np. stackować pięciu klatek po dwie minuty, to robię jedną dziesięciominutową na gainie 0 (najniższy LCG). Czyli np. do "przymierzenia" też jest to dobra metoda, ktora trochę ułatwia życie.

     

    Bardzo warto się zapoznać z wykresem ze strony producenta:

     

    Screenshot_20210712-091738_Google.jpg.57c3cfbe3a099e8e6160a6476b6235f0.jpg

    Co tu widać? Ano widać, że unity gain 117 byłby najgłupszym możliwym gainem życia. o krok przed zbawiennym HCG. Tylko dlatego, że tam wypada mnożnik 1 e- na 1 bit ADC (w tym wypadku sztuczne 14 bitów zrobione z czterech 12 bitowych pikseli które w wersji MM można "rozbinować").

     

    Więc 0 lub 120 w zależności od jasności obiektywu/obiektu. Wykres także odpowiada, że stosunek wzmocnienia (e-/adu) wynosi 4 dla gainu zero, a ok 1 dla 120. To daje też czterokrotny stosunek czasu ekspozycji w praktyce. Czyli na 0 można 4 razy dłużej jeśli to potrzebne dla wygody.

     

    A tak poza tym... zawsze 120 i offset 4 (z pamięci mówię).

     

    Aha! jak sprawdzić że HCG działa? Przemas ma wszystko...

     

    577394045_2021-05-2221_43_12-Greenshot.thumb.png.81580ab1cf1f3f11081bfcb88ddcce78.png

     

    ;) pozdrówki

     

     

    • Lubię 1
  6. 14 minut temu, Patryk Sokol napisał:

    No to prawda.

    Zasadniczo bym się zgodził, pytanie ile tego chromatyzmu wprowadza.

    Mam wrażenie, że więcej robi mi refrakcja atmosferyczna.

    No to akurat prawda, RCek ostrzy na zakrzywioną powierzchnię, a nie na płaszczyznę.

    Niemniej - przy RC6" i APS-C to nawet ostrząc na środkowe 1/3 obrazu (czyli 1/3 od środka gwiazdy są nie brane pod uwagę, później 1/3 jest brana pod uwagę, a ostatnia 1/3 jest znów pomijana), to jednak ostrość wychodzi jednak nędzawa.

    No to akurat prawda.

    Ogólnie lubię zabawy z RC, bo ma bardzo dużo porządnie opisanej teorii w internecie. Dla porównania, to procedury kolimacji lustra wtórnego na gwiazdach Newtonem to znaleźć po prostu nie mogę (wszyscy tylko o głównym).

     

    Niemniej - ja jestem bardzo zadowolony z zastosowania flattenera, jednak równe pole mi bardziej pasuje niż te wady które ze sobą wnosi :)

    tak

     

    tak

     

    tak

     

    :)

  7. 1 minutę temu, Patryk Sokol napisał:

     

    Taka ciekawostka - korzystam z RC 6" i matrycy APS-C .

    Z pomocą takiego flattenerka:
    https://teleskopy.pl/Flattener-korektor-płaskości-pola-do-jasnych-refraktorów-(Orion--08893)-teleskopy-4383.html

    Mam całe pole nie zniekształcone, a to mały teleskop jest.

     

    Kupiłem go do Evostara 72, włożylem raz do RC 6" i już tam został :D

     

     

    jasne. dedykowane tez istnieją, do tego to fajna zabawa projektować/dobierać korektor do erceków

     

    tracisz jednak jedną potężna własność -- zerową aberracje chromatyczną, której nie ma dla prawa odbicia, gdyż dlań współczynnik refrakcji wynosi -1...

     

    dobry korektor byłby albo jedynie do narrowband, albo musiałby być apochromatyczny + korekcja

     

    ponadto w ercekach nie ma zniekształconego pola -- przesuwajac ostrosc do przodu możesz wyostrzyć rogi obrazu i odwrotnie, do tyłu, środek. u mnie w rc10 na full frame ta różnica (środek/róg) to ohydne 0.8 mm!! wybieram balans gdzieś pomiedzy zaleznie od tego jakie pole chce uzyskać.

     

    komy nie ma w szerokim zakresie,  aberracja sferyczna nie jest zerowa, ale znikoma (nie ma idealnego ogniska w środku)

     

    spory jest astygmatyzm, gwiazdy w rogach odwracaja sie o 90° przy przyjsciu na drugą strone ostrosci

     

    ercek ma tę zaletę, że to "teoretyczny" teleskop. wszystko w nim wiadomo pod warunkiem, ze dobrze zrobiony

  8. 3 godziny temu, simarik napisał:

    Przepraszam za off'a, ale @Przemek Majewski - musze dopytać.

     

     

    Ad 2d. Mając OSC - najlepiej jako metodę debayeryzacji wybrać "superpixel"? Do tej pory używałem bodajże VNG. Rozumiem, że po superpixel będę miał obraz wynikowy o połowę mniejszy (bin2)?
    Ad. 2f.  Mógłbyś podać jaki to panel - akurat szukam czegoś odpowiedniego do flatów.

     

    Nie nie. Polecam VNG/Bilinear do astro. Różnice subtelne.

     

    1) jeśli zamierzamy poźniej robić CFA drizzle x1 to Bilinear, taniej. Inaczej VNG

    2) w fotografii dziennej króluje AHD.

     

    Tutaj BARDZO WAŻNE jest, że superpixel zmniejsza skalę. W wypadku, kiedy masz skalę piksela rzędu 0.5" to nie ma co mqrzyc o takim detalu i te piksele sie "marnują". Męczą Ciebie etc. W takiej sytuacji superpixel robi dwie rzeczy

    - zmiejsza rozdzielczosc 2x (jak bin2)

    - debayeruje bez interpolacji odtwarzajac jeden trojkanalowy piksel z czwórki RGGB.

     

    Moja odpowiedź była ściśle skorelowana z tym, że autor narzekal na oversampling.

     

    czyli "jeśli osc jest oversampled użyj debayer superpixel"

     

    w wypadku mono także "bin" lepiej robic w postrocessingu, ale jest to oczywiście juz zwykle usrednianie sąsiednich pikselków. i offtop.

     

     

    EDIT: Aha, panel. wpisz w google panel led, wybierz średnicę i temperature 6000K, kosztują rzędu 20-30 pln. nie ma co sie wahac ani rozwodzic. kup taki co masz najblizej i potestuj.

     

    EDIT2: to naprawde takie proste panele

    Screenshot_20210709-152028_Gallery.jpg

    • Lubię 1
    • Dziękuję 1
  9. 4 godziny temu, Behlur_Olderys napisał:

    1) Ty piszesz, ja liczę.

    Twoje można przeczytać i uwierzyć albo nie, a moje można sprawdzić i albo się zgadza, albo nie.

     

    2) Nie, nie jest lepsza, o ile zbierasz odpowiednio wiele klatek.

     

     

    1) Gratuluję. Ja piszę, ze trzeba pomnozyc efektywność przez czas i szerokość pasma, a ty liczysz.

     

    Ja bym się nie podjął. czapki z głów.

     

    2) Prawda. Najlepiej tyle samo czasu co kamerą mono. :) Subpixel debayer.

     

    Ad 2) W innym temacie, dipskaj, jest CFA drizzle, który ma zrobić z wielu zmozaikowanych zdjec jednego kolorowego stacka. Bardzo użyteczna opcja która robi mono-reassembly bez debayerowania. Daje troche wiecej w zielonym kanale a w astro wolelibysmy chyba więcej czerwonego i niebieskiego. I ten brak kontroli jest qg mnie głównym zarzutem. Wielu użytkowników używa osc z l-extreme, gdzie żyją praktycznie tylko 2 piksele. Ale możesz mnie przekonywać, ze kolorowe rysunki sa lepsze, od identycznej idei przekazanej jednym zdaniem :)

     

    Addendum: Nadal wspolnym mianownikiem jest ten sam strumien przez tę samą aperture w tym samym czasie.

     

    To moze ja się czegoś nauczę:

    Pytanie, ten sam czas przez tę sama aperturę i teoretyczne sensory, co lepiej OSC czy Mono x 3?

     

    Oczywiscie w OSC nie można np "dopalić wiecej blue", bo trzeba wszystko razem. Wiec jasne, ze OSC jest niewygodny w tej materii, ale takie teoretyczne pytanie. Przynajmniej dla mnie. Ciekawi mnie jaką przewagę w dyskusji dadzą te dwa zielone piksele. Prosiłbym uwzględnic efektywność kwantową w funkcji długosci fali, a także widmo emisyjne mgławic tzw "wodorówek" i jak ono wpływa na efektywność tych zielonych pikseli. Żeby można było coś... obliczyć i sprawdzić :) Ponieważ sam nie ogarniam, ucieszyłyby mnie jakieś rachunki :)

     

  10. 3 godziny temu, Krzysztof z Bagien napisał:

    A przeczytaj tytuł wątku.

     

    Co do reszty - zmień ton wypowiedzi, to może pogadamy. Nawet jak uważasz, że masz rację, to nie musisz się zachowywać jak pretensjonalny dupek, któremu się wydaje, że pozjadał wszystkie rozumy. Bez odbioru.

     

     

    dziękuję za pozytywną opinię :) (wolę to... niż bredzić)

     

    :)

     

  11. 10 minut temu, Marcin_G napisał:

    stąd seria pytań na forum. Problem w tym, że nie rozumiem udzielanych mi odpowiedzi.... :no:

    A to powoduję, że stoję w miejscu.

    Hmm.

     

    Debajer 1-0-1

     

    Kamera kolorowa ma 4 piksele z roznymi filtrami ułożonymi w kwadrat, przykladowo

     

    R G

    G B.

     

    Najprostsza metoda "superpixel" dzieli rozdzielczosc na pol, a te kwadraty na 3 kanaly, o tak:

     

    RG

    GB -> (R, (G1+G2)/2, B )

    już tu mozna zobaczyc, czy wynik taki jak trzeba.

     

    Ponieważ siatka pikseli G whglada tak,

    G*G*G

    *G*G*

    G*G*G

    a kolor G jest "najjasniejszy"  to z niej odzyskujesz jakby detal mono.(zwykle zielony kanal jest najlepszy w fotkach OSC).

    W jednym wierszu dziury zastępujesz tylko czerwonym, w nastepnym tylko niebieskim.

     

    TEN PATTERN MUSISZ ZNAĆ. I podac go swojemu programu. Koniec :) Widać, że jak mu zle podasz gdzie sa G, to bedzie dużo gorzej niż tylko "zmiana koloru".

     

    Teoria odzyskania nieco lepszej rozdzielczosci niż takiego "dwupiksela o 1/3 efektywnosci" jest calkiem zacna, gdyż to mainstreamowy temat w miliardach aparatów.

     

  12. 43 minuty temu, Behlur_Olderys napisał:

     

    Niech T to czas naświetlania jednej klatki, a J to strumień światła od obiektu. Wyobraźmy sobie podstawową komórkę matrycy jako obszar 2x2 piksele. Wtedy akwizycję można zapisać tak, jak poniżej:

     

    sesja.png

     

     

    Jak pokazują obliczenia, kamera mono zbierze w tym samym czasie 33% więcej materiału (albo kamera kolorowa będzie miała 25% mniej materiału), przy czym wynika to tylko z tego, że kamera kolorowa będzie miała nadmiar zieleni. Zasadniczo więc, gdyby nie interesował nas konkretny kolor ale ogólnie ilość zebranego światła, to z dużym przybliżeniem można powiedzieć, że będzie to tyle samo.

     

    Założenie jakie poczyniłem, to że robimy setki zdjęć, więc nie ma się co przejmować próbkowaniem kolorów, tj. zakładam, że szczegóły jakiegoś obiektu trafiają na piksele R G czy B z równym prawdopodobieństwem. Założenie to mogło by być nieprawdziwe w przypadku teleskopu Hubbla, którego nie obowiązuje seeing, ale na Ziemi raczej jest to oczywiste.

     

    Dodatkowe założenie to że w zasadzie nie ma wielkiego znaczenia czy mówimy o pixelu mono przykrytym zewnętrznym filtrem R, czy pikselu kolorowym z maską R.

     

    Pozdrawiam

     

     

    PS warto zwrócić uwagę, że zakładam tą samą rozdzielczość. Operacja zmiany rozdzielczości (rozumianej jako bezstratną zmianę ilości pikseli w obrazie) przez interpolację pociąga za sobą zmianę SNR: 

    4x mniejsza rozdzielczość to 2x większy SNR i na odwrót: 4x większa rozdzielczość to 2x mniejszy SNR.

     

    I chyba to tłumaczy nieporozumienie, bo w tym świetle zarówno @Krzysztof z Bagien jak i @Przemek Majewski macie rację :)

     

     

    1) mniej czytalenie sie chyba nie dalo xD

     

    przeciez dokladnie to samo napisalem:

     

    4 RGB vs RGB+G -- bez filtra

    a 4 G vs 2 G

    i 4 B vs 1 B z filtrani ale przy tym samym czasie. Wiec nie wiem co ten material uzupelnia. Ale dzięki za powtorzenie mojego rozumowania z wyjsciowego komentarza.

     

    W skrocie: Kamera mono zbiera 3 razy szybciej ale potrzeba 3 sesje. I wychodzi prawie "na zero". Rozdzielczosc mono za to lepsza.

     

    Inaczej: Godzina z jednej apertury z tym samym polem widzenia to to samo. Niezależnie, czy sprobkowane OSC, czy też 3 razy po 20 minut.

     

    Zwykle jednak wersja mono i wrsja mc maja pod spodem ten sam piksel. a komórka rozdzielczosciowa jednak jest inna. O tym się tez wiecznie zapomina, ze luminancje tworzą tak naprawdę glownie te dwa piksele G.

     

    Najbardziej ciekawi mnie "subpikselowe debajerowanie przez autostakkert". Bo to niezłe kuriozum. Próbuję sie domyślać, ale niezła zagadka :)

  13. Godzinę temu, Marcin_G napisał:

    Na szczęście NIC z tego, co napisałeś / zalinkowałeś, nie rozumiem.

     

    A tak po polsku: co mam zrobić?

    przepraszam za siebie. to powszechne tu na tym forum. debajerowanie to magia.

     

    sprawdzić jaki pattern ma Twoja kamera! i taki wybrać w opcjach debajerowania.

     

    Typowo jest to RGGB. Ale widac, ze jak np odwrocic/odbic sensor to sie moze zmienic na BGGR, GBRG i wszystkie inne mozliwe. To trzeba sprawdzic w "instrukcji" do Twojej kamery. Jesli masz POPRAWNY pattern, to już tylko suwaczkami od balansu bieli az kolor będzie "ladny".

     

    Aha, to mozesz sobie tez sprawdzić po domowemu - sfotografuj np czerwona kartkę. Te piksele, ktore bedą na niej najjasniejsze to czerwone. Te bardzo ciemne -- niebieskie. Tylko oczywiscie podglad surowy potrzebny bez debayerowania. Ewentualnie wynik demozaikowania musi wyjsc... czerwony w przyblizeniu.

     

     

  14. 19 godzin temu, Krzysztof z Bagien napisał:

    Kamera RGB zbierze w tym samym czasie trzykrotnie więcej materiału, który na surowo faktycznie ma mniejszą rozdzielczość, ale po pierwsze jest go, jak wspomniałem, trzy razy więcej* (więc łatwiej wybrać naprawdę dobre dane)

     

     

     

    Nie. Nie zbierze w tym samym czasie 3 razy wiecej. Zbierze tyle samo, albo nieznacznie wiecej z powodu kanalu G. Czego nie zrozumiałes w mojej "szkolnej matematyce" ze powtarzasz brednie ze stron sprzedawców. Te opisy to automaty piszą.

     

    Więc jeszcze raz:

     

    1) Mono + filtr G: 4 zielone piksele

    2) OSC: 2 zielone piksele

    ^ tu dwa razy mniej

     

    W R i B tylko 1/4 pikseli odpowiada. 

     

    Z filtrem L kamera mono zbiera 3 x szybciej. Z filtrami R B tak samo jak JEDEN piksel z czterech kamery OSC w tym czasie.

     

    "Kamera RGB zbierze trzy razy tyle"...

    Borze zielony, wolno pisać takie brednie?

     

    EDIT 1: Poproszę źrodlo paranaukowe bo się chce douczyć w tym temacie w takim razie :)

  15. 19 godzin temu, Krzysztof z Bagien napisał:

    1)

    Generalnie nowsze sensory mają wyższą sprawność kwantową niż starsze, więc bez porównania tego parametru trudno tak naprawdę robić jakieś wyliczenia. Ale akurat przy nagraniach planetarnych to na brak światła raczej nie narzekamy i każdy kanał można spokojnie nawet przepalić jak ktoś chce, więc czułość (czyli w efekcie ilość zebranych fotonów) nie jest tu problemem.

     

    2)

    a po drugie AutoStakkert potrafi to zdebayeryzować z subpikselową dokładnością podczas stackowania, więc przynajmniej część informacji, która normalnie byłaby utracona i interpolowana

     

    Ad 1) Chyba jasne, że w tej dyskusji mowię o dwoch wyimaginowanych sensorach O TEJ SAMEJ EFEKTYWNOŚCI. Może faktycznie dyskutant ma mnie za imbecyla, ale nie porowniuje matrycy mono z QE 80% ze starą matrycą z QE 10%. Bo chyba nie o to pytał autor!

     

    Ad1 jeszcze) co z tego ze nie narzekamy na swiatlo w foto planet? 3 x szybciej to 3 x szybciej. I właśnie o to chodzi pytajacemu by zdazyc przed rotacją. Ponadto nie chodzi o czas jednej klatki, tylko o to, że tę samą liczbe fotonow co w OSC w minutę mozna zebrac w 15 sekund w L mono. To chyba dość proste powinno być do zrozumienia :)

     

    Ad 2)

    "zdebajerować z subpikselową dokładnością" no to niezła bajerka jest. szkoda że troche bełkot. na ścianę sobie powieszę, bo to niejako odkrycie. jak one się tam wgryzaja subpiksel mając 4 probki o odtwarzajac wiecej niz 12...

     

    POPROSZĘ ŹRÓDŁO DO TEJ RADOSNEJ TWÓRCZOŚCI PARANAUKOWEJ. Tam może też będzie można coś skorygować.

  16. W dniu 28.06.2021 o 10:43, Marcin_G napisał:

    Wątek suwaczkowy jest dla mnie jasny.

    A właśnie myślałem czy to nie jest kwesta tego, że pikseli zielonych jest dwa razy więcej niż czerwonych lub niebieskich

     

    Pikseli zielonych jest dwa razy wiecej, gdyż służą one także do określania zmian luminancji, które sa znacznie wyższej częstości, a R i B do określania koloru. Ja to po%$biesz, tzn ktore są które, to dopiero wtedy dostajesz "za zielone". :) Reszta to zwykle white balance.

     

    Metoda interpolacji (powiedzmy poza biliniową i superpixel), która sluzy do rozwiniecia czwórki RGGB na 2x2 RGB (12 z czterech), jest dość skomplikowana i nieliniowa. Inny status mają w niej sprobkowane "co drugi" zielone piksele a inny te R i B. Wlaśxiwie mowa o kanałach R-G oraz G'-B traktowanych wierszowo/kolumnowo.

     

    Screenshot_20210629-105728_Google.thumb.jpg.d37c7595c65fb54854f71394a1742a77.jpg

     

    tu lista kilku sposobow za wikipedią. kiedyś kodowałem w jakimś moim projekcie edukacyjnym AHD i muszę powiedzieć, że to niezłe cacko ludzkiego umyslu.

     

    • Lubię 1
  17. 22 godziny temu, Marcin_G napisał:

    Dzięki.

    Tu był problem, ale po wybraniu opcji RGB obraz jest mocno zielony. Masz pomysł, z jakiego powodu?

    2021-06-26-23456-57_pre_pipp_lapl5_ap22_conv.jpg

     

     

    Typowo dużo zieleni może oznaczać zly CFA pattern, tego sie nie naprawi suwakiem. Moze zamiast RGGB masz np GRBG. Warto się upewnić jaki ma Twoja kamera. Możesz też załadować surowe do Autostakkerta i w color spaces poklikać opcje az stwierdzisz, ze kolor poprawny.

     

    Dlaczego to nie suwaczkowy? Piksele G maja inny status w debajeryzacji i nie można ich tak sobie pomylić z R oraz B. Mówiąc w dużym uproszczeniu G niosą luminancję i detal, zaś R i B chromę, U/V, kolor.

     

    W wypadku złego balansu barw (prosty suwaczkowy problem)

     

    działają barwowe prawidla

    - za mało czerwonego -> cyjan

    - za mało zielonego -> magenta

    - za mało niebieskiego -> żólty.

     

    Oczywiście za dużo podstawowej barwy daje rzecz jasna tę barwę.

     

     

     

    • Lubię 1
  18. 9 godzin temu, Misza napisał:

    Czy ktoś miał już do czynienia ze stosunkowo nowa asi462 ? Zastanawiam się jak ta kamera wypadłaby na planetach w porównaniu z np monochromatyczną 178mm. Tą druga posiadam i używam od roku, jestem z niej w zasadzie zadowolony ale na szybko rotujących planetach jest problem przy zbieraniu materiału dla kolejno IR R G B (przesunięcie) dlatego zastanawiam się czy taka kolorowa, nowsza jakby nie było, konstrukcja nie stanowiłaby sensownej alternatywy?

     

    Czy naprawdę zbiera się wolniej? Fakt derotacja jest dyskusyjna, bo to jednak mocna obróbka cyfrowa prawie jak nakładanie tekstury... ale można ją robić. Jednak, że wolniej to się nie zgodzę. Można robić "łatwiej" OSC, ale nic nie zastąpi detalu niepokrytego CFA sensorem.

     

    To tego znowu troche podstawówkowej matmy, zeby nie bylo za trudno.

     

    a) 4 piksele kamery czulej na całe pasmo = 4*RGB + 4*IR

    b) 4 piksele "zwykłej" kamery OSC = RGB + G

    c) 4 piksele kamery 462mc (unikatowa czułość  w IR) = RGB + G + 4*IR

     

    Widać, że sensor mono nawet z UV/IR cut jest czulszy 4RGB/(RGB+G) razy. Jeśli kanały mają równą intensywnosc (co zwykle nie jest prawdą) to mamy 4*3/4 = 3 razy więcej zebranego swiatla. Czyli dokladnie tyle samo...

     

    Jak mówił klasyk... życia nie oszukasz.

     

    Widać, że tak naprawdę fotony zbiera się "tak samo szybko" z powodu braku ograniczeń na transmisji przez filtry. Czy zalożymy "własne" LRGB czy bayerowski CFA... intensywnosciowo są niewielkie różnice.

     

    Uniwersalność kamery mono do "naukowych" astrozastosowań, UV, IR, CH4, 540 nm, LRGB jest nie do przecenienia. Poza tym warto zadać sobie pytanie... czy to jest produkcja zdjęć one click szot (ma byc łatwo, ale mam hobby! ale mam!) czy hobby które Was fascynuje (robie to, bo mnie ciekawi swiat)?

     

    Ja na pewno będę próbował składać planety w tym sezonie z różnych pasm. A 462mc też mam.

     

    Ostayecznie, wydaje sie, ze posiadac 178mm (tez mam) oraz 462mc to nie jest overkill przy tym hobby...

     

     

    • Lubię 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.