Skocz do zawartości

Pelikan


philips

Rekomendowane odpowiedzi

Pozazdrościłem Piotrowi_s jego Pelikana (jak to kurna brzmi :P ) i też sobie jednego zafundowałem...

 

9x900s, EQ5, Canon 350D mod - tylko czerowne pixele, UHC Astronomic, 80ED F7 @ F5,5, 2/3 łysego mi towarzyszyło

 

Pelikan.jpg Pelikan__buraczany.jpg

Edytowane przez philips
Odnośnik do komentarza
Udostępnij na innych stronach

I jeszcze mozaika z ameryką :

 

mozaika.jpg

 

PS: Bez flata ten pelikan i z jednym darkiem który chyba dodał jeszcze więcej szumów niż miał odjąć.... po prostu nie starczyło mi czasu. Kiedyś go poprawie.

Generalnie jak na Canona, to 9 sztuk po 900s to o jakieś 3 razy za mało... to cholerstwo tak szumi, że aż głowa boli ( a i tak było 6C więc całkiem chłodno )

Edytowane przez philips
Odnośnik do komentarza
Udostępnij na innych stronach

a bardzo ładny,

a na jakim ISO focisz?

dla 350D ISO 800 to chyba maximum co można mu jeszcze bez bólu dać

 

ISO 800... na ISO 1600 robiłem drobne próby, ale szkoda troche mi było czasu ( którego mam aktualnie ekstremalnie mało ) na próby, skoro wszyscy focą na ISO 800.

 

Generalnie moje Canonoskie przemyślenia jak narazie :

1. minimimum 10 klatek żeby wogóle coś się dało zobaczyć przy 600s, ISO 800

2. przy 900s to będzie minimum jakieś 15 klatek, ISO 800 ( przy pelikanie są takie szumy, że resize do 30% oryginału to był mus ), optymalnie pewnie ze 20 klatek

3. filtr UHC Astronomica ładnie tnie LP, w zasadzie całkowicie rozwiązuje problem focenia z miasta obiektów mgławicowych - jest w zasadzie stworzony do Canonów - ten filtr, jak pisałem przy ameryce to de facto filtr Ha-alpha około 40nm + filtr OIII 40nm. Te 40nm to optymalna wartość dla DSLRów, do ciemniejszych filtrów raczej nie będe się zbliżał bo to będzie głebokie wejście w świat szumów a nie focenie....

4. z filtrem tym UHC da się focić skutecznie gdzieś do połówki księżyca, potem traci to sens.... ( przy pelikanie ostanie dwie klatki miałem jak łysy schował się za horyzontem - natychmiast poprawił się lekko kontrast, nie była to duza zmiana, ale bardzo wyraźna )

5. Cholernym problemem są zmiany temperatury - dark z czasem 900s przy temperaturze 7C zasadzniczo różni sie od tego przy 10C. W zasadzie trzeba budować całkiem sporą bibliotękę darków, żeby to miało sens.

I niestety wychodzi tu fakt, ze nie ma jak budować tej biblioteki, jak tylko podczas nocki z foceniem ( z SBIGIEM siadasz sobie w pokoju, włączasz kamere w ciągu dnia i ustawiasz temperaturę powiedzmy -20C i jedziesz z darkami słodko sobie przy tym odsypiając nockę..... z Canonem nie ma jak tego zrobić ( chyba, że w lodówce jakiejś ).

 

6. No i ostatni punkt.

Ja nie wiem jak inny ustawiają ostrość DSLRami i chyba nawet nie chce wiedzieć. Ujmę to tak - Moj wyciąg ma 7,5cm wysuwu, Robofocus podzielił to na 5500 kroków - tak więc jeden krok to u mnie 0.0136mm. Zmiana ostrości o 2 kroki jest wyraźnie widoczna i objawia się zmianą FWHM gwiazdki na krotej ostrzę z powiedzmy 4,0arcsec na 4,5arcsec ( i ten pomiar zwykle jest mocno powtarzalny wiec to nie żadne czary ani oszukiwanie ). Canon ma maskę bayera, czyli układ pixeli - czerwony-zielony i niebieski-zielony, w rzedach. Niestety ta maska bayera skutecznie ogłupia Maxim DLa i FocusMaxa i ustawianie automatyczne ostrości z nimi jest w zasadzie nie możliwe - Maxim kompletnie nie wie co ma z taką gwiazdką robić i ją gubi, a FocusMax zwykle myli się o jakieś 7-10 kroków Robofocusa - czyli lipa z autofokusa.

Do czego zmierzam - ustawianie ostrości to w sumie dość skomplikowany proces wymagający wielokrotnych pomiarów odowiednio jasnej gwiazdy, podglądanie jej na powiekszeniu minimum 200% ( a raczej 400% ) i przestawianie ostrosci o 2-3 kroki .... w ten sposób rzeczwiście da sie ustawić ostrość w kompletnie absolutny "punkt" ( choć z tym punktem to wcale tez nei jest oczywista sprawa, bo wystarczy wziąć gwiazdkę nie z środka kadru i już znow lipa ). Dotykanie aparatu czy wyciągu, a już zupełnie patrzenie na ostrośc na ekraniku aparatu, kompletnie nie wchodzi w grę. Oglądanie obrazków w JPGu na monitorze kompa w zasadzie też nie, bo JPG wprowdzi takie rozmycie gwiazdki, ze dokładność pewnie zjedzie do kilku arcsec FWHM, a tu my walczymy w zasadzie o dziesiąte części FWHM. Poza tym zoomowanie za każdym razem fotki i szukanie gwiazdki na ktorą ostatnio się patrzylo w celu ostrzenia to syzyfowa praca.....

Narazie jedynym rozwiązaniem które wydaje się być sesnowne, to własnie MaximDL, który tego Canona wykorzystuje w identyczny sposób jak każdego innego SBIGa ( prócz tego, ze widzimy obraz RAW czyli B&W w wielkie pixele z siatką, i że nie ma regulacji temperatury ) - fotka od opuszczenia lustra pokazuje sie nam na ekranie po około 15 sekundach i w ten sposób w ciagu dosłownie 3-4 minut ( zakładając motofokus jakiś ) możemy ustawić ostrość w "punkt" bez żadnego zgadywania czy "to już jest, czy moze jeszcze trochę pokręcić wyciągiem"....

Dodatkowo, wczoraj zdalem sobie sprawę ze skali zmiany ostrości w zależności od zmian temperatury - w ciagu nocy temperatura spadła z około 9C na 6C - różnica niby mala, ale dało to zmianę ostrosci w moim ED80 o całe 10 kroków Robofocusa - czyli aż o 0,13mm !!! Juz to widze w przypadku teleskopu typu newton - tam ta różnica musi być zdecydowanie większa - tak więc zmianę ostrości w zasadzie należałoby robić co każdy skok o 1 stopień Celsiusza... czyli w przypdaku poprzedniej nocy co około 1H.... przy czasach rzędu 900s to nam daje dokładnie co 4 klatki - w sumie dość często - bez jakiegoś motofokusa i MaximDLa w zasadzie staje się to niemożliwe.... ( bardzo zaczałem zatem liczyć na opcję kompensacji temperatury w Robofocusie, bo problem, jak widać, jest w zasadzie poważny a 4 ustawiania ostrosci po 4 minuty to stracona jedna klatka z focenia podczas nocki ... )

 

Oczywiscie mowie tu o ostrości która ma znaczenie przy założeniu, ze chcemy uzsykać fotkę nadającą się do oglądania w skali 100% - czyli bez resize'u. Jeśli z góry zamierzamy robić resize do powiedzmy 50% to można podzielić moje przemyślenia przez pół. :Beer:

 

Teraz troche o masce Bayera:

Ogólnie focąc DSLRem to jakbyśmy focili trzema aparatami naraz, na tych samych ustawieniach. W sumie fajnie bo ci z kamerkami B&W muszą focić trzy razy więcej niz my... my natomiast mamy jedną dużą fotkę która jak sie chce to można rozłożyć na czynniki pierwsze - czyli powyciągać ze zdjecia w RAW kolejne kolory tracąc tym samym na rozdzielczości tylko połowę dla każdego koloru ( a kolory są trzy a zasadzie cztery bo zielonego jest dwa razy więcej niż czerwonego czy niebieskiego ) - czyli robimy niejako resize o 50% chcąc -nie-chcąc.

Fajnie... tylko gdzie jest haczyk ?..... a no jest jeden i to poważny....

Maska Bayera jest w układzie - "co drugi pixel" - czyli np czerwony jest na przemian z zielonym w rzędzie i kolumnie. Czyli pixele np czerwone nie są koło siebie - mają między sobą "szparę" na pixele zielone.

I tak jak mamy gwaizdkę o średnicy powiedzmy 15 pixeli, to po wyciągnieciu z RAW fotki z kolorem czerwonym mamy dość ladną gwaizdkę o średnicy 7 pixeli.... ale jak mamy gwiazdkę o średnicy 6 pixeli, to w kolorze czerownym dostaniem idelanie kwadratową gwiazdke z 4 pixeli o takie samej jasności przez co juz w oryginale wygląda ona w powiekszeniu jakby ktoś ją potraktował jakims bliżej nie znanym filtrem w photoshopie.... taka lipna jest ...

Jak mamy do tego jeszcze filtr np UHC, to duża gwiazdka na dodatek wychodzi jak szachownica czerowne i niebieskie pixele są jasne, a te zielone ciemne...przez to własnie głupieje MaximDL w precyzyjnym mierzeniu FWHM czy wyszukiwaniu gwiazdki do ostrzenia - nie może on poprawnie policzyć centroidu gwiazdki ( jej środka ) i musimy robić to niejako sami za pomocą oczu podpierając się jedynie wartościami FWHM.

Problem tych "szpar" miedzy pixelami o tym samym kolorze niestety przeklada sie także na detale mgławicy ( bo przy galaktykach nie ma sesnu rozkladanie ich na kolejne kolory ).

Generalnie rzecz ujmując, rozkładajac fotkę z RAW na poszczególne kolory, tracimy nie połowę rozdzielczosci tego co by nam dala kamerka B&W tylko jakieś 60-70% rozdzielczości - smutne, ale prawdziwe - wystarczy porównać rozdzielczość zdjęc Piotra_s z SBIGa i moich z Canona

 

Po co zatem wogóle wyciagać te czerwone pixele ? Odpowiedź to szumy.... Maska Bayera to jakby zakodowana pełna gama kolorów, ten kod to mowiąc mówiąc w uproszczeniu stosunek jasności pixeli zielonych do czerownych i niebieskich które sąsiadują ze sobą na masce Bayera. Jesli focimy mgławicę, która świeci tylko w kolorze czerwonym, to dodawanie informacji od koloru zielonego i niebieskiego jest proszeniem się o dodawanie kolejnego szumu który kompletnie niczego nie wnosi do zdjęcia, poza zmianami koloru "pixeli czerwonych" na różne odcienie czerwonego.....

Inna sprawa, ze mgławica typu Ameryka, jednak troche swieci też w kolorze zielonym i niebieskim, wiec jesli nie stosujemy żadnego filtra który wycina pasma światła, to nie ma sesnu wyrzucanie tych kolorów ze zdjecia - jeśli focimy UHC to kolor zielony jest nam już nie potrzebny bo UHC wycina własnie kolor zielony. No niestety nie da sie wyrzucić ze zdjecia w RAW tylko jednego koloru - albo decydujemy się całkowicie rozkładać zdjecie na kanaly albo wogóle nie rozkładamy....

 

Mam nadzieje, ze nie prznudziłem zbyt bardzo.

Pozdrawiam

Edytowane przez philips
Odnośnik do komentarza
Udostępnij na innych stronach

No kurna Filip :Beer:

A teraz powiedz mi jak i gdzie najprościej zrobić mozaike, a co też będe miał :D

 

yyy.... :unsure: .... ja ją zrobiłem w 3 minuty w fotoszopie.... ale może to mało profesjonalnie....

po prostu: Ctrl+C, Ctrl+V, Ctrl+T i obracamy oraz skalujemy jedno do drugiego co by się zgadzało ( wcześniej warstwie z jedną "górną "fotką" nadałem przeźroczystość ) a na końcu lekkie wymazanie "górnej" fotce krawędzi i ewentualnie lekkie poprawienie Levelsami co by sie jasności fotek zgadzały.... tyle.

 

Pozdrawiam.

Odnośnik do komentarza
Udostępnij na innych stronach

yyy.... :unsure: .... ja ją zrobiłem w 3 minuty w fotoszopie.... ale może to mało profesjonalnie....

po prostu: Ctrl+C, Ctrl+V, Ctrl+T i obracamy oraz skalujemy jedno do drugiego co by się zgadzało ( wcześniej warstwie z jedną "górną "fotką" nadałem przeźroczystość ) a na końcu lekkie wymazanie "górnej" fotce krawędzi i ewentualnie lekkie poprawienie Levelsami co by sie jasności fotek zgadzały.... tyle.

 

Pozdrawiam.

no tak przy dwóch zdjęciach to nie jest problem, ale jak będe chciał zrobić mozaike z 16 fot

Odnośnik do komentarza
Udostępnij na innych stronach

Teraz troche o masce Bayera:

Ogólnie focąc DSLRem to jakbyśmy focili trzema aparatami naraz, na tych samych ustawieniach. W sumie fajnie bo ci z kamerkami B&W muszą focić trzy razy więcej niz my... my natomiast mamy jedną dużą fotkę która jak sie chce to można rozłożyć na czynniki pierwsze - czyli powyciągać ze zdjecia w RAW kolejne kolory tracąc tym samym na rozdzielczości tylko połowę dla każdego koloru ( a kolory są trzy a zasadzie cztery bo zielonego jest dwa razy więcej niż czerwonego czy niebieskiego ) - czyli robimy niejako resize o 50% chcąc -nie-chcąc.

 

Przepraszam, może się czepiam, ale jak mamy 3 kolory to nie może być o połowę dla każdego koloru :)

W rzeczywistości 50% to zielony a czerwony i niebieski rejestrowany jest przez 25% detektorów każdy, co z grubsza odpowiada proporcjom w jakie na poszczególne barwy reaguje ludzkie oko.

 

Tak więc na czerwonym i niebieskim tracimy znacznie więcej niż co drugi piksel na rozdzielczości (dokładnie 3px na każde 4px) ale nie traktowałbym tego jako tragedii. Fotografując na CCD też bardzo często używa się LRGB (albo nawet LRsGB z syntetycznym kanałem zielonym), gdzie L foci się pełną kamerką a R, G i B robi się w binningu 2x2, czyli też tracąc na rozdzielczości 75% (z 4 pikseli robi się 1). Oczywiście binning zwiększa nam czułość, więc oszczędzamy czas, ale na DSLR z filtrem Bayera i tak oszczędzamy czas bo focimy tylko raz.

 

p.s.: http://en.wikipedia.org/wiki/Bayer_filter

Odnośnik do komentarza
Udostępnij na innych stronach

Ja wiem, ze to zadziwiające, ze jak zielonych pixeli jest 2 razy wiecej to i tak się traci połowe rozdzielczosci, ale tak własnie jest.... jak rozważysz każdy rząd lub kolumne osobno, to czerowne i niebieskie pixele masz "co drugi"... czyli połowa....

 

Jeśli w IRISie komendą

SPLIT_CFA R1 G1 G2 B1

rozdzielisz zdjecie na pojedyncze kolory, to każde z tych R1 G1 G2 B1 ma dokładnie połowę rozdzielzości obrazka oryginalnego ( czyli zamiast 3456x2304 masz 1720x1150 ).

Oczywiście zielonego masz dwa takie obrazki z jednego zdjecia ( no bo w koncu tych pixeli jest dwa razy więcej ) , ale nie bardzo jest co zrobić z tymi dwoma obrazkami poza zestackowaniem ich...

 

DSLRFocus robi to samo co MaximDL tylko jakoś mało przyjaźnie.... po prosu nie lezy mi ten program i ma ze 100 razy mniej opcji czy funkcji, problemy natomiast dokładnie takie same ( ostrzenie DSLRFocusa to nic innego jak VCurve jaki robi FocusMax współpracxujący z MaximDLem - filozofia ta sama ). DSLRFocus denerwowal mnie tym, że ogladanie obrazka było jakieś trudne.

Maxim nad DSLRFocusem ma całą masę zalet, ale jedna z głównych to "Profile Line" czyli zaznaczamy sobie jakiś fragment obrazka ( linią, prostokątem lub punktowo ) a ten wypluwa nam wartości Mean, Maximum, Minimum - jest to kompletnie nie zastąpiona funkcja przy robieniu flatów, mierzeniu zaświetlenia, określaniu długości czasów naświetlania, jakości nieba, winietowania, kontrastu itd...

Odnośnik do komentarza
Udostępnij na innych stronach

no tak przy dwóch zdjęciach to nie jest problem, ale jak będe chciał zrobić mozaike z 16 fot

Programów do składania panoram jest jak psów, ja akurat używam PTGUI ( http://www.ptgui.com/ ) który działa jako małpa-automat, ale jak sie chce coś innego to mamy tez szansę na pełne sterowanie składaniem obrazka.

 

Tylko, ze to jest program do składania zdjęć "normalnych", nie sprawdzałem go na astrofoto (nie miałem na czym).

Nie wiem jaki program jest do składania astrofoto... w sumie ciekawe....

 

pzdr

fs

Odnośnik do komentarza
Udostępnij na innych stronach

filtr UHC Astronomica ładnie tnie LP, w zasadzie całkowicie rozwiązuje problem focenia z miasta obiektów mgławicowych - jest w zasadzie stworzony do Canonów - ten filtr, jak pisałem przy ameryce to de facto filtr Ha-alpha około 40nm + filtr OIII 40nm. Te 40nm to optymalna wartość dla DSLRów, do ciemniejszych filtrów raczej nie będe się zbliżał bo to będzie głebokie wejście w świat szumów a nie focenie....

 

Znaczy, że robiłeś to z Warszawy? :blink:

Odnośnik do komentarza
Udostępnij na innych stronach

Znaczy, że robiłeś to z Warszawy? :blink:

No..... :unsure: ... no tak... ale nie ze ścisłego centrum tylko .....z takiego dalszego centrum ( jeszcze gmina centrum ) - czyli z Pragi Południe - dokładniej tam gdzie Grochowska krzyżuje się z Ostrobramską... ( moze to daje pojecie o niebie... )...

Edytowane przez philips
Odnośnik do komentarza
Udostępnij na innych stronach

Ja wiem, ze to zadziwiające, ze jak zielonych pixeli jest 2 razy wiecej to i tak się traci połowe rozdzielczosci, ale tak własnie jest.... jak rozważysz każdy rząd lub kolumne osobno, to czerowne i niebieskie pixele masz "co drugi"... czyli połowa....

No jednak jak nie mogę się zgodzić. Na rysunku na tej stronie widać jak to wygląda i o co mi chodzi:

http://en.wikipedia.org/wiki/Bayer_filter

 

Wynika to z faktu, że zmniejszając rozmiar liniowy o połowę zmniejszamy pole cztery razy. :)

 

Z resztą sam napisałeś (niżej), że zielone są dwa, więc jest ich 2 razy więcej ;)

 

Podsumowując: 1 zielony + 1 niebieski + 2 zielone = 4 kolorowe, z których każdy ma linowy wymiar boku równy połowie całej macierzy. Ot, cała magia :lol::banan:

 

 

Jeśli w IRISie komendą

SPLIT_CFA R1 G1 G2 B1

rozdzielisz zdjecie na pojedyncze kolory, to każde z tych R1 G1 G2 B1 ma dokładnie połowę rozdzielzości obrazka oryginalnego ( czyli zamiast 3456x2304 masz 1720x1150 ).

Oczywiście zielonego masz dwa takie obrazki z jednego zdjecia ( no bo w koncu tych pixeli jest dwa razy więcej ) , ale nie bardzo jest co zrobić z tymi dwoma obrazkami poza zestackowaniem ich...

 

A no właśnie! Rozumiem co masz na myśli, ale skoro go poprosiłeś aby wyciągnął bezpośrednio z CFA kanały to właśnie to otrzymałeś, ale możesz zrobić inaczej. Najpierw debayering i otrzymujesz jeden kolorowy obraz pełnej rozdzielczości (48 bitów) a potem RGB split pełnego, wtedy masz 3 kolory RGB pełnej wielkości.

 

Można też od razu debayering i split na 3 kolory za pomocą:

CFA2RGB

 

Pytanie tylko jak będzie działał debayering dla obrazu zarejestrowanego przez filtr... może być ciekawie. Będziesz musiał potem popracować na kolorami i balansem bieli.

Ja w IRISie szukam gwiazdki G2 i robie na niej WHITE a potem ustawiam BLACK na tło i mam mniej więcej kolor.

 

A tak na marginesie: stackując te dwa zielone tracisz masę informacji, zwłaszcza rozdzielczość...

Odnośnik do komentarza
Udostępnij na innych stronach

No jednak jak nie mogę się zgodzić. Na rysunku na tej stronie widać jak to wygląda i o co mi chodzi:

http://en.wikipedia.org/wiki/Bayer_filter

 

Wynika to z faktu, że zmniejszając rozmiar liniowy o połowę zmniejszamy pole cztery razy. :)

 

Z resztą sam napisałeś (niżej), że zielone są dwa, więc jest ich 2 razy więcej ;)

 

Podsumowując: 1 zielony + 1 niebieski + 2 zielone = 4 kolorowe, z których każdy ma linowy wymiar boku równy połowie całej macierzy. Ot, cała magia :lol::banan:

A no właśnie! Rozumiem co masz na myśli, ale skoro go poprosiłeś aby wyciągnął bezpośrednio z CFA kanały to właśnie to otrzymałeś, ale możesz zrobić inaczej. Najpierw debayering i otrzymujesz jeden kolorowy obraz pełnej rozdzielczości (48 bitów) a potem RGB split pełnego, wtedy masz 3 kolory RGB pełnej wielkości.

 

Można też od razu debayering i split na 3 kolory za pomocą:

CFA2RGB

 

Pytanie tylko jak będzie działał debayering dla obrazu zarejestrowanego przez filtr... może być ciekawie. Będziesz musiał potem popracować na kolorami i balansem bieli.

Ja w IRISie szukam gwiazdki G2 i robie na niej WHITE a potem ustawiam BLACK na tło i mam mniej więcej kolor.

 

A tak na marginesie: stackując te dwa zielone tracisz masę informacji, zwłaszcza rozdzielczość...

 

No tak, jak rozmiar X i Y jest na połowe dzielony no to jasne, że "pole" zdjęcia jest 25%... kwestia podejścia ( ja podchodzę na zasadzie 3500pixeli na pół itd ).

 

Bardzo ciekawe rzeczy piszesz....aaaale... jeśli najpierw zrobisz Debayering to "wywołujesz" zdjecie - czyli uzyskujesz pełne zdjecie w pełnym kolorze.... czyli mieszasz kolor zielony z niebieskim i czerwonym.... a tego własnie chcemy uniknąć przy foceniu z filtrem.

Potem piszesz, że można rozdzielić takie "zdibayerowane" na RGB... no tak, ale co ci to daje? - że można obrabiać oddzielnie każdy z kolorów RGB tylko, ze mozesz to samo zrobić w PS jak działasz na kanałach w zdjęciu RGB ( czyli bez rozdzielania )

 

Generalnie dowcip polega na tym, zeby z RAW wyciagnąć kolorowe pixele, a nie ze zdjecia RGB...

 

Oczywiscie po zabawach w rozkładanie zdjecia na kolory zabawy ze złożeniem jest jeszcze więcej a balans kolorów staje się niezłym wyzwaniem....

Odnośnik do komentarza
Udostępnij na innych stronach

Debayering działa zupełnie normalnie przy fotce z filtrem np UHC ... po prostu masz fotkę bardziej fioletowo-czerwono-niebieską a robienie na tym balansu bieli od początku do konca nie ma sesnu - bo po co udawać, ze jest kolor zielony na zdjeciu jesli faktycznie go nie zarejestrowałeś (moze ewentualnie zeby było "ładniej" choć dla mnie to mało interesujący argument ;P )

Odnośnik do komentarza
Udostępnij na innych stronach

Ja wiem, ze to zadziwiające, ze jak zielonych pixeli jest 2 razy wiecej to i tak się traci połowe rozdzielczosci, ale tak własnie jest.... jak rozważysz każdy rząd lub kolumne osobno, to czerowne i niebieskie pixele masz "co drugi"... czyli połowa....

 

Jeśli w IRISie komendą

SPLIT_CFA R1 G1 G2 B1

rozdzielisz zdjecie na pojedyncze kolory, to każde z tych R1 G1 G2 B1 ma dokładnie połowę rozdzielzości obrazka oryginalnego ( czyli zamiast 3456x2304 masz 1720x1150 ).

Oczywiście zielonego masz dwa takie obrazki z jednego zdjecia ( no bo w koncu tych pixeli jest dwa razy więcej ) , ale nie bardzo jest co zrobić z tymi dwoma obrazkami poza zestackowaniem ich...

 

DSLRFocus robi to samo co MaximDL tylko jakoś mało przyjaźnie.... po prosu nie lezy mi ten program i ma ze 100 razy mniej opcji czy funkcji, problemy natomiast dokładnie takie same ( ostrzenie DSLRFocusa to nic innego jak VCurve jaki robi FocusMax współpracxujący z MaximDLem - filozofia ta sama ). DSLRFocus denerwowal mnie tym, że ogladanie obrazka było jakieś trudne.

Maxim nad DSLRFocusem ma całą masę zalet, ale jedna z głównych to "Profile Line" czyli zaznaczamy sobie jakiś fragment obrazka ( linią, prostokątem lub punktowo ) a ten wypluwa nam wartości Mean, Maximum, Minimum - jest to kompletnie nie zastąpiona funkcja przy robieniu flatów, mierzeniu zaświetlenia, określaniu długości czasów naświetlania, jakości nieba, winietowania, kontrastu itd...

 

Oczywiście, że MaxIm jest 10x lepszy... to wynika z rachunku matematycznego 40$ do prawie 400$, to nie podlega dyskusji. Tyle, że DSLR jest dedykowany do aparatów i nie ma problemu z bayer-matrixami etc.

Nie chcę nikogo na siłe przekonywać, ale jak się trochę pozna ten program, to zupełnie wystarcza do focenia EOSkiem, z miasta, z filtrami i całą resztą bejerów typu programowanie sesji itd.

:Beer:

Odnośnik do komentarza
Udostępnij na innych stronach

Bardzo ciekawe rzeczy piszesz....aaaale... jeśli najpierw zrobisz Debayering to "wywołujesz" zdjecie - czyli uzyskujesz pełne zdjecie w pełnym kolorze.... czyli mieszasz kolor zielony z niebieskim i czerwonym.... a tego własnie chcemy uniknąć przy foceniu z filtrem.

No to nie jest takie znowu mieszanie tylko interpretacja. Obrabiając w ten sposób zachowujesz oryginalną rozdzielczość, czyli detal. Oczywiście wstępna obróbka (bias, dark, flat) jest robiona na CFA.

 

Potem piszesz, że można rozdzielić takie "zdibayerowane" na RGB... no tak, ale co ci to daje? - że można obrabiać oddzielnie każdy z kolorów RGB tylko, ze mozesz to samo zrobić w PS jak działasz na kanałach w zdjęciu RGB ( czyli bez rozdzielania )

 

Nie wiem, po co rozdzielać "wywolane" zdjęcie na kanały? Może po to, żeby obrabiać każdy oddzielnie, albo żeby usunąć zielony, któego nie ma (bo filtr) i zastąpić go syntetycznym. Sam rozdzielałeś CFA na kolory, więc zaproponowałem inny sposób, który ma swoje wady i zalety. Podstawową zaleta jest zachowanie oryginalnej rozdzielczości, wadą pewnie wymieszanie informacji pomiędzy kolorami w jakimś niewielkim stopniu.

Po prostu coś za coś... :)

Odnośnik do komentarza
Udostępnij na innych stronach

Oczywiście, że MaxIm jest 10x lepszy... to wynika z rachunku matematycznego 40$ do prawie 400$, to nie podlega dyskusji. Tyle, że DSLR jest dedykowany do aparatów i nie ma problemu z bayer-matrixami etc.

Nie chcę nikogo na siłe przekonywać, ale jak się trochę pozna ten program, to zupełnie wystarcza do focenia EOSkiem, z miasta, z filtrami i całą resztą bejerów typu programowanie sesji itd.

:Beer:

 

Yyyy......bo mała nieprawda nam sie tu nieumyślnie wkradła.

Ja wcale nie powiedziałem, ze Maxim MA problem z maską którego DSLRFocus NIE MA....sądze, że jeśli którys z nich gorzej działa w tej materii to jest to właśnie DSLRFocus.... co nie zmienia faktu, że Maxim nie działa idealnie i łatwo to sprawdzić....

Podobno generalnie z automatycznym ostrzeniem w kolorowych kamerkach ( włacznie z SBIGami ) ogólnie jest mały problem, taka ich po prostu natura ( w sumie skoro mamy fotkę w kratkę to nie dziwne ).

Odnośnik do komentarza
Udostępnij na innych stronach

Podobno generalnie z automatycznym ostrzeniem w kolorowych kamerkach ( włacznie z SBIGami ) ogólnie jest mały problem, taka ich po prostu natura ( w sumie skoro mamy fotkę w kratkę to nie dziwne ).

Zwłaszcza jak obiektyw ogniskuje każdy z kolorów w innej płaszczyźnie... :)

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wiem, po co rozdzielać "wywolane" zdjęcie na kanały? Może po to, żeby obrabiać każdy oddzielnie, albo żeby usunąć zielony, któego nie ma (bo filtr) i zastąpić go syntetycznym. Sam rozdzielałeś CFA na kolory, więc zaproponowałem inny sposób, który ma swoje wady i zalety. Podstawową zaleta jest zachowanie oryginalnej rozdzielczości, wadą pewnie wymieszanie informacji pomiędzy kolorami w jakimś niewielkim stopniu.

Po prostu coś za coś... :)

Hm.... no tak. Musze sie nad tym zastanowić jeszcze, ale ogólnie rzecz biorąc, to chyba jednak z maską Bayera sprawa wygląda tak, że rozdzielczość fotki o rozmiarze powiedzmy 1000x1000 w kolorze, po debayerowaniu jest jednak mniejsza niż fotki 1000x1000 B&W, ale jest wyzsza niż fotki o rozdzielczosci 500x500 B&W... czyli z maską mamy jakby taką "semi" pełną rozdzielczość.

 

Natomiast rozdzielając fotkę RAW na kolory R G1, G2 i B dostajemy pełną rozdzielczość 500x500 pixeli tylko, że ma ona większe pole niż fotka z matrycy 500x500 pixeli B&W przez co detalu też jest mniej ( no bo większe pole )

 

No nie wiem... tak czy inaczej stackowanie wydzielonego niebieskiego z czerwonym z fotki RAW nie daje za duzo w materii "ilości materiału" bo to już sprawdziłem.

 

Generalnie nie ma tu chyba co filozofować za duzo i po prostu pogodzic sie z mniejszą rozdzielczością fotek z matryc kolorych i tyle... ... i focic ile wlezie, bo jak widać cośtam da się Canone ustrzelić. :Beer:

 

pozdrawiam.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.