Skocz do zawartości

Atik 314E mono


Rekomendowane odpowiedzi

Witam!

 

Nie planuję narazie zakupu kamery ccd i bronię się przed tym rękami i nogami ale to cholerne hobby wciąga gorzej od czarnej dziury więc wolę być przygotowany kiedy nadejdzie ten moment :rolleyes:

Przede wszystkim powstrzymuje mnie niechęć do noszenia akumulatora i netbooka ale ustawienie ostrości czy kadru na wyświetlaczu aparatu zaczyna mnie denerwować.

 

Pozostały mi resztki rozsądku co do kwot przeznaczanych na sprzęt więc biorę pod uwagę właściwe tylko Atiki z serii 314.

Najchętniej oczywiście nabędę coś używanego jak się kiedyś trafi okazja.

 

Mam parę wątpliwości co do tematu kamer i konkretnych modeli:

1) Jak to jest, że do astrofotografii przy LP poleca się kamery mono?

Czy chodzi tylko o możlwość użycia fitrów narrowband?

Bo jak dla mnie, osoby mającej doświadczenie z Canonem, jeśli mamy matrycę kolorową to LP można usunąć przez wyrównanie tła, które powoduje zazwyczaj wyraźne wyłonienie się z niego obiektów. Chodzi po prostu o to, że LP ma konkretną barwę i dość łatwo go odjąć.

Natomiast jak myślę o kamerze mono to rozumiem, że każdy piksel naświetli się wszystkimi długościami fal i LP zleje się z obiektem co uniemoźliwi jego usunięcie...?!

 

2) Czy da się jakoś porównać długość naświetlania kamerą mono do lustrzanki? Chodzi mi o to żeby wiedzieć tylko w przybliżeniu czy jak użyję kamery np. Atik 314E to dla takiego samego efektu (jasności obrazu) będę musiał naświetlać dłużej, krócej niż np. Canonem na ISO800?

Rozumiem, że porównanie utrudnia tutaj poziom szumu bo nawet przy ciemniejszym obrazie z kamery będzie sie dało bez szumu wyciągnąć jaśniejszy obraz niż z lustrzanki.

Znalazłem na CN pomiary 314E i jest tam określony gain równy 0.2e/ADU. Wiem, że Canon przy ISO800 jest blisko Unity Gain czyli ma coś koło 0.9e/ADU. To oznacza że ponad 4 razy dłużej trzeba naświetlać kamerą?!

 

3) Rozumiem, że kamera mono daje dzięki brakowi interpolacji obraz ostry przy 100% rozdzielczości? Czyli tak naprawdę rozdzielczość jest mniejsza niż w lustrzance ale dla tej samej ostrości obrazu trzeba by klatkę z lustrzanki zmniejszyć np 2x?

 

4) Czy do samego sterowania kamerą wystarczy najtańszy netbook z Atomem na pokładzie?

 

5) Czy brak regulacji chłodzenia oznacza, że nie ma też odczytu temperatury i nie wiadomo nic o tym co się tam dzieje?

Czy osiągana max różnica temp. zależy od temperatury początkowej? Jak to jest z zamarzaniem szybek, soczewek i innych elementów przy braku regulacji?

 

6) Czy matryca w 314L jest dużo lepsza niz w 314E? Chodzi o to czy warto do niej dopłacać?

 

7) Jak to jest z głębokoscią studni Atika 314E bo coś podobna ona bardzo do lustrzanki co mnie nieco niepokoi? Chyba, że moje informacje są złe...

 

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Witam!

 

1) Jak to jest, że do astrofotografii przy LP poleca się kamery mono?

Czy chodzi tylko o możlwość użycia fitrów narrowband?

Bo jak dla mnie, osoby mającej doświadczenie z Canonem, jeśli mamy matrycę kolorową to LP można usunąć przez wyrównanie tła, które powoduje zazwyczaj wyraźne wyłonienie się z niego obiektów. Chodzi po prostu o to, że LP ma konkretną barwę i dość łatwo go odjąć.

Natomiast jak myślę o kamerze mono to rozumiem, że każdy piksel naświetli się wszystkimi długościami fal i LP zleje się z obiektem co uniemoźliwi jego usunięcie...?!

 

2) Czy da się jakoś porównać długość naświetlania kamerą mono do lustrzanki? Chodzi mi o to żeby wiedzieć tylko w przybliżeniu czy jak użyję kamery np. Atik 314E to dla takiego samego efektu (jasności obrazu) będę musiał naświetlać dłużej, krócej niż np. Canonem na ISO800?

 

4) Czy do samego sterowania kamerą wystarczy najtańszy netbook z Atomem na pokładzie?

 

5) Czy brak regulacji chłodzenia oznacza, że nie ma też odczytu temperatury i nie wiadomo nic o tym co się tam dzieje?

Czy osiągana max różnica temp. zależy od temperatury początkowej? Jak to jest z zamarzaniem szybek, soczewek i innych elementów przy braku regulacji?

 

6) Czy matryca w 314L jest dużo lepsza niz w 314E? Chodzi o to czy warto do niej dopłacać?

 

Pozdrawiam

.. ostatnimi czasy "przesiadłem się" własnie na CCD (wcześniej SONY Alfa) i napisze Ci co zauważyłem:

 

ad1 - kamery mono polecane są nie tylko dlatego, że można używać filtrów wąskopasmowych, głównie dlatego, że są o wiele czulsze od kamer kolorowych - co nie pozostaje bez wpływu biorąc pod uwagę nasze piękne, jasne niebo - podczas palenia klatek udział w łapaniu fotonów biorą wszystkie pixele niezależnie jaki filtr założysz przed matrycę.... przy dobrej obróbce nic nie powinno Ci się "zlewać"... tak jak piszesz każdy pixel naswietli się wszystkimi długościami fal ale ponieważ każdy kolor robisz osobno przez odpowiedni filtr to wartości poszczególnych fal w tym samym pixelu po złożeniu będą się różniły...

 

ad2 - tu nie ma co porównywać - kamerą możesz (za wyjątkiem chyba narrowbandu) wykonywać o wiele krótsze expozycje by uzyskać ten sam efekt jasności obiektu... oczywiście nadrzędną rolę i tak gra światłosiła sprzętu

 

ad4 - sam używam notebooka (główne CCD, montaż, guide CCD) - wydaje mi się,że jest troszkę poręczniejszy (gabarytowo ;) bo ekran przydałby się nieco wiekszy) beż żadnych problemów.

 

ad5 - tak, nie bedziesz wiedział ani kontrolował temperatury matrycy... jeśli chodzi o zamarzanie (parę wodną) to jak na razie jedyny problem pojawiał mi się na szkle teleskopu...

 

ad6 - z tego co wiem to jest większa (czyt: 314L ma większy pixel od 314E - bo rozdzielczość ta sama), co za tym idzie powinna mieć nieco wieksze pole widzenia - pracuję obecnie na tej samej matrycy co w 314L i w ED80 bez reduktora ledwo mieści się M33, przypuszczam że w 314E będzie to pole nieco mniejsze...

... wydaje mi się, że warto dołożyć i kupić lepszą matrycę - zresztą wydaje mi się , że w naszym pięknym hobby prawie wszystko co droższe jest lepsze ;)

 

PS: zawsze możesz dozbierać np: do QHY8 z kolorową matrycą ;)

Edytowane przez pladal
Odnośnik do komentarza
Udostępnij na innych stronach

Mam parę wątpliwości co do tematu kamer i konkretnych modeli:

1) Jak to jest, że do astrofotografii przy LP poleca się kamery mono?

Czy chodzi tylko o możlwość użycia fitrów narrowband?

Bo jak dla mnie, osoby mającej doświadczenie z Canonem, jeśli mamy matrycę kolorową to LP można usunąć przez wyrównanie tła, które powoduje zazwyczaj wyraźne wyłonienie się z niego obiektów. Chodzi po prostu o to, że LP ma konkretną barwę i dość łatwo go odjąć.

Natomiast jak myślę o kamerze mono to rozumiem, że każdy piksel naświetli się wszystkimi długościami fal i LP zleje się z obiektem co uniemoźliwi jego usunięcie...?!

 

2) Czy da się jakoś porównać długość naświetlania kamerą mono do lustrzanki? Chodzi mi o to żeby wiedzieć tylko w przybliżeniu czy jak użyję kamery np. Atik 314E to dla takiego samego efektu (jasności obrazu) będę musiał naświetlać dłużej, krócej niż np. Canonem na ISO800?

Rozumiem, że porównanie utrudnia tutaj poziom szumu bo nawet przy ciemniejszym obrazie z kamery będzie sie dało bez szumu wyciągnąć jaśniejszy obraz niż z lustrzanki.

Znalazłem na CN pomiary 314E i jest tam określony gain równy 0.2e/ADU. Wiem, że Canon przy ISO800 jest blisko Unity Gain czyli ma coś koło 0.9e/ADU. To oznacza że ponad 4 razy dłużej trzeba naświetlać kamerą?!

 

3) Rozumiem, że kamera mono daje dzięki brakowi interpolacji obraz ostry przy 100% rozdzielczości? Czyli tak naprawdę rozdzielczość jest mniejsza niż w lustrzance ale dla tej samej ostrości obrazu trzeba by klatkę z lustrzanki zmniejszyć np 2x?

 

4) Czy do samego sterowania kamerą wystarczy najtańszy netbook z Atomem na pokładzie?

 

5) Czy brak regulacji chłodzenia oznacza, że nie ma też odczytu temperatury i nie wiadomo nic o tym co się tam dzieje?

Czy osiągana max różnica temp. zależy od temperatury początkowej? Jak to jest z zamarzaniem szybek, soczewek i innych elementów przy braku regulacji?

 

6) Czy matryca w 314L jest dużo lepsza niz w 314E? Chodzi o to czy warto do niej dopłacać?

 

7) Jak to jest z głębokoscią studni Atika 314E bo coś podobna ona bardzo do lustrzanki co mnie nieco niepokoi? Chyba, że moje informacje są złe...

 

Pozdrawiam

 

Jestem na podobnym etapie - próbuję focić canonem 20D ale wciąż mi po głowie chodzi kamerka CCD. Z mojego póki co teoretycznego rozeznania wynika:

1. samo LP to stała wartość, ewentualnie gradient który można łatwo zdjąć z kadru. Kamery CCD mają mniejsze szumy, które dają większą dynamikę i sporo innych zalet (np głębszą studnię), ale w walce z LP nie widzę innej zalety niż możliwość stosowania filtrów wąskopasmowych.

2. długość naświetlania zależy od sprawności kwantowej oraz stosowania filtrów. Sprawność lustrzanek nie jest wiele mniejsza od kamerek CCD, ale mają one wbudowane filtry kolorowe, przez co końcowa sprawność jest jednak sporo mniejsza. To co napisałeś o gainie wynika z różnych ADU - w Atiku przetwornik jest 16 bit, w canonie 12 albo 14bit. Gain to stosunek głębokości studni do rozdzielczości przetwornika.

3. w lustrzance z matrycą Bayera informacja o kolorze jest brana sumarycznie z czterech (najczęściej) sąsiadujących pikseli, natomiast o luminancji z każdego kolory osobno. Jest to sytuacja podobna do fotografowania kamerką mono luminancji przy binningu 1x1, i naświetlaniu kolorów przy biningu 2x2, choć oczywiście przy stosowaniu biningu zwiększamy jeszcze dodatkowo dynamikę kamerki.

4, 5, 6 - brak danych :)

7. nie wiem jaką głębokość ma studnia w lustrzance, ale nawet jeśli podobną to ponieważ szumy kamerki CCD są o wiele mniejsze, dużo większa jest też dynamika, a co za tym idzie jakość uzyskanych obrazów.

Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki za odpowiedzi!

 

pladal:

ad1. Chodzi mi o to żeby nie robić kolorów tylko samą luminancję i stąd moje obawy dotyczące usunięcia LP ze zdjęć.

 

ad4. Netbook jest po prostu mniejszy no i zazwyczaj w niskiej cenie ma już baterię, która działa parę godzin. Obróbki nie będę na nim nigdy robił bo mam do tego odpowiednią maszynę.

 

ad6. Wielkość fizyczna nie jest tak do końca mi na rękę, ponieważ stosująć kamerę z mniejszym pikselem i reduktor ogniskowej 0.8x otrzymam światłosiłę f/4.9 i jednocześnie większy nieco detal niż z Canona przy f/6.1.

Bez reduktora problem byłby z dokładnością prowadzenia mojego zestawu, w którym AT pracuje ze sprzętem foto.

 

Adam: czytałem to już ale wciąż miałem pewne konkretne wątpliwości stąd moje pytania

 

jolo:

ad1. No właśnie ciekawy jestem czy łatwiej zdjąć LP w kamerze mono czy w kolorowej lustrzance... Dynamika jest większa ale czy aby na pewno na tyle...? Czy jednak zlewanie się z całym sygnałem nie utrudnia sprawy? Bo LP chyba generalnie nie można traktować jako światła dodanego do światła obiektu bo mówi się o tym że LP tłumi jakoś to co dociera spoza atmosfery...tylko czy to prawda?

 

ad3. Tutaj chyba się mylisz mówiąc, że lustrzanka jest jak robienie luminancji w bin1x1 a koloru w bin2x2 bo w takim wypadku nie trzeba by kamery kupować:> Przecież jak matryca ma maskę Bayera to nie możesz powiedzieć, że każdy piksel odbiera jasność tak samo.

Ja bym raczej powiedział, że to jest jak robienie luminancji bin2x2, bo żeby mieć pełne spektrum potrzebujesz 4 piksele (a dokładnie 3 piksele), ale przy wynikowej ilości światła jaką dostał by jeden piksel bez filtrów. Co do kolorów to już w ogóle ciężko to porównać do kamery mono bo bin1x1 to nie jest, ze względu na interpolację.

 

Cały czas czekam jeszcze na opinie w sprawie walki z LP w kamerze mono przy zdjęciach B/W.

Na inne pytania oczywiście też chętnie poznam inne punkty widzenia!

Odnośnik do komentarza
Udostępnij na innych stronach

No właśnie ciekawy jestem czy łatwiej zdjąć LP w kamerze mono czy w kolorowej lustrzance...

 

Łatwiej, choćby ze względu na większą dynamikę, rozpiętość tonalną, mniejszy szum. Inaczej mówiąc, łatwiej odzielić minimalne różnice od tła (czyli LP w tym wypadku). Jedna mała uwaga, nie ma nic takiego, jak kolorowa matryca. Typowe, spotykane w DSLR matryce, to oczywiście monochromy. Różnica polega na tym, że w przypadku DSLR nie możesz zrobić zdjęcia bez blokujące widmo filtra, który w przypadku tzw. one shot color, wbudowany jest w matrycę na stałe.

 

Dlatego nie można powiedzieć, że w kolorowej możesz odseparować LP, bo zdejmiesz sobie "kolor". W tym wypadku niczym się to nie różni od mono, bo w istocie, kamera kolorowa to po prostu 3 monochromatyczne zdjęcia w czasie 1 wciśnięcia migawki. Coś, za coś.

 

Nie ma jak porównać sprawności kamery mono do kolorowej. Szkoda, że nie jesteś z Warszawy, bo wpadłbyś do obserwatorium i sam sobie empirycznie to przetestował. Wtedy nie miałbyś wątpliwości.

 

Zresztą, jeżeli masz ochotę, to możemy zrobić "deal" warunkowy. Dostaniesz 314E i jak stwierdzisz, że nie ma różnicy w stosunku do DSLR (lub jest za mała), to go oddasz :szczerbaty:

Odnośnik do komentarza
Udostępnij na innych stronach

Jest dokładnie odwrotnie.

Przy dużym LP należy robić możliwie krótkie ekspozycje (dłuższe nie mają sensu, bo i tak szybko tło idzie do góry), za to jak najwięcej. Więc głębokość studni ma znaczenie, ale tam, gdzie robisz długie ekspozycje, czyli w przypadku ciemnego nieba.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chodzi o Light Pollution to jest ono źródłem szumów, każdy tu pisze o szumach kamerki, a nikt o tym że szumi światło. Szum światła to pierwiastek z jego jasności wyrażonej w elektronach. Przykładowo naświetlisz tło do poziomu 10000 elektronów to masz szum równy pierwiastek(10000)=100.

 

Dlatego nieprawdą jest że można LP zdjąć softwareowo.

 

Z obliczeń wynika że aby zdjąć LP trzeba by dołożyć tyle materiału ile jaśniejsze jest niebo, przykładowo jeśli w mieście posiadasz 100x jaśniejsze niebo niż na wsi to musisz dołożyć 100x więcej materiału.

 

Kamerki mono typu exview są 10x sprawniejsze od kolorowych dla światła 3200K, dlatego warto używać do gwiazd kamerek mono nawet gdy nie posiadamy żadnego filtra.

 

Jeśli chodzi o Ha to kamerka mono będzie już tylko 4x sprawniejsza od kolorowej wynika to z 100% pokrycia w kamerce mono i 25% pokrycia w kolorowej.

 

Natomiast OIII wypada w przerwie energetycznej pomiędzy filtrami G i B dlatego warto mieć kamerkę mono nawet bez żadnego filtra powinno być lepiej.

Odnośnik do komentarza
Udostępnij na innych stronach

jolo:

ad1. No właśnie ciekawy jestem czy łatwiej zdjąć LP w kamerze mono czy w kolorowej lustrzance... Dynamika jest większa ale czy aby na pewno na tyle...? Czy jednak zlewanie się z całym sygnałem nie utrudnia sprawy? Bo LP chyba generalnie nie można traktować jako światła dodanego do światła obiektu bo mówi się o tym że LP tłumi jakoś to co dociera spoza atmosfery...tylko czy to prawda?

 

ad3. Tutaj chyba się mylisz mówiąc, że lustrzanka jest jak robienie luminancji w bin1x1 a koloru w bin2x2 bo w takim wypadku nie trzeba by kamery kupować:> Przecież jak matryca ma maskę Bayera to nie możesz powiedzieć, że każdy piksel odbiera jasność tak samo.

Ja bym raczej powiedział, że to jest jak robienie luminancji bin2x2, bo żeby mieć pełne spektrum potrzebujesz 4 piksele (a dokładnie 3 piksele), ale przy wynikowej ilości światła jaką dostał by jeden piksel bez filtrów. Co do kolorów to już w ogóle ciężko to porównać do kamery mono bo bin1x1 to nie jest, ze względu na interpolację.

 

Na 1 już Adam odpowiedział, a co do 3 to chyba źle się wyraziłem - chodziło mi o to, że w DSLR informacja o kolorze jest brana z czterech pikseli (RGGB w Canonie) natomiast o luminacji z każdego piksela barwnego osobno i następnie jakimś mniej albo bardziej zawiłym algorytmem składane jest to w obraz wynikowy. Dlatego w typowych matrycach Bayera informacja o kolorze ma jakby mniejszą rozdzielczość niż o luminacji i pełna rozdzielczość kolorowa jest obliczana odpowiednim algorytmem. Dlatego porównałem to do robienia koloru w bin 2x2. Kamerkę CCD trzeba jednak kupować :) bo jej zasadnicza przewaga to sporo większa dynamika, którą przy biningu jeszcze zwiększamy. W moim Canonie 20D w darkach 300 sekund przy ok 12 stopniach szum jest na poziomie 130ADU i mam około 300 hot pikseli, co daje dynamikę 34 czyli około 31dB - nie jest to jakaś porywająca wielkość :szczerbaty: Przy lightach 300sek mam poziom tła 340ADU, czyli koło 210ADU to LP :fool:

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chodzi o Light Pollution to jest ono źródłem szumów, każdy tu pisze o szumach kamerki, a nikt o tym że szumi światło. Szum światła to pierwiastek z jego jasności wyrażonej w elektronach. Przykładowo naświetlisz tło do poziomu 10000 elektronów to masz szum równy pierwiastek(10000)=100.

 

Dlatego nieprawdą jest że można LP zdjąć softwareowo.

Owszem, dlatego dobre efekty uzyskuje się poprzez skrócenie ekspozycji i znaczne zwiększenie ilości subekspozycji. W praktyce daje to naprawdę zaskakujące efekty (np. 30-50 klatek po 5 min - nawet z miasta).

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chodzi o Light Pollution to jest ono źródłem szumów, każdy tu pisze o szumach kamerki, a nikt o tym że szumi światło. Szum światła to pierwiastek z jego jasności wyrażonej w elektronach. Przykładowo naświetlisz tło do poziomu 10000 elektronów to masz szum równy pierwiastek(10000)=100.

(...)

Mógłbyś jakoś to rozwinąć? Jaki jest mechanizm powstawania tego szumu? Jaki jest rozkład w funkcji częstotliwości i powierzchni, bo jeśli fluktuacje są krótkie a rozkład po powierzchni jednorodny, to naświetlanie klatek po 300 i więcej sekund bez problemu uśredni ten szum.

Odnośnik do komentarza
Udostępnij na innych stronach

Jest dokładnie odwrotnie.

Przy dużym LP należy robić możliwie krótkie ekspozycje (dłuższe nie mają sensu, bo i tak szybko tło idzie do góry), za to jak najwięcej. Więc głębokość studni ma znaczenie, ale tam, gdzie robisz długie ekspozycje, czyli w przypadku ciemnego nieba.

No tak ale im płycej tym szybciej się wysyca matryca. A za krótkie ekspozycje nie pozwolą nic wyciągnąć z tego materiału.

Odnośnik do komentarza
Udostępnij na innych stronach

No tak ale im płycej tym szybciej się wysyca matryca. A za krótkie ekspozycje nie pozwolą nic wyciągnąć z tego materiału.

Adamo, ale dłuższa ekspozycja nic Ci nie daje, bo jeżeli tło idzie do góry, to "odległość" tonalna sygnału (np. galaktyki, mgławicy) nie zwiększa się od tła, czyli wydłużając ekposycję nie zyskujesz nic, a tracisz sporo czasu i dynamiki (ryzyko przesaturowania - choćby gwiazd, czy jasnych partii). Długość subekspozycji określają twoje lokalne warunki, czyli jasność tła nieba, czyli właśnie LP. Przy dużym LP ekspozycjie będą bardzo krótkie (bo wydłużanie nic nie wniesie), zaś przy ultra czarnym niebie, możesz palić i 30 min - jak lubisz ;). W tym wypadku, pod ciemne niebo głęboka studnia jest bardzo porządana.

Odnośnik do komentarza
Udostępnij na innych stronach

Co do laptopa. Odpalam Maxima i 2 kamerki. Qhy5 i Qhy8 i nie mam żadnego problemu. Do tego jakieś inne aplikacje w tle. Fitsy mają po około 13 megabajtów więc nie jest to jakaś powalająca ilość danych. Rawy z eosa zajmowały ponad 20 mb i też nie było problemu + podgląd zdjęć na bierząco. Przy wyłączonym WiFi Laptop działa 5 do 6 godzin.

Asus eee.

Martwił bym się raczej o zapas prądu dla astrotracka czy montażu.

Edytowane przez _Spirit_
Odnośnik do komentarza
Udostępnij na innych stronach

Adamo, ale dłuższa ekspozycja nic Ci nie daje, bo jeżeli tło idzie do góry, to "odległość" tonalna sygnału (np. galaktyki, mgławicy) nie zwiększa się od tła, czyli wydłużając ekposycję nie zyskujesz nic, a tracisz sporo czasu i dynamiki (ryzyko przesaturowania - choćby gwiazd, czy jasnych partii). Długość subekspozycji określają twoje lokalne warunki, czyli jasność tła nieba, czyli właśnie LP. Przy dużym LP ekspozycjie będą bardzo krótkie (bo wydłużanie nic nie wniesie), zaś przy ultra czarnym niebie, możesz palić i 30 min - jak lubisz ;). W tym wypadku, pod ciemne niebo głęboka studnia jest bardzo porządana.

Zrobię test i pokaże o co mi chodzi bo mam wrażenie, że się nie rozumiemy.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chodzi o Light Pollution to jest ono źródłem szumów, każdy tu pisze o szumach kamerki, a nikt o tym że szumi światło. Szum światła to pierwiastek z jego jasności wyrażonej w elektronach. Przykładowo naświetlisz tło do poziomu 10000 elektronów to masz szum równy pierwiastek(10000)=100.

 

Dlatego nieprawdą jest że można LP zdjąć softwareowo.

 

Z obliczeń wynika że aby zdjąć LP trzeba by dołożyć tyle materiału ile jaśniejsze jest niebo, przykładowo jeśli w mieście posiadasz 100x jaśniejsze niebo niż na wsi to musisz dołożyć 100x więcej materiału.

 

Kamerki mono typu exview są 10x sprawniejsze od kolorowych dla światła 3200K, dlatego warto używać do gwiazd kamerek mono nawet gdy nie posiadamy żadnego filtra.

 

Jeśli chodzi o Ha to kamerka mono będzie już tylko 4x sprawniejsza od kolorowej wynika to z 100% pokrycia w kamerce mono i 25% pokrycia w kolorowej.

 

Natomiast OIII wypada w przerwie energetycznej pomiędzy filtrami G i B dlatego warto mieć kamerkę mono nawet bez żadnego filtra powinno być lepiej.

 

No to ja mam w takim razie takie pytanie.

Rozważmy czysto teoretyczną sytuację że mamy już swój dopieszczony setup. Jedziemy w Bieszczady, 0 LP cykamy zdjęcie określonego obiektu. Mamy na przykład 1 klatkę 300s przy temp czipa -30C. Jeśli teraz pojedziemy do miasta i zrobimy zdjęcie tego samego obiektu ten sam kadr, ten sam czas i tak sama temperatura czipa otrzymamy teoretycznie ten samy sygnał + szum i syf z LP. Pytanie zatem, skoro matryca to "liczydło kwantowe" więc teoretycznie można by w prosty sposób chyba policzyć porównując oba zdjęcia ile do wartości wypełnienia każdego pixela wnosi LP i odjąć LP od każdej klatki tak samo jak flata i w znaczny sposób ograniczyć jego wpływ na jakość zdjęcia.

Odnośnik do komentarza
Udostępnij na innych stronach

Adam: to porównanie jest dokładnie tym co chciałbym zobaczyć dla tej kamery i modyfikowanego Canona.

Super byłoby mieć dokładnie takie zestawienie gdzie ewidentne byłoby jaki jest szum z Canona jeśli chcemy taką samą jasność uzyskać co z kamerki, przy tych samych czasach.

Mnie by najbardziej interesowało to dla ISO 800 bo takiego używam i teoretycznie powinien to być najlepszy wybór bo najbliżej unity gain.

Można by też i dla innych zrobić.

Jakbyś miał chwilę czasu na taką zabawę to byłoby super i myślę że wiele osób mogłoby to przekonać gdyby zobaczyli porównanie najbardziej popularnego Canona (350D mod) i najtańszej sensownej kamerki ccd jaką jest chyba Atik 314E.

Tylko nie wiem czy masz dostęp do jakiegoś modyfikowanego Canona w firmie.

 

SancreTor: gdyby było tak jak piszesz, czyli gdyby LP dodawało się do światła obiektów, to nie trzeba by w ogóle jeździć pod ciemne niebo i obserwacje wizualne można by prowadzić z centrum miasta bo przecież obiekt byłby po prostu jaśniejszy a od tła odróżniał by się tak samo...

Odnośnik do komentarza
Udostępnij na innych stronach

(...)

SancreTor: gdyby było tak jak piszesz, czyli gdyby LP dodawało się do światła obiektów, to nie trzeba by w ogóle jeździć pod ciemne niebo i obserwacje wizualne można by prowadzić z centrum miasta bo przecież obiekt byłby po prostu jaśniejszy a od tła odróżniał by się tak samo...

Tak niestety nie jest, bo ludzkie oko jest czułe na kontrast a nie bezwzględnie zmierzoną jasność. Pod ciemnym niebem mamy np tło o jasności 1 i obiekt o jasności 10 co daje nam kontrast 11/1. W mieście np mamy niebo o jasności 50 i ten sam obiekt ma kontrast 60/50, a więc prawie 10 razy słabszy. Matryce CCD sumują sobie wszystko liniowo i stały offset w sygnale niczego im nie zmienia.

Edytowane przez jolo
Odnośnik do komentarza
Udostępnij na innych stronach

Tak niestety nie jest, bo ludzkie oko jest czułe na kontrast a nie bezwzględnie zmierzoną jasność. Pod ciemnym niebem mamy np tło o jasności 1 i obiekt o jasności 10 co daje nam kontrast 11/1. W mieście np mamy niebo o jasności 50 i ten sam obiekt ma kontrast 60/50, a więc prawie 10 razy słabszy. Matryce CCD sumują sobie wszystko liniowo i stały offset w sygnale niczego im nie zmienia.

 

Faktycznie. Nie zmienia się przecież tylko bezwzględny odstęp pomiędzy jasnością nieba i jasnością obiektu natomiast stosunek owszem.

Bo generalnie zdawałem sobie sprawę z tego że chodzi o kontrast a nie jasność tylko źle go chciałem liczyć.

 

No dobra...ale skoro LP byłoby stałym offsetem to po naświetleniu takiej samej klatki w mieście i pod ciemnym niebem fotografowany obiekt byłby bezwzględnie jaśniejszy w mieście. Natomiast po odjęciu stałej (w przybliżeniu) zdjęcie wyglądałoby identycznie... to po co w takim razie ciemne niebo? Wystarczy głęboka studnia?

 

Poza tym w takim razie LP byłoby wręcz bezcenne bo pięknie przesuwało by nam światło pochodzące od obiektu nad poziom szumu.

 

LP nie powoduje w jakiś sposób tłumienia światła obiektu (nie wiem fizycznie w jaki)?

Edytowane przez zbuffer
Odnośnik do komentarza
Udostępnij na innych stronach

Faktycznie. Nie zmienia się przecież tylko bezwzględny odstęp pomiędzy jasnością nieba i jasnością obiektu natomiast stosunek owszem.

Bo generalnie zdawałem sobie sprawę z tego że chodzi o kontrast a nie jasność tylko źle go chciałem liczyć.

 

No dobra...ale skoro LP byłoby stałym offsetem to po naświetleniu takiej samej klatki w mieście i pod ciemnym niebem fotografowany obiekt byłby bezwzględnie jaśniejszy w mieście. Natomiast po odjęciu stałej (w przybliżeniu) zdjęcie wyglądałoby identycznie... to po co w takim razie ciemne niebo? Wystarczy głęboka studnia?

 

Poza tym w takim razie LP byłoby wręcz bezcenne bo pięknie przesuwało by nam światło pochodzące od obiektu nad poziom szumu.

 

LP nie powoduje w jakiś sposób tłumienia światła obiektu (nie wiem fizycznie w jaki)?

 

Na pewno w jakimś stopniu powoduje, choć głownie bardziej miejski smog i zanieczyszczenia bo rozprasza i pochłania światło docierające z kosmosu. Samo LP na zdjęciach zabija kontrast i nie da się tak dobrze wyciągać słabych detali. Poza tym z własnego doświadczenia zauważyłem że przy sporym LP kolor gwiazd gdzieś znika i jest wszystko takie "wyprane".

 

Najlepiej to samemu sprawdzić, i porównać. Zrobić przy tym samym zestawie i parametrach ekspozycje pod ciemnym niebem, ustrzelić w miejskich warunkach ten sam obiekt i porównać stack samych klatek z LP i stack po odjęciu LP od każdej z klatek.

 

Oczywiście lepsze wyniki da focenie pod ciemnym niebem niż pod miejskim nawet ze skutecznie odjętym LP.

Odnośnik do komentarza
Udostępnij na innych stronach

Adamo, ale dłuższa ekspozycja nic Ci nie daje, bo jeżeli tło idzie do góry, to "odległość" tonalna sygnału (np. galaktyki, mgławicy) nie zwiększa się od tła, czyli wydłużając ekposycję nie zyskujesz nic, a tracisz sporo czasu i dynamiki (ryzyko przesaturowania - choćby gwiazd, czy jasnych partii).

 

Bardzo dobry przykład na to dał ostatnio kolega AstroNiki:

http://astropolis.pl/topic/38354-m101-z-samorobki/

Tylko 32-sekundowe ekspozycje, a detalu bardzo dużo jak na ten setup. Niestety ja nie wiedziałem o tym wcześniej i na siłę próbowałem ciągnąć klatki po 3,5 minuty (np. Sadr)- wyszło niby OK, ale musiałem bardzo ściągać LP. Zastanawiam się jak różniłby się efekt gdybym zamiast 30x210s zastosował 210x30s- porównywalny? Domyślam się że zależy to od progu LP, czyli momentu kiedy przy określonym czasie naświetlania na zdjęciu widać już LP.

Rozmawiałem o tym z AstroNiki i wysłał mi bardzo ciekawy artykuł o wpływie długości ekspozycji i ich ilości na efekt końcowy:

http://www.samirkharusi.net/sub-exposures.html

Przy następnej sesji zastosuję się do tych porad i będę strzelać z takimi czasami, żeby niebo na klatkach było szarawe, a nie prawie białe.

Pozdrawiam.

Odnośnik do komentarza
Udostępnij na innych stronach

Mógłbyś jakoś to rozwinąć? Jaki jest mechanizm powstawania tego szumu? Jaki jest rozkład w funkcji częstotliwości i powierzchni, bo jeśli fluktuacje są krótkie a rozkład po powierzchni jednorodny, to naświetlanie klatek po 300 i więcej sekund bez problemu uśredni ten szum.

 

Mechanizm jest taki że foton nie ogranicza nam tylko porcji informacji do 1 kwanta, jeśli przykładowo mamy 1000 zebranych fotonów w ciągu 1000 sekund nie oznacza to że co sekundę pada 1 foton, bo raz będziemy mieli 2 fotony w ciągu sekundy, a innym razem wcale. Fotony padają losowo jak byśmy rzucali monetą i powstaje szum, który narasta proporcjonalnie do liczby zebranych fotonów, im więcej ich zbierzemy tym większy mamy szum. Oczywiście ten szum narasta wolniej od sygnału, dlatego poprawia się stosunek sygnał szum. Przykładowo dla 4 zebranych fotonów mamy stosunek sygnał szum równy 2, natomiast dla 16 zebranych fotonów mamy stosunek sygnał szum 4.

 

Szum narasta wolniej od sygnału gdyż spotyka na zmianę nowy szum w tej samej fazie i wtedy się dodaje oraz nowy szum w przeciwnej fazie i wtedy się znosi, liczymy średnią tych dodań i zniesień.

 

Przykładowo na pikselu 1 mamy brak fotonu na pikselu 2 mamy 1 foton:

 

01

 

Jeśli sytuacja się 2x powtórzy to:

 

01

01

 

da nam:

 

02

 

jeśli będzie odwrotnie:

 

01

10

 

to otrzymamy:

 

11

 

czyli zniesienie szumu. Bowiem same jedynki oznaczają brak szumu.

 

Kamerka CCD nie potrafi zarejestrować pojedynczego fotonu gdyż nanosi własny szum odczytu wynoszący kilka elektronów, jednak ten szum odczytu ma na każdej klatce inny wzorek, a więc uśrednia się w taki sam sposób jak szum fotonowy.

 

Nie możemy tym samym odjąć darkiem szumu odczytu, a wręcz przeciwnie odejmując darka zwiększamy szum odczytu, w takim samym stopni jak podczas sumowania 2 klatek.

 

Sumując klatki powiększamy szum odczytu, jednak ten proces postępuje wolniej od przyrostu sygnału, dokładnie tak samo jak przy dodawaniu fotonów. Więc mamy poprawę jakości.

 

Czasem na kiepskich starych kamerkach podczas sumowania pojawia się bias czyli wzorek wędrówki ładunku po matrycy, można to zredukować chłodząc kamerkę, na nowoczesnych matrycach przeznaczonych do kamerek przemysłowych wyposażonych w stackowanie praktycznie nie występuje.

Edytowane przez astroccd
Odnośnik do komentarza
Udostępnij na innych stronach

No to ja mam w takim razie takie pytanie.

Rozważmy czysto teoretyczną sytuację że mamy już swój dopieszczony setup. Jedziemy w Bieszczady, 0 LP cykamy zdjęcie określonego obiektu. Mamy na przykład 1 klatkę 300s przy temp czipa -30C. Jeśli teraz pojedziemy do miasta i zrobimy zdjęcie tego samego obiektu ten sam kadr, ten sam czas i tak sama temperatura czipa otrzymamy teoretycznie ten samy sygnał + szum i syf z LP. Pytanie zatem, skoro matryca to "liczydło kwantowe" więc teoretycznie można by w prosty sposób chyba policzyć porównując oba zdjęcia ile do wartości wypełnienia każdego pixela wnosi LP i odjąć LP od każdej klatki tak samo jak flata i w znaczny sposób ograniczyć jego wpływ na jakość zdjęcia.

 

Nawet jeśli miał byś fotkę zawierającą różnice między zdjęciem z Bieszczad, a zdjęciem z miasta, pozwalającą poprawić to jedno zdjęcie, to ta fotka będzie użyteczna tylko do tego jednego zdjęcia. Na każdym innym nie będzie działać. Gwarantuję ci to. Nie odejmiesz LP, bowiem wzorek szumów na każdej klatce jest inny, gdybyś np.: sfotografował gwiazdy z LP, a następnie rozogniskował obraz, aby uzyskać zdjęcie samego LP bez gwiazd i teraz próbował odjąć to LP od fotki gwiazd to tylko pogorszysz sytuację, nie tylko nie odejmiesz szumu, ale wręcz zwiększysz jego wartość.

Edytowane przez astroccd
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.