Skocz do zawartości

astroccd

Społeczność Astropolis
  • Postów

    341
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez astroccd

  1. Angielskie słowo bind oznacza łączyć, stąd polski odpowiednik bindowanie, można łączyć papier lub elektrony. Bindowanie nie jest bezpośrednim tłumaczeniem angielskiego słowa bin, binning, które oznacza wyrzucać do kosza: http://pl.bab.la/koniugacja/angielski/bin widocznie Anglicy uważają że wyrzucają elektrony do kosza, a może wrzucają wszystko do jednego kosza.
  2. Ale my zakładamy że producent dopiero wtedy zdecyduje się na czterokrotne zwiększenie liczby pikseli gdy uda mu się zmniejszyć szumy odczytu 2 krotnie. Celowo odniosłem się do matrycy Powershota S100 gdzie szumy odczytu spadły do 1 elektrona mimo że norma dla współczesnych lustrzanek wynosi ok. 3 e. Oczywiście fizycznie można uśredniać raczej dodawać elektrony na matrycy, ale jakoś musiałem rozróżnić sytuację gdy przechodzimy na wyższe częstotliwości, oddalamy się od zdjęcia i mimo że obraz na naszej siatkówce się nie uśrednia bo nie ma sytuacji że 2 piksele zdjęcia padną na 1 piksel siatkówki to mimo to odczuwamy poprawę jakości w takim samym stopniu jak by do tego uśredniania doszło. Celowo napisałem skalujemy choć nie napisałem w jaki sposób prosty czy bardziej skomplikowany, aby odróżnić od bindowania pikseli które powoduje utratę kolorów my jednak nie tracimy kolorów bo bindujemy każdy plan RGB osobno nazywając tę czynność skalowanie zaawansowane. Najnowsza lustrzanka nikona D800 z 36 mln pikseli ukazała się też w wersji bez filtra AA, przy takiej ilości pikseli już jest nie potrzebny, powodował dodatkowe nieostrości i potrzebę wyostrzania obrazu powodującą wzrost szumów.
  3. Można się spodziewać że używane lustrzanki będą szybko tanieć, już teraz warto się rozglądać za tym co sobie można będzie kupić za 10 lat po cenie złomu, gdy sklepowe lustrzanki osiągną po 100 mln pikseli, taka lustrzanka 100 mln pikseli nie traciła by nic na sprawności, bowiem można by odzyskać pojemność piksela poprzez bindowanie pikseli z matryc o niskich szumach odczytu wykonanych w technologi CMOSa od np.: Powershota S100, który posiada szumy odczytu wynoszące 1 elektron i rozmiar piksela 1.8 um, QE 52%. Po zbindowaniu softwaerowym 3x3 szumy odczytu wzrosną do 3 e, a rozmiar piksela dojdzie do 5.4 um. Ktoś powie że matryce kolorowe się nie bindują bo utracą kolor, to nie prawda, np.: takie oglądanie obrazu w proporcjach 1:1 kojarzy mi się zawsze z zoomem cyfrowym 2x, bo np.: pokrycie czerwonym pikselem wynosi 25%, bindując 2x2 obraz który był zoomem cyfrowym 2x fizycznie nie uśredniamy elektronów, ale częstotliwości przechodzą na 2x wyższe więc nasze oko postrzega to tak samo jak byśmy dokonali fizycznego uśrednienia elektronów. Zresztą i tak mając np.: lustrzankę 20 mln pikseli zapewne oglądamy obraz przeskalowany do 50%, więc kupując taką z 80 mln pikseli będziemy skalować do 25% i fizyczne uśrednianie elektronów zajdzie.
  4. Na tej stronie jest podany wzór z jakiego to zostało policzone http://forums.dpreview.com/forums/read.asp?forum=1019&message=34526220 jest bardzo skomplikowany i popełniono pewnie wiele błędów, ja znam bardzo prostą metodę porównywania sprawności kamer, wystarczy porównać SNR jeśli jest np.: 2x lepszy to znaczy że kamerka zebrała 4x więcej fotonów, jeśli kamerka ma 4x większą powierzchnię piksela to znaczy że obydwie kamerki są identycznie sprawne kwantowo. To stara matryca od Nikona 50D, ICX413AQ, ma tylko 1000 mV przy integracji 1/30, pikselu 7.8 um i szumy odczytu 8-10e, w zasadzie jest to to samo co moja ICX262AQ tylko większa, 270mV przy 3.45 um i szumach odczytu 5e, jeśli sobie zbinduję piksel 2x2 to będę miał 6.9 um, 1080mV i szumach odczytu 10e, w mieście musiałem męczyć 4 godziny M97, M51 żeby coś wyszło, a to jedna z najjaśniejszych galaktyk, może na wsi dało by się odzyskać mniejszą sprawność poprzez wydłużanie czasu ekspozycji bo kamerka jest chłodzona, ale w mieście to niemożliwe. Współczesne matryce kolorowe mogą osiągać 2400 mV, przy pikselu 5 * 6.25 um i 1/50 s integracji co by dało 8000 mV gdyby przeliczyć piksel do 7.8 * 7.8 um i czas integracji 1/30s. Przyszłość astronomii to matryce od kamerek video tych zwykłych rozdzielczości Exview HAD CCD II, lub HD. Np.: Atik 428EX z matrycą ICX674ALG wykonaną w technologii Exview HAD CCD II z przeznaczeniem dla mniejszych kamer video full HD. Atik 460EX z matrycą ICX694ALG wykonaną w technologii Exview HAD CCD II z przeznaczeniem raczej nie dla lustrzanek, a większych kamer video full HD. Niestety matryce CCD do lustrzanek nie są już produkowane więc są bardzo archaiczne.
  5. 1100D ma taki sam SNR przy 1.5x mniejszej powierzchni piksela więc sprawność kwantowa musi być 1.5x większa, do tego mniejsze szumy odczytu więc będzie prawie 2x sprawniejszy. Korzystam z danych http://www.dxomark.com/index.php/Cameras/Camera-Sensor-Database/Canon/EOS-350D zakładka Measurments i Full SNR. Decibel calculator: http://www.daycounter.com/Calculators/Decibels-Calculator.phtml po wpisaniu decybeli poda nam stosunek sygnał szum w okienku "Voltage Gain", a w okienku "Power Gain" liczbę elektronów. Np.: SNR 30db oznacza 1000 elektronów, 40db - 10000 elektronów. Technologia zmniejszania szumów odczytu pozwala bindować piksele softwerowo i odzyskać stracony ładunek, może dla tego EOS 60D został wybrany na wersję astro, bo ma najmniejsze szumy odczytu 1.5 elektrona http://www.sensorgen.info/ przy bindowaniu softwaerowym 2x2 szumy odczytu rosną 2 krotnie, jeśli EOS 60D ma szumy odczytu 1.5 elektrona to przy bin 2x2 wzrosną one do 3 elektronów, a więc i tak będą bardzo małe, a piksel zwiększy rozmiar do 8.58 um pozwoli mu to zgromadzić 4x większy ładunek.
  6. Jeszcze takie porównanie, symulacja fotki prawidłowej góra i zdegradowanej przez light pollution dół: Nasze oko akceptuje tylko fotki ze stałym poziomem szumów, jeśli fotkę zdegraduje light pollution nie możemy włączyć krzywej gamma, musimy oglądać obraz liniowo, a to powoduje problem z przepalaniem się obiektu. Szumy odczytu w taki sam sposób degradują fotkę co light pollution, jeśli stackujemy wiele krótkich ekspozycji to właśnie tak nasze fotki będą wyglądać jak ta na dole.
  7. W ogóle nigdy nie odnoszę się do obiektu tylko do tła, o czym przekonał mnie symulator CCD, można na nim zobaczyć że galaktyka wygląda dobrze ma dostateczny stosunek sygnał szum, natomiast tło obok niej wygląda tragicznie, fotka staje się nie do zaakceptowania nie z powodu szumu galaktyki, ale z powodu szumów tła obok. Normalnie w świecie fotonowym wraz ze wzrostem ilości fotonów rośnie szum statystyczny, aby wyświetlić obraz na monitorze musimy nałożyć krzywą gamma, dzięki tej krzywej szum utrzymuje się na stałym poziomie nie zależnie od jasności obiektu, szum jest taki sam na obiekcie i na tle, zdjęcie na monitorze wygląda dobrze. Niestety Light Pollution powoduje odwrotna sytuację szum w świecie fotonowym jest zawsze taki sam nie zależnie od jasności obiektu co powoduje że gdy nałożymy krzywą gamma poziom szumu rośnie wraz ze spadkiem jasności obiektu i tło staje się nie do zaakceptowania. Specjalnie stworzyłem symulację na symulatorze CCD, wykreowałem nową kamerkę o szumach odczytu 0 i na całkowicie czarnym niebie zademonstruję galaktykę ze stałym szumem przy czasie 80 s: oraz taką w warunkach light pollution z szumem rosnącym wraz ze spadkiem jasności obiektu przy 800 s: To krzywa gamma wywala takie szumy tła, po jej wyłączeniu fotka staje się akceptowalna, ale obiekt zaczyna nam się przepalać, bo nie mamy jak skompensować dynamiki. Gamma nie jest zbyt dobra do kompensacji dynamiki fotek astro, przydał by się inny wynalazek.
  8. Zielony piksel sensora ICX262AQ o czułości 270 mV/11.9 um^2 zebrał 60056 elektronów od gwiazdy 7.47 mag przy obiektywie o średnicy 10 cm z filtrem IR/UV i czasie ekspozycji 17.5 sec, szumy odczytu wynosiły 5 elektronów. Dzielimy 60056 elektronów pochodzących od gwiazdy przez szumy odczytu wynoszące 5 elektronów, następnie dzielimy przez kolejne 5 bowiem gwiazda musi być 5 x jaśniejsza od szumu aby można ją było odróżnić od szumu, mamy 2402.24 przeliczamy na magnitudy 2.5 * log (2402.24) = 8.45 mag., dodajemy do jasności gwiazdy 7.47 mag., otrzymujemy 15.92 mag. To jest hipotetyczny zasięg tego sensora z tym obiektywem i czasem ekspozycji bez udziału light pollution, do pomiarów gwiazdy użyłem uśrednione 2 plany zielone matrycy bayerowskiej, takich planów mamy 4, dwa zielone, jeden czerwony i jeden niebieski. A więc użyte razem zwiększą jeszcze zasięg. Dodam że udział light pollution w mieście przy tym czasie ekspozycji wynosi 50% mamy mniej więcej po równo szumu odczytu i szumu light pollution. http://www.astrosurf.com/buil/watec120n/test.htm Jeśli rozpatrywać sprawę w sensie że zasięg ogranicza ci szum tła, czyli light pollution, to stosunek sygnał szum poprawia się o 3 db z każdym podwojeniem czasu ekspozycji, a więc żeby sfotografować gwiazdy o 1 mag. słabsze musisz użyć czasu 6,3 x dłuższego. Podczas stackowania stosunek sygnał szum poprawia się o 3 db z każdym podwojeniem liczby klatek. Więc żeby sfotografować gwiazdy o 1 mag. słabsze musisz zebrać 6 x więcej klatek. Wzrost zasięgu jest identyczny przy stackowaniu jak przy wydłużaniu czasu ekspozycji czyli 6 x 1 min = 1 x 6 min. Niestety w kamerkach mamy jeszcze jedno ograniczenie szumy odczytu, powstało dużo kalkulatorów CCD, aby obliczyć optymalny czas ekspozycji przy którym szumy odczytu będą stanowić mniejszy procent szumu całkowitego. Nie powinno się schodzić poniżej tego czasu, gdyż wtedy mamy spadek stosunku sygnał szum o 6 db na każde 2 krotne zmniejszenie czasu ekspozycji. Zasięg spada o 1 mag. przy 2,5 krotnym skróceniu czasu ekspozycji. A więc 6 x 1 sec nie będzie równe 1 x 6 sec. Przy długich czasach ekspozycji kiedy szumy odczytu mają niewielki wkład do szumu całkowitego 1 x 6 min będzie odpowiednikiem 6 x 1 min. Przy krótkich czasach ekspozycji kiedy szumy odczytu mają znaczny wkład 1 x 6 sec nie będzie odpowiednikiem 6 x 1 sec. Odpowiednikiem 1 x 6 sec będzie 36 x 1 sec, czyli liczba potrzebnych klatek to kwadrat różnicy czasów ekspozycji. 1 x 2 sec = 4 x 1 sec. 1 x 3 sec = 9 x 1 sec. 1 x 4 sec = 16 x 1 sec. 1 x 5 sec = 25 x 1 sec. 1 x 6 sec = 36 x 1 sec.
  9. Dopiero po tygodniu odkryłem że też zarejestrowałem to zjawisko, były tak gęste chmury że na materiale wideo nie było widać dosłownie niczego, miałem go skasować, ale przypomniałem sobie że teleskop był na prowadzeniu więc można by spróbować zestackować materiał i oto stał się cud widać Jowisza! Poniżej Jowisz zestackowany z 300 klatek oraz pojedyncza klatka.
  10. Nikogo nie namawiam do kupowania kamerek 8 bit, szczególnie za tę cenę, za podobną nabyłem 16 bitową. Ale warto przytoczyć kilka prawideł. Napiszę na temat ilości kolorów jaką można odzyskać z kamerki o danej liczbie bitów, otóż jeśli tylko szum jest równy lub większy od 1 to uważam że ilość kolorów jest nielimitowana, dopiero gdy szum jest grubo mniejszy od 1 lub równy 0 to kamerka posiada tyle kolorów na ile pozwala jej rozdzielczość bitowa np.: 8 bitowa kamerka będzie mieć 256 kolorów. Zrobiłem eksperyment, stworzyłem pusty 16 bitowy plik o rozmiarach 256x1024, wygenerowałem poziomy gradient o jasnościach od 1 do 256, dodałem szum o średnim poziomie 256, następnie przekonwertowałem plik do 8-miu bitów tak aby gradient zawierał się w zakresie od 0 do 1, a szum średni wynosił 1. Okazuje się bowiem że nawet z takiego pliku można z powrotem odzyskać kolory pośrednie w nie gorszym stopniu od pliku 16 bitowego. Poniżej przedstawiam próbę odzyskania kolorów z plików 16 i 8 bit jak widać nie ma żadnej różnicy wyglądają identycznie. Poniżej można pobrać nieobrabiany 8-mio bitowy plik z którego odzyskałem kolory pośrednie. http://www.balerinki.republika.pl/Gradient8bitdysk2.bmp Odzyskiwałem kolory poprzez skalowanie pliku o rozmiarach 256x1024 do rozmiaru 256x1 piksele zostały zbindowane w pionie więc szumy się uśredniły. Przed skalowaniem pliku 8 bit należy rozciągnąć histogram, bowiem gradient zawiera się pomiędzy 127 a 128. Okazuje się jeszcze że mimo iż plik zawiera średni szum równy 1 to całkowity rozrzut szumu w tak zwanych pikach rozciąga się z zakresie 10, być może z tego powodu nie została utracona żadna informacja w stosunku do pliku 16 bit. Kamerka 8 bit z analogową krzywą gamma 0.5 zawiera stały średni szum o poziomie 1, to właśnie ta krzywa gamma utrzymuje go na stałym niezmiennym poziomie niezależnie od jasności obiektu, oczywiście zakładamy że piksel ma pojemność 65536 elektronów, a szumy odczytu są równe 1. Większość kamerek nie spełnia tych warunków, piksel ma np.: pojemność np.: 16000 elektronów więc średni szum będzie większy równy 2, a w rozrzucie dojdzie pewnie do 20, nie ma strachu że coś stracę, ja osobiście nie mam strachu przed kamerkami 8 bit. Co najwyżej są niewygodne bo zamiast uśredniać podczas stackowania trzeba dodawać.
  11. Zaburzonych przez szum statystyczny, którego w odtwarzaczu CD nie ma, np.: przy fali o amplitudzie 65536 mamy szum równy 1. Stare komputery Amiga miały dźwięk 8-mio bitowy, jeśli te wartości podniesiemy do kwadratu to otrzymamy dzwięk 16 bitowy + szum statystyczny dokładnie taki sam jak w kamerce 16 bit. Ja znalazłem takie opracowanie http://www.jaroszewicz.com/lectures/F-20_IaD.pdf W przypadku interferencji mamy fale kocherentne czyli zdolne do interferencji, światło słońca, żarówki, czy świecy nie jest kocherentne. Kamera jest matematyczna dla fal niekoherentnych jeśli przykładowo mamy 2 fale o amplitudzie 10 to łącząc je używamy wzoru E1^2+E2^2 więc pojedyńcza fala będzie mieć jasność 100, a 2 fale razem dadzą 200. W przypadku fal kocherentnych takich z siatki dyfrakcyjnej używamy wzoru (E1+E2)^2 czyli otrzymamy (10+10)^2=400. Na rysunku poniżej widzimy nadprodukcję fotonów, porównanie jasności jednej szczeliny do dwóch szczelin. Sam krążek dyfrakcyjny jest koherentny co oznacza że kamerka nie jest dla niego matematyczna, krążek powstaje w bardzo prosty sposób na skutek różnicy faz pomiędzy centrum, a krawędziami obiektywu, gdy odchylimy wiązkę w bok o pewien kąt, powstają kolejne minima i maksima na skutek wzmacniania i wygaszania fal, niestety kamerka nie jest dla krążka matematyczna, dlatego nasze obliczenia amplitud wynikających z różnicy faz musimy podnieść do kwadratu żeby uzyskać identyczny obraz jaki widzielibyśmy w kamerce.
  12. Nie można porównywać muzycznego odtwarzacza kompaktowego 16 bit do kamerki astronomicznej 16 bit, odtwarzacz kompaktowy przechowuje zakres amplitud w stosunku 1:65536 co się przekłada na zakres mocy 1:4294967296, tymczasem kamerka astronomiczna przechowuje zakres mocy tylko 1:65536. Przyjęło się uważać że kamerki liniowo przetwarzają sygnał bo z podwojeniem czasu podwaja się ilość fotonów, tymczasem eksperyment z siatką dyfrakcyjną i próbą połączenia fali w tej samej fazie mógł by przynieść nieoczekiwane efekty do produkowania fotonów, jeśli jedno źródło światła emitowało by np.: 100 fotonów/sec i drugie też 100 fotonów/sec to po złożeniu otrzymalibyśmy 400 fotonów/sec. Co ciekawe rejestrując 400 fotonów poprawiamy stosunek sygnał szum 2x w stosunku do rejestracji 100 fotonów, co by było dowodem na to że 2 fale całkowicie się dodały. Kalkulacje stosunku sygnał szum są potwierdzeniem falowej natury światła, dlaczego podwojenie liczby fotonów poprawia nam stosunek sygnał szum o pierwiastek z 2 czyli 3db, dlatego że amplituda fali wzrosła o 3db. Uważam ponadto że jeśli jakiś obraz istnieje w przyrodzie pod postacią zmieniających się amplitud od 1 do 256 my ten obraz zarejestrujemy, a wartości podniesiemy do kwadratu by uzyskać zakres od 1 do 65536 to potem z powrotem możemy wyciągnąć pierwiastek z naszych wartości konwertując go do zakresu od 1 do 256 i nie utracimy tym samym żadnych informacji. Muzyczny odtwarzacz CD przechowuje zakres amplitud od 1 do 65536 natomiast astronomiczna kamerka 16 bit przechowuje kwadraty amplitud od 1 do 256 czyli niby również wartości od 1 do 65536, ale jest to sztuczny zakres, który powstał z amplitud od 1 do 256.
  13. Ale operujemy na krzywej gamma, wychodzimy z założenia że nasz monitor ma gamme 2 czyli podnosi do kwadratu wartości napięcia karty graficznej, takie są informacje na ten temat w internecie że jakoby lampa elektronowa w monitorach nie jest liniowa, ja natomiast uważam inaczej że lampa elektronowa jest super liniowa, bowiem stosuje się ją we wzmacniaczach muzycznych, gdzie liniowość jest bardzo ważna, natomiast przetwornik analogowo cyfrowy w naszej kamerce nie jest liniowy, to on ma gamme 2 czyli podnosi do kwadratu wartości odczytanych elektronów, musi tak robić żeby kamerka była matematyczna, wprost proporcjonalna do czasu i mocy promieniowania, bowiem natura falowa światła również dźwięku powoduje zjawisko dodawania się fal w przypadkowych fazach, w światku audiofilskim przyjęło się uważać że podwojenie liczby głośników daje przyrost głośności o 3db, a nie 6, dodam że 6db odpowiada 2 krotnemu zwiększeniu amplitudy drgań. Natomiast siła niszcząca np.: słuchu jest wprost proporcjonalna do liczby głośników i czasu, jest to parametr mocy promieniowania, który jest matematyczny, w świadku audiofilskim uważa się że jeśli wartość napięcia na wzmacniaczu muzycznym podwoiła się to nasz wzmacniacz posiada 4x więcej mocy, jeśli chcemy przeliczyć amplitudę na moc to musimy ją podnieść do kwadratu. Nie możemy się posługiwać parametrem amplitudy bo jest nie matematyczny, tylko parametr mocy jest matematyczny, jeśli chcemy policzyć całkowitą moc zestawu nagłaśniającego to musimy amplitudę drgań przeliczyć na moc. Jeśli posiadamy 16 bitową kamerkę, która ma zakres dynamiki 1:65536 to tak na prawdę jest ona w stanie rejestrować amplitudy z zakresu od 1 do 256, to przetwornik analogowo-cyfrowy kamerki podnosi do kwadratu wartości amplitudy, po to aby kamerka była matematyczna wprost proporcjonalna do czasu i mocy promieniowania, my w pamięci komputera przechowujemy dane w postaci 16 bit, ale na monitor wysyłamy po nałożeniu krzywej gamma 0.5 czyli pierwiastka kwadratowego z naszych wartości. Skoro wyciągamy pierwiastek kwadratowy z naszych wartości i z liczby 65536 robi się 256 to spokojnie możemy zredukować liczbę bitów do 8. Wszystkie pliki JPG posiadają 24 bity koloru po 8 na każdy kanał plus krzywa gamma dzięki której upakowujemy 16 bit na kanał. Jednak w tym przypadku 16 bit nie oznacza że mamy 65536 odcieni na kanał, ale oznacza że mamy stosunek jasności jak 1 do 65536 bo odcieni nadal mamy 256 tylko są one trochę inaczej rozłożone, aby równomiernie pokryły zakres jasności 1:65536. Sam szum fotonowy jest moim zdaniem wynikiem podniesienia do kwadratu wartości odczytanych przez przetwornik analogowo-cyfrowy, normalnie we wzmacniaczu muzycznym coś takiego nie występuje jeśli amplituda fali wynosiła 1 i szum wynosił 1 to gdy amplituda fali wzrośnie do 256 to szum dalej wynosi 1, jeśli natomiast zaczniemy się bawić w podnoszenie do kwadratu odczytanych wartości to z naszych 256 amplitudy fali zrobi się 65536, a z naszego szumu wynoszącego 1 zrobi się 256. Ale ta wartość szumu 256 nie zawiera żadnych informacji spokojnie możemy ją zredukować do 1 bowiem ona pierwotnie była jedynką tylko została sztucznie zwiększona do 256 na skutek podniesienia do kwadratu przez przetwornik analogowo-cyfrowy kamerki.
  14. 8-mio bitowa kamerka dzięki analogowej krzywej gamma mieści dynamikę 16-bit, ale jest nie matematyczna, nie odejmiesz darka, nie zastosujesz flata, a nawet korekcja balansu balans bieli nie będzie do końca prawidłowa. Nie wspominając o fotometrii. Czyli same kłopoty. Chcesz mieć komfort, kup 16 bitowego Atika będziesz miał liniowy przebieg, możesz sobie odejmować darki, flaty i co tylko zechcesz. Właśnie dokopałem się do spisu parametrów kamerki DFK http://www.theimagingsource.com/downloads/camparawp.en_US.pdf jest tam parametr gamma tylko nie wiadomo jaki cyfrowy czy analogowy. Jeśli jest analogowy dało by się kamerkę wykorzystać w astronomii do DSów, efekt nie dostatecznej ilości półtonów nie powinien występować.
  15. W mojej kamerce przemysłowej Samsunga mam bardzo dużą rozbieżność między podawanymi przez producenta poziomami gainu, a tym co faktycznie obserwuję, producent podaje że różnica między high gain, a low gain to tylko 6db, tymczasem na high gain mam takie wzmocnienie że obserwuję na zmianę białe i czarne kropki jak by ktoś wyciągnął antenę z odbiornika TV, prawdopodobnie producent podaje tylko gain analogowy, a kamerka ma jeszcze cyfrowy, który się nie liczy bo ten analogowy coś wnosi, a cyfrowy to tylko sztuczne rozciągnięcie histogramu. Być może inne parametry obrazu jak gamma też są realizowane w sposób analogowy. Np.: moja kamerka internetowa ma 8 bit na każdy kanał RGB, a krzywa gamma jest realizowana w sposób analogowy. Przechowywanie obrazu na 16-tu bitach w sposób liniowy to duże marnotrawstwo, zaczynając od pojedynczego elektronu któremu przypiszemy 1 ADU, a kończąc na 65536 elektronach dla których szum wzrośnie do 256 elektronów, mamy duże marnowanie miejsca przechowywać tak duży poziom szumu, spokojnie możemy nałożyć krzywą gamma 0.5, podnosząc do potęgi 0.5, czyli wyciągamy pierwiastek kwadratowy, wtedy z naszych 65536 elektronów zrobi się 256, a szum będzie się utrzymywał na stałym poziomie 1. A więc można w 8-miu bitach upakować 16 bit. Jeśli producent chwali się że jego kamerka internetowa ma 24 bitowy kolor to oznacza to że ma po 8 bitów na każdy kanał RGB, ale te 8 bitów to po nałożeniu analogowej krzywej gamma bo w rzeczywistości pomieści aż 16 bit na kanał. Gdyby producent nakładał cyfrową krzywą gamma na obraz 8 bit to w rzeczywistości uzyskał by dość słabą rozpiętość do 4 bit dla najciemniejszych fragmentów zdjęcia i nie mógł by się chwalić że ma kamerkę 24 bit tylko coś około 12 bit czyli po 16 odcieni na każdą składową RGB, oczywiście tych odcieni by było więcej, nawet 256, ale były by nieprawidłowo rozłożone, wszystkie odcienie przypadały by dla najjaśniejszych obszarów i zupełny brak odcieni dla ciemnych rejonów, pamiętajmy o tym że monitor komputera nie ma liniowej charakterystyki tylko gamme 2, podnosi do potęgi 2 poziomy napięcia z karty graficznej. To sztuczka dzięki której można uzyskać zakres dynamiki 1:65536 z urządzeń dysponujących 256-cioma odcieniami jasności. Dziwię się że jakiś producent mógł by zrobić kamerkę RAW pracującą w 8-miu bitach bez analogowej krzywej gamma, taka kamerka nie nadawała by się nie tylko do astro, ale też do użytku naziemnego, pamiętam obraz z komputerów Amiga 500, który był obcięty do 16 odcieni na kanał, że trzeba było nakładać dithering, aby sztucznie dorobić brakujące odcienie, ten dithering wyglądał jak szum, dlatego dość marnie wyglądały prace graficzne z tamtych lat, były zaszumione jak fotki astro. Poniżej fotki przedstawiająca różnice między analogową, a cyfrową gamma, zostały rozjaśnione 4x dla lepszego uwidocznienia efektu.
  16. Przecież Atik 314E i DFK 41AU02 mają identyczną matrycę ICX205. Poza tym wszystkie kompakty w których przetworniki miały 8 bit w trybie RAW, miały nałożoną krzywą gamma analogowo i dopiero potem obraz był digitalizowany, bo normalnie jeśli masz kamerkę 16 bit to najpierw digitalizujesz, a dopiero potem nakładasz krzywą gamma cyfrowo, po nałożeniu krzywej gamma spokojnie możesz skonwertować obraz do 8 bit nie będzie strat. Musisz sprawdzić czy te kamerki DFK nie mają analogowej regulacji Gamma, prawie na pewno musi taka być, bowiem jeszcze nie spotkałem takiego cuda żeby było 8 bit w trybie RAW bez możliwości analogowej regulacji Gamma.
  17. Moim zdaniem kiepska konstrukcja powoduje kłopoty, po naprawie dalej będzie wineta tylko mniejsza, sam zdecyduj czy opłaca ci się naprawiać tylko po to żeby poprawić, a nie naprawić.
  18. Tak. Jeśli piszesz że można lustro wcisnąć palcem to prawdopodobnie do naprawy, chyba że to norma dla tego modelu. Czy na pewno nie wciskasz ponad normę tego co zaprojektował producent?
  19. Włącz czas B i zajrzyj do środka, może coś wystaje, a może taka ciasna konstrukcja że tylko obiektywy krótkoogniskowe sobie poradzą, a jeśli chcesz mieć długoogniskowy to nie może mieć zbyt dużej światłosiły. Reflektor ma zasłonięty środek i dodatkowo potęguje to zjawisko, bowiem światło pada tylko pod kątem.
  20. Zakryj teleskop, włącz czas B, odkryj, zakryj i na końcu wyłącz czas B. Lepiej będzie widać czyja to wina.
  21. Pomyślałem że przydało by się napisać symulator CCD żeby można było zobaczyć co będzie widać w konkretnych warunkach, sprawdziłem najpierw czy przypadkiem ktoś już takiego programu nie napisał i faktycznie jest taki program: http://www.darklights.org/simccd/manual.pdf'>http://www.darklights.org/simccd/manual.pdf można np.: zobaczyć jak wygląda galaktyka dla jednej 300 sekundowej ekspozycji przy niebie 17 mag/sek^2 oraz jednej 300 sekundowej ekspozycji przy 22 mag/sek^2. 60 60 sekundowych ekspozycji przy 22mag/sek^2 oraz 1 3600 sekundowej przy 22mag/sek. http://www.darklights.org/simccd/
  22. To są prawdopodobnie filtry Kodak Wratten: http://sweiller.free.fr/spectro/filters/Wratten/ http://www.edmundoptics.com/images/catalog/1326_Kodak_Wratten_Color_Filters_Wavelength_Graph.gif http://www.karmalimbo.com/aro/pics/filters/transmision%20of%20wratten%20filters.pdf Bardzo słabe pod względem transmisji, gorsze od tych co siedzą na matrycy kolorowej kamerki, a te z kolei gorsze od tych do astrofotografii z prostokątnymi charakterystykami. Do fotografii RGB musiał byś zamienić 80A na 47 i założyć IR blocker. Zastanawia mnie 2,8% transmisji filtra nr. 47, być może to średni pomiar w jakimś zielonym świetle jakie powstaje z założenia niebieskiego filtra IR na żółte światło 3200K bo dla 440nm podano 50,3%.
  23. http://sky-map.org/ Zdjęcia z DSS2 Palomar Digitized Sky Survey II można oceniać nie tylko pod względem wielkości ale i jasności.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.