Skocz do zawartości

Księżycowe zakamarki.


lemarc

Rekomendowane odpowiedzi

Jeśli chodzi o kwestię interpolacji itp, to jest jeszcze jedna rzecz. Zasadniczo nagrywając kolor możemy wybrać, czy robić interpolację (debayeryzację) na etapie rejestracji, czy później. Debayeryzacja to z punktu widzenia np czerwonych pikseli nic innego, jak interpolacja dla sąsiednich pozycji, czyli drizzle 2x. Gdyby tak pominąć debayeryzację i wyeksportować 2x mniejszy obrazek (zawierający tyle pikseli, ile jest fizycznie tych czerwonych), to otrzymalibyśmy "czysty" obraz. Rozdzielczość byłaby mniejsza, ale żadne blurujące interpolacje by nie zaszły. Taką operacje ma np Maxim, może inny soft też. Pozostaje pytanie, czy to coś daje, bo rozdzielczość nam spadnie, (w sensie wielkość tarczy, a nie nawet szczegół), a nam na niej zależy (czasem dodatkowo stosujemy drizzle). Ale warto mieć po prostu na uwadze, że debayeryzacja to takie jakby drizzle 2x, które się wykonuje już na wstępie.

 

Generalnie, może by wydzielić tą dyskusje do "dyskusji o astrofotografii"? :)

 

Trochę nie rozumiem ;) Jeśli bierzesz z matrycy tylko czerwone piksele, to rozdzielczość nam spadnie, ale wielkość obrazka pozostanie taka sama, bo liczy się nie wielkość piksela a rozstaw pikseli na matrycy (odległość pomiędzy środkami pikseli). Operowanie "wielkością piksela" nic nam nie mówi.

Mówimy o takiej matrycy tak?

107_ccd.jpg

Czy kompletnie o co innego chodzi? :D

 

EDIT

Obrazki poprawione :)

Edytowane przez JSC
Odnośnik do komentarza
Udostępnij na innych stronach

Trochę nie rozumiem ;) Jeśli bierzesz z matrycy tylko czerwone piksele, to rozdzielczość nam spadnie, ale wielkość obrazka pozostanie taka sama, bo liczy się nie wielkość piksela a rozstaw pikseli na matrycy (odległość pomiędzy środkami pikseli). Operowanie "wielkością piksela" nic nam nie mówi.

Mówimy o takiej matrycy tak?

Czy kompletnie o co innego chodzi? :D

Gdybyśmy tylko wycięli zielone i niebieskie piksele i pozostawili po nich "dziury" to tak, wielkość obrazka zostanie, tylko jedynie co drugi piksel (czyli czerwony) będzie "aktywny". Ale w praktyce taki obraz nie ma sensu i albo można te piksele "zsunąć", aby czerwony był koło kolejnego czerwonego i obrazek się zmniejszy 2x, albo zinterpolować wartości tych dziur i pozostawić obrazek w oryginalnym rozmiarze. Drugi przypadek to ten klasyczny, który zachodzi w normalnej debayeryzacji, a pierwszy to coś, co możemy alternatywnie zrobić, żeby mieć szczegóły 1:1 z tym, co się zarejestrowało (żadnych interpolacji).

 

A obrazków z optycznych tu nie dawaj jako linki, bo nie działają, tylko je po prostu pobierz i wstaw jako załącznik - wtedy jest pewność, że zadziała zawsze i nigdy nie zniknie.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Aaaa... czekaj - ty myslisz o rozdzielczości obrazka (liczbie jego pikseli) a ja o rozdzielczości matrycy w sensie zdolności do rejestracji szczegółów (wielkości oczek siatki elementów swiatłoczułych).

Czyli innymi słowy: wywalając zielone i niebieskie piksele stracisz możliwość rejestracji drobniejszych szczegółów i -zgadza się- obrazek będzie miał wynikowo mniejszą liczbe pikseli (zakładając, że normalnie klaster RGB nie jest przy zapisie zsumowywany w jeden piksel)

 

Trochę przez analogię do obrazka poniżej - załóżmy, że te mikrosoczewki i fotodiody mają na lewym i prawym obrazku taką samą średnice. Czy rozdzielczość (zdolność do rejestracji szczegółów) będzie taka sama jeśli te elementy porozdzielamy szczelinami?

ML-001.jpeg

 

PS

Tam chyba żadnych dziur nie będzie bo to sa mikrosoczewki obejmujące pewien obszar większy od srednicy soczewki, chociaz moze i nie...? Nie znam sie - pytam ;)

Edytowane przez JSC
Odnośnik do komentarza
Udostępnij na innych stronach

Nie krzywiłem się, bo na wszystko jest sposób - oddalenie się od monitora zmniejsza rozmycie i przy dłuższym patrzeniu oko traktuje obraz jako "naturalny". Zrozumiałe, że skala niesie za sobą pewne konsekwencje, ale wolę to niż przeostrzanie obrazu tak, że na wielu zdjęciach włókniste struktury wyglądają jak żyły na rękach koksiarza. Posidonius i para: Cyrillus i Theophilus - "na miękko", ale, jak sam zaznaczyłeś, intrygująco.

 

  • Lubię 4
Odnośnik do komentarza
Udostępnij na innych stronach

Mam dwa dziwne zdjęcia, najwyżej się skrzywicie :) takie jak je podaję wyglądają jakoś intrygująco, ale rozjaśnianie ich i wyostrzanie obnaża ich słabość detalu.

 

 

Jak przyciemnisz monitor - ja mam zawsze przyciemniony - to wygląda całkiem ostro.

Odnośnik do komentarza
Udostępnij na innych stronach

Mam dwa dziwne zdjęcia, najwyżej się skrzywicie :) takie jak je podaję wyglądają jakoś intrygująco, ale rozjaśnianie ich i wyostrzanie obnaża ich słabość detalu.

 

Za mało wypełniłeś histogram w trakcie zbierania materiału. Przez to ciężko z kontrastem i detalem. Skala robi wrażenie. Jak zadbasz o rozpiętość histogramu to efekt będzie na pewno lepszy.

Odnośnik do komentarza
Udostępnij na innych stronach

Eksperymentujesz na wszelkie możliwe sposoby by seeing jakoś obejść :) Każdy pomysł jest wart sprawdzenia i potwierdzenia/zaprzeczenia. Punkt odniesienia w postaci "typowego" ujęcia tematu mógłby się przydać, tylko nie ma niestety żadnej pewności, że seeing się nie zmieni między kolejnymi rejestracjami. A jak skubany potrafi się zmieniać to wszyscy niestety wiemy..

Odnośnik do komentarza
Udostępnij na innych stronach

Posiudonius.

Hamal i Ty zaraz. :)

780 pixeli 95 km to wychodzi 780/95 = 8 pixeli na kilometr czyli 125 metrów na piksel :o


arcustangens ( (1/8) / 360000 ) => 0.07 sekundy na piksel?
to przepowerowane chyba ... (barierą jest i seeing i dyfrakcja fali na krawedzi tubusa - czyli zdolność rodzielcza telekopu - bo raczej nie masz 2 metry apertury)

 

 

Pozdrawiam

ps.jpg

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Zgadza się Lemarc, tylko Wy robicie tyle pięknych zdjęć w tej skali, że dublowanie się nie ma sensu, liczę, że jakimś cudem kiedyś trafię przeskalowaną fotkę życia. Ponadto oglądanie Księżyca kamerką w tej skali na monitorze to dodatkowa frajda :)

Odnośnik do komentarza
Udostępnij na innych stronach

Czy rozdzielczość (zdolność do rejestracji szczegółów) będzie taka sama jeśli te elementy porozdzielamy szczelinami?

No to jest bardzo dobre pytanie. Wydaje mi się, że ilość drobnych szczegółów spadnie. Tzn zarejestrują się te szczegóły, które mają co najmniej 2 pix wielkości, a te 1 pix zarejestrują się tylko wtedy, gdy trafią na "aktywny" piksel. Tak więc tych drobnych szczegółów będzie 4x mniej. Ale tego nie da się tak analizować, bo szczegół zawsze jest nieco rozmyty i takich ostrych na 1 pix raczej nie uświadczymy.

Zasadniczą kwestią jest to, że rozmiar piksela pozostaje wciąż taki sam, czyli może wyłapać tak samo mały szczegół, jak pierwotnie. Tylko mniej jest tych pikseli. Obraz będzie niejako dziurawy z punktu widzenia szczegółów.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.