Skocz do zawartości

Super-Resolution a astrofotografia


Krawat

Rekomendowane odpowiedzi

Cześć.

 

Czy spotkaliście się kiedyś z terminem Super-Resolution (Super-Rozdzielczość)? Koncepcja jest trochę podobna do znanego nam stackowania, tyle że tutaj łączenie obrazów nie redukuje szumu, a zwiększa rozdzielczość zestawu.

 

Piszę, bo jeden z moich znajomych z kierunku pisze pracę inżynierską na ten temat- tam akurat chodzi o systemy termowizyjne, ale można to na pewno zastosować do matryc używanych w astrofotografii, np. w guidingu. Nie znam wszystkich szczegółów pracy kolegi (jest ona jeszcze w trakcie powstawania), ale wiem, że stosowany jest np. subpixeling- wydaje mi się że niektóre programy do guidingu też go wykorzystują. Nie jestem też specem od astrofotografii, więc nie wiem na ile poprawa rozdzielczości guidera przekłada się na dokładność prowadzenia (silniki montaży mają też swoje ograniczenia). No i jest jeszcze kwestia czasu przetwarzania tych obrazów.

 

Piszę jednak o tym, bo... widziałem efekty działania algorytmu kolegi w porównaniu z funkcjami udostępnianymi przez MATLABa i byłem pod dużym wrażeniem. Gdyby okazało się, że można to zastosować w "naszej" dziedzinie (guiding), byłoby super. A jeśli już jest to stosowane, przynajmniej nikt nie będzie próbował wynaleźć Ameryki na nowo. :)

 

Przykładowy obraz wejściowy:

ref_lowRes.jpg

Zoom na obraz po interpolacji w MATLABie:

zoom1.PNG

Zoom na obraz po interpolacji przy zastosowaniu omawianych metod:

zoom2.PNG

 

Gdyby dyskusja się rozwinęła, to myślę że kolega włączy się do dyskusji i odpowie na pytania.

 

 

Radek

 

Odnośnik do komentarza
Udostępnij na innych stronach

Jak dla mnie drizzle wymyślono do HST aby robiąc zdjęcia z gwiazdą ustawiona za każdym razem w innym rogu pixela wydobyć utraconą dużym pixelem rozdzielczość, co nam jednak po nim i innych mykach skoro większość zdjęć astro dużej rozdzielczości omiata detalem po 4 pixele? Miało by to sens przy doskonałym seeingu lub zdjęciach z detalem poniżej rozdzielczości kamery :uhm:

Odnośnik do komentarza
Udostępnij na innych stronach

Co do tego stackowania z metodą drizzle, robiłem raz przy fotografowaniu gwiazdy Barnarda. Teoretycznie, trzy razy lepsza rozdzielczość powinna ukazać trzykrotnie większy ruch własny (fociłem z 300mm x 3). To, czy jakieś są z tego możliwości, okaże się latem 2016. Ogólnie gwiazdki są większe i bardziej plackowate, więc jeśli dałoby się jakoś sensownie je pomniejszyć, to byłoby ciekawie.

Odnośnik do komentarza
Udostępnij na innych stronach

LibMar, jest tak, jak napisał HAMAL powyżej. Jeśli masz dobre prowadzenie i seeing nie niszczy ci skali, to drizzle może pomóc. Jak seeing wpływa na detal, to drizzle wiele więcej nie koniecznie pokaże. No chyba, że zajdziesz do czasów rzędu 0.01 sekundy, wtedy pewnie zadziała.

A w kwestii Super-resolution, to raczej łatwiej i szybciej wyliczyć środek ciężkości gwiazdy, co też da wynik w subpikselach i chyba wszystkie programy to oferują.

Odnośnik do komentarza
Udostępnij na innych stronach

A w kwestii Super-resolution, to raczej łatwiej i szybciej wyliczyć środek ciężkości gwiazdy, co też da wynik w subpikselach i chyba wszystkie programy to oferują.

Tylko jeśli masz na myśli programy guidujące czy stackujące to co nam z trzymania prowadzenia z dokładnością do ćwiartki pixela skoro seeing i ziarnistość dają dokładność ogólną 2-4 pixele. Choć nie powiem, że sam ostatnio pisałem że robiąc M27 1"/pixel , ale OSC nie mono, zszedłem poniżej rozdzielczości co objawia się głupimi kolorami gwiazdek na każdej kolejnej klatce i wtedy tu lub u innych w mniejszej skali taki myki jak w pierwszym poście mają zastosowanie.

 

Jednak ja bym chciał zobaczyć prawdziwy przykład a nie powiększony zdegradowany jpg jako "patrzcie jaka lipa" i powiększony bmp "patrzcie jak super"

Odnośnik do komentarza
Udostępnij na innych stronach

Jednak ja bym chciał zobaczyć prawdziwy przykład a nie powiększony zdegradowany jpg jako "patrzcie jaka lipa" i powiększony bmp "patrzcie jak super"

 

To co wrzuciłem w pierwszym poście to jest prawdziwy przykład. Nie do końca rozumiem dlaczego piszesz że to powiększone jpg i bmp.

Odnośnik do komentarza
Udostępnij na innych stronach

Ano, przykład z zebrą dobrany niefortunnie. Te "fale" wokół głowy to ringing po dyskretnej transformacji cosinusowej będącej jednym z etapów kompresji JPG. A obszary niedotknięte tym efektem, np. pasy na tułowiu, wykazują zbliżony poziom szczegółowości na obu obrazkach.

Edytowane przez WielkiAtraktor
  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

My pracujemy na formatach bezstratnych, może gdzieś po drodze wdał Ci się jpg a kolega surowo dał obrazki innej jakości? Chyba że On opracowuje formaty stratne i ja czegoś nie zrozumiałem, tylko jaki sens robić algorytmy wydobywające rozdzielczość a prezentować je z artefaktami. :uhm: jeśli czegoś nie łapie lub pokręciłem niech ktoś mnie wyprowadzi z błędu.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Żeby algorytm super-resolution miał prawo działać, musi on wprowadzać jakąś wiedzę a-priori. "Zwykła" interpolacja tego nie robi. Dlatego algorytmy super-resolution mają sens wtedy, kiedy jesteśmy w stanie w pewnym sensie "nauczyć ich", co siedzi w danym obrazie jeśli go powiększymy. Jest to możliwe wtedy, jeśli obraz o którym mowa ma jakąś "wewnętrzną strukturę", która jest (w jakimś sensie) deterministyczna. W ogólności ładnie to brzmi, ale w praktyce dość trudno to wykonać, zwłaszcza że ta "wewnętrzna struktura" mocno zależy od tego, co jest na zdjęciu. Z tego powodu algorytmy super-resolution w niektórych zastosowaniach (np. twarze) mogą sprawować się lepiej niż w innych.

 

Podejrzewam, że w zagadnieniach związanych z guidingiem użyteczność tego typu rozwiązań może zależeć od tego, czy obraz który analizujemy ograniczony jest przez dyfrakcję (+wady optyczne), czy przez seeing. Jeśli ograniczeniem jest dyfrakcja (w połączeniu z wadami optycznymi układu), to być może da się tu coś "ugrać". Jeśli jednak mówimy o obrazie ograniczonym przez seeing, to sprawa jest raczej przegrana, bo seeing powoduje "przesuwanie" obrazu, a tego super-resolution nie skoryguje.

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

Moim zdaniem w pierwszym przypadku sama interpolacja wprowadziła takie artefakty, a nie późniejsza kompresja obrazka.

Dokładnie- wszystkie obrazy są w png. Przy interpolacji też mogą powstawać różne artefakty. Nic nie było kompresowane do JPGa...

nie bądźmy arystotelesami, najpierw sprawdźmy fakty:

artefakty.png

na obrazku przedstawionym jako źródłowy (zresztą w formacie jpg) widać te same artefakty co na wyniku zoom1.png, w dodatku szerokość zakłóconego obszaru to 24 piksele - wielokrotność bloku 8x8

 

ale zupełnie nie o to chodzi

 

A obszary niedotknięte tym efektem, np. pasy na tułowiu, wykazują zbliżony poziom szczegółowości na obu obrazkach.

oczywiście - NIE

szczegoly.png

po lewej powiększone piksele obrazu źródłowego - widać że "obiekt" jest w paski, ale jak właściwie te paski przebiegają? każda z tych możliwości jest prawdopodobna, obraz ma za małą rozdzielczość żeby to rozstrzygnąć, normalny algorytm interpolacji nie wymyśli przebiegu pasków, bo tylko w jakiśtam sposób uśrednia kolory między pikselami.

 

natomiast jak widać na ostatnim obrazku, algorytm super resolution odtworzył to czego nie było widać

 

 

Podejrzewam, że w zagadnieniach związanych z guidingiem użyteczność tego typu rozwiązań może zależeć od tego, czy obraz który analizujemy ograniczony jest przez dyfrakcję (+wady optyczne), czy przez seeing. Jeśli ograniczeniem jest dyfrakcja (w połączeniu z wadami optycznymi układu), to być może da się tu coś "ugrać". Jeśli jednak mówimy o obrazie ograniczonym przez seeing, to sprawa jest raczej przegrana, bo seeing powoduje "przesuwanie" obrazu, a tego super-resolution nie skoryguje.

guiding to w ogóle bardzo wyjątkowa sytuacja bo z góry wiemy co ma być na obrazie - po prostu gwiazdy. mając tę wstępną wiedzę, najlepszym algorytmem super resolution na potrzeby guidingu jest przeanalizowanie obrazu wejściowego, wyznaczenie z niego jak najdokładniej współrzędnych gwiazd i ich narysowanie w odpowiednich miejscach obrazu wynikowego - i ten ostatni krok jest oczywiście bez sensu bo skoro już mamy współrzędne to obraz przestaje być potrzebny (zeby z niego znowu wyznaczać współrzędne?)

 

co innego poprawianie zdjęć za pomocą super resolution.

 

tutaj fajne przykłady działania takich algorytmów:

http://www.wisdom.weizmann.ac.il/~vision/SingleImageSR.html

  • Lubię 4
Odnośnik do komentarza
Udostępnij na innych stronach

tutaj fajne przykłady działania takich algorytmów:

http://www.wisdom.weizmann.ac.il/~vision/SingleImageSR.html

 

Świetny link.

 

 

Ale ja nadal twierdze, że obraz pokazany jako efekt działania algorytmu nie powstał z prezentowanego obrazu wyjściowego, powstała z niego jedynie zwyczajnie powiększona wersja. Obraz wyjściowy jest zbyt zniszczony przez zjotpegowanie aby w tak cudowny sposób odzyskać aż taki detal.

Nie mam natomiast żadnych zastrzeżeń do prezentacji w linku, bo tam żadne niewyjaśnione cuda przy powiększaniu jednocześnie naprawiające artefakty się nie dzieją.

Odnośnik do komentarza
Udostępnij na innych stronach

Tylko jeśli masz na myśli programy guidujące czy stackujące to co nam z trzymania prowadzenia z dokładnością do ćwiartki pixela skoro seeing i ziarnistość dają dokładność ogólną 2-4 pixele.

 

Dlatego odniosłem się przy tym do skali zdjęcia. Przy takiej, jak na twoich zdjęciach to faktycznie ten algorytm na wiele się nie zda, ale ja, mając z 350D skalę ponad 3"/pix już teoretycznie jestem "ponad" seeingiem. Wtedy przy odpowiedniej liczbie zdjęć powinieneś uzyskać lepszą rozdzielczość przy zastosowaniu drizzle lub jakiegoś innego algorytmu zwiększającego rozdzielczość. Aczkolwiek też jest to wiedza czysto teoretyczna, w praktyce nie mam montażu, który by zagwarantował mi, że uprowadzi klatki z wystarczającą dokładnością.

Odnośnik do komentarza
Udostępnij na innych stronach

tutaj fajne przykłady działania takich algorytmów:

http://www.wisdom.weizmann.ac.il/~vision/SingleImageSR.html

Piękne czyste jak łza "twarde" pixele, na których dokonano różnych operacji, to rozumiem.

 

Który obrazek wyjściowy bierzemy i bawimy się kto lepiej czym się da go wyciągnie? ^_^

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.