Skocz do zawartości

Stakowanie zdjęć a wiarygodność...


McArti

Rekomendowane odpowiedzi

registax jest taki wspaniały dzięki swoim algorytmom układania zdjęć jednego na drugim, tak, żeby do siebie pasowały... ma tam jakieś swoje dziwaczne metody - zresztą nawet po części widać jakie - bo przy stackowaniu jest widoczne okienko "FFT" - szybkia transformata fouriera... domyślam się więc, że programik sobie rozmazuje zdjęcie tak, żeby szum nie wpływał na dokładność układania zdjęć i metodami prób i błędów znajduje odpowiednie przesunięcie x i y klatki tak by pasowała do jakiejś klatki porównawczej, a to czy klatki po przesunięciu się pokrywają łatwo przecież sprawdzić licząc różnicę pomiędzy poszczególnymi pikeslami, im ta różnica jest mniejsza oraz jeśli makroskopowe szczegóły się pokrywają (jak np. kontur) tym lepiej klatki są ustawione...

 

po ustawieniu wystarczy poszczególne wartości pikseli dodać i podzielić przez ilość klatek - mamy średną...

 

a na koniec tylko wyostrzenie waveletem, a co to jest i czym różni się od unsharp mask, to za bardzo nie wiem, wiem tylko, że to działa i, że coś co się również nazywa wavelet jest wykorzystywane w programach OpenGL do bezstratnej kompresji tekstur (mipmap), kompresja ta pozwala np. na zdekodowanie tylko jakby pomniejszonej wersji tekstury - tak, żeby komputer zbytnio się nie pocił nad wstawianiem na obiekt tekstury 1024x1024 px w przypadku gdy cały obiekt jest daleko i na ekranie zajmuje powiedzmy tylko 100 px

 

oraz zdaje się wavelet jest używany w analizie danych - jest to alternatywa dla transformacji Fouriera

 

;)

Odnośnik do komentarza
Udostępnij na innych stronach

i, że coś co się również nazywa wavelet jest wykorzystywane w programach OpenGL do bezstratnej kompresji tekstur (mipmap), kompresja ta pozwala np. na zdekodowanie tylko jakby pomniejszonej wersji tekstury - tak, żeby komputer zbytnio się nie pocił nad wstawianiem na obiekt tekstury 1024x1024 px w przypadku gdy cały obiekt jest daleko i na ekranie zajmuje powiedzmy tylko 100 px

 

"Kompresja Wavelet. Jest to kompresja oparta na wykorzystaniu algorytmów falkowych. Falki są to funkcje macierzyste przyjmujące wartości różne od zera tylko w pewnym skończonym przedziale. Poprzez odpowiednie przekształcenia matematyczne można przedstawić każdą funkcje za pomocą funkcji macierzystej.

Sygnał wejściowy, który chcemy skompresować filtrujemy z elementów niezauważalnych przez oko ludzkie, następnie dzielimy na fragmenty, każdy taki fragment zostanie przedstawiony za pomocą odpowiedniej funkcji.

Metoda należy do metod stratnych, obrazy kompresowane tą metodą charakteryzują się zamazaniem brzegów i ogólnym wygładzeniem. W porównaniu z metodami JPEG i MPEG metoda falkowa nie powoduje powstawania zniekształceń struktury przedmiotu na obrazie. Metody falkowe są ciągle w fazie rozwoju i prawdopodobnie będą fundamentem dla nowych kompresorów. Ciekawostką może być fakt, iż metoda ta została wykorzystana przez FBI do realizacji systemu rozpoznawania odcisków palców, ponieważ lepiej zdała egzamin w porównaniu do metody JPEG.

Metoda kompresji Wavelet jest obok MJPEG możliwa do wyboru przez użytkowników kart cyfrowego zapisu wizji Hicap. Producent kart podaje, że stosując kompresję MJPEG na 10 GB dysku można zapisać 4,5 godz, zaś Wavelet 9 godzin, jednak dla wymagań lepszej jakości zaleca stosowanie MJPEG."

 

to chyba wyczerpująco wyjaśnia co to jest wavelet Bartolo.

 

 

pozdrawiam

Seba

Odnośnik do komentarza
Udostępnij na innych stronach

Bellatrix

Zapomniałeś dodać że twierdzenie o falkach ( dokładnie o rozkładzie na funkcje o mniejwiecej właściwościach jakie opisałeś ) zostało udowodnione dopiero w latach 80 , i pochodzi z dość abstrakcyjnego działu analizy matematycznej. Jak widać nawet bardzo abstrakcyjne prace matematyków na coś się przydają :))

 

Pzdr

Odnośnik do komentarza
Udostępnij na innych stronach

a to tak dla przykładu:

 

sample1.jpg

Wavelet compression

file size: 1861 bytes

compression ratio - 105.6

 

sample2.jpg

JPEG compression

file size: 1895 bytes

compression ratio - 103.8

 

pozdrawiam

Seba

Odnośnik do komentarza
Udostępnij na innych stronach

Bellatrix

Zapomniałeś dodać że twierdzenie o falkach ( dokładnie o rozkładzie na funkcje o mniejwiecej właściwościach jakie opisałeś ) zostało udowodnione dopiero w latach 80 , i pochodzi z dość abstrakcyjnego działu analizy matematycznej. Jak widać nawet bardzo abstrakcyjne prace matematyków na coś się przydają :))

 

Pzdr

 

Bellatrix niczego nie zapomniał, bo tylko cytował.

http://www.dipol.com.pl/bib76.htm

 

A tu jest odpowiedni wzorek, który powinien wszystko wszystkim wyjaśnić.

Image10.gif

Odnośnik do komentarza
Udostępnij na innych stronach

Wzór wzorem , ale udowodniono to nie tak dawno, a dla odmiany szeregi Fouriera, harmoniki sferyczne ( i inne rozkłady na funkcje ortonormalne ) udwodniono w poprzednich stuleciach.

Wzorek wzorkiem, ale może znajdziecie jego dowód ? :)

 

Co do stackowania , to nie wprowadzają one dodatkowych informacji do uzyskanych obrazów, a głównie poprawiają niedoskonałość samego urządzenia rejestrującego ( szumy i czułość ), a nie możliwości teleskopu.

Algorytmy mogą być na tyle skomplikowane , nie sądze by się to komuś przydało. Natomiast fajnie by było jakby przy stackowaniu dostępny był parametr określający jak dobrze zostały dopasowane zdjęcia. ( np. im bliżej 1 tym lepiej ).

 

Pzdr

Łukasz

Odnośnik do komentarza
Udostępnij na innych stronach

Witam,

Leszku , Twoj Logitech 4000 ma sensor o rozdzielczości 640x480, wiec zdjecie kwiatkow z lewej strony jest faktycznie zdjeciem vga interpolowanym do 1280x960, a wiec rowniez przetworzonym. Wiec porownanie jest troche bez sensu... :-

Jurek

Odnośnik do komentarza
Udostępnij na innych stronach

W/g mnie by zrobić takie porównanie ten interpolowany też musiał by zostać zestackowany ( czy jak to nazwać :) ). W/g stacking słuzy głównie do poprawienia dynamiki ( redukcji szumów ). W tym przypadku widać że stackowanie, owszem zwiększyło dynamike ( choć można by to zrobić programem graficznym ), natomiast pogorszyła się rozdzielczość.

 

Pozdrawiam

Łukasz

Odnośnik do komentarza
Udostępnij na innych stronach

a gdybyś przed stackowaniem klatki powiększył do rozmiaru 1280x960 - zarówno i w registaxie i w astrostacku można powiększać klatki przed stackowaniem - program może wtedy regulować położenie klatek z dokładnością większą niż 1 pixel w stosunku do oryginału

 

zresztą obraz interpolowany z webkama to nic innego jak zwykły obraz 640x480 powiększony przez oprogramowanie

 

pamietaj Leszku, że powietrze faluje itp... wiec dobry stack nie tyle musi lepiej wyglądać od pojedyńczej klatki (pomijając szum, tylko zwracając uwagę na szczegółowość), ale jest bardziej zbliżony do rzeczywistości, bo na pojedyńczej klatce pojawiają się zniekształcenia, są jakieś fafrochy i inne takie przekłamania, czego nie może być już na stacku

Odnośnik do komentarza
Udostępnij na innych stronach

Przed chwilą zakończyłem test rozdzielczy na tych samych kwiatkach i muszę Ci Bartku przyznać rację.

Zapomniałem o jednej rzeczy, a mianowicie o tym, że

przy ustawieniu na mniejszą rozdzielczość, mogę dokręcić telekowerter i zwiększyć skalę projekcji np. 2x. Do tej pory tłukłem wszystkie zdjęcia na ful rozdzielczości interpolowanej w OGNISKU GŁÓWNYM.

Gdy dokręciłem telekonwerter, obraz się zamazywał (chyba problem z odświerzaniem obrazu) Gdy zaś przestawiłem rozdzielczość na 640/480 ten problem zniknął, a po obróbce filmiku z wybranych klatek uzyskałem lepszą rozdzielczość, niż w pierwotnej

metodzie.

http://pbase.com/image/19013912

Odnośnik do komentarza
Udostępnij na innych stronach

no właśnie zapewne z tego powodu, że elektronika nie działa nieskończenie szybko im więcej klatek na sek. tym gorsza jakość obrazu...

 

mi się jednak wydaje, że ma to znaczenie dopiero powyżej 10 kl/sek, więc najlepiej nagrywac przy 5 lub 10 kl/sek, ewentualnie można ustawiać ostrość przy 15 - 20 kl/sek, bo jest trochę łatwiej

 

spróbuj przy jednakowo ustawionej ostrości zrobić stack z tej samej ilości klatek raz z filmika 5 kl/sek a raz przy 20 lub 25 kl/sek - różnica kolosalna w ostrości

Odnośnik do komentarza
Udostępnij na innych stronach

Witam,

jeżeli chodzi o szybkość (kl/s) to jest dokładnie tak jak w klasycznej fotografii. Nagrywając 25 kl/s czas "naświetlania" jednej klatki nie może być dłuższy niż 1/25s, przy 5 kl/s pojedyncza klatka może być naświetlana 1/5s. W niektórych webkamach można regulować czas "naświetlania" (migawkę), w większości niestety nie i jest albo stały, albo proporcjonalny do ilości klatek/s. Tak więc, niestety przy 5 kl/s migawka jest dużo wolniejsza niż przy 25 kl/s i stąd nieostry obraz.

Widać to zjawisko podczas rejestracji np. Jowisza - lepszy obraz jest przy większej ilości kl/s, pomimo konieczności zwiększenia wzmocnienia...

Pozdrawiam,

Jurek

Odnośnik do komentarza
Udostępnij na innych stronach

Tak więc, niestety przy 5 kl/s migawka jest dużo wolniejsza niż przy 25 kl/s i stąd nieostry obraz.

Widać to zjawisko podczas rejestracji np. Jowisza - lepszy obraz jest przy większej ilości kl/s, pomimo konieczności zwiększenia wzmocnienia...

Pozdrawiam,

Jurek

 

lepszy obraz jest przy mniejszej ilości klatek na sekundę!!!

webcam to nie aparat z mechaniczną migawką... jedyne z czym się zgodzę to to oczywiste ograniczenie czasu naświetlania przy większej częstotliwości zbierania klatek

Odnośnik do komentarza
Udostępnij na innych stronach

Też tak myślę, że ilość klatek/sek. ogranicza migawkę do ustawionej wartości, np. 30 kl/sek, to migawka nie zejdzie poniżej 1/30s. Mój Logitech ma rozpiętość czasów migawki od 1/15 do 1/10000 sek. a maksymalnie przechwytuje 30 kl. na sekundę. Spokojnie więc mogę ustawić na 15 kl./ sek.

Ostrość nie może więc już zależeć od ilości przechwytywanych klatek, jeśli zależy od czasu migawki.

Odnośnik do komentarza
Udostępnij na innych stronach

Drogi Bartolo,

migawka to migawka, niezaleznie od tego czy jest mechaniczna (jak np. w kamerze projektu Genesis) czy elektroniczna jak w webkamie. A w przypadku kamery jest to czas naswietlania jednej klatki (i ma on tyle wspolnego z iloscia klatek/s, ze czas ten nie moze przekroczyc odstepu miedzy kolejnymi klatkami). No i wlasnie on decyduje o ostrosci uzyskanego obrazu, wiec im jest krotszy tym ŁATWIEJ jest uzyskać ostry obraz (o tym wie każdy kto fotografował z obiektywami długoogniskowymi - sprobuj zrobic nieporuszone zdjecie przy 1/15s i przysłonie 22 obiektywem 300mm :P ,

ale wystarczy ustawić migawkę na 1/250s i przesłonę na 5,6 i pełen sukces ;)

Leszek używa 300mm + telekonwerter x2 =600mm obiektyw, przekątna sensora CCD to jakieś 8mm, no to dostajemy powiększenie 75, więc chyba oczywiste jest, że im krótsza migawka tym obraz będzie ostrzejszy - nie mówię lepszy, bo przy zbyt małej ilości światła będzie po prostu za ciemny :P

Dla jeszcze nie przekonanych proponuję proste doświadczenie - do webkama dokrecić obiektyw 50-85mm i spróbować uzyskać ostry obraz przy 5kl/s i dla porównania 30kl/s - powodzenia :P

Odnośnik do komentarza
Udostępnij na innych stronach

Sorry,

napisalem troche glupot,

oczywiscie ostrosc zdjecia zalezy tylko i wylacznie od czasu naswietlenia pojedynczej klatki, czyli migawki, a ta jest regulowana w zakresie od 1/25 do 1/10000 s dla Philipsow i nie zalezy od ilosci klatek/s.

Sorry to pomroczność jasna :P :'(

Jurek

Odnośnik do komentarza
Udostępnij na innych stronach

to jest oczywiste, że przy 30 kl/sek poszczególne klatki nie mogą być naświetlane dłużej niż 1/30 sek ;)

 

ale chodziło mi raczej o wielkość strumienia danych - im więcej klatek łapiemy na sek tym musi być on większy, niestety zaczyna się tu gubienie danych, przez kompresję czy coś tam... przy 15 kl/sek na 100 procent ostrość będzie siadać i to sporo w stosunku do 5 klatek na sek... z moich obserwacji wynika, że spokojnie można nagrywac przy 10 kl/sek, ale 15 to już za dużo

Odnośnik do komentarza
Udostępnij na innych stronach

A w przypadku kamery jest to czas naswietlania jednej klatki (i ma on tyle wspolnego z iloscia klatek/s, ze czas ten nie moze przekroczyc odstepu miedzy kolejnymi klatkami).

 

nic podobnego nie pisałem,

 

a żeby uciąć dalsze spekulacje:

zerknij na teścik jaki przed paroma minutami przygotowałem, drobne zmiany w jasności to efekt zman oświetlenia, a nie manipulacji przy nastawać ekspozycji... ekspozycja była ustawiana ręcznie na 1/1000 sek, gain był ustawiony na minimum, wszelkie ustawienia przy obiektywie identyczne podczas testu, jedyną zmianą była nasza zmienna - tj. FPS, acha - oczywiście obraz zapisywany był w postaci nieskompresowanej - czysty avik

 

test-fps-vesta.jpg

fragmenty w skali oryginału, oczywiście nie obracane, strumień z weba przy 640x480

 

sorry, że ten obrazeczek zajmuje aż tyle (164kB), ale żeby nie było niedomówień zapisałem go jako jpeg z minimalną kompresą

 

 

jureq - oceń sam... bo jeśli ja nie jestem ślepy to przy 5 kl/sek ostrość jest największa i sukcesywnie maleje wraz ze wzrostem fps, przy 15kl/sek wydaje się być dobrze, ale ... wystarczy powiększyć obraz żeby się przekonać - a co takie delikatne braki robią np. z przerwą cassiniego to możesz się domyślić

 

pozdrawiam!

Odnośnik do komentarza
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.