Skocz do zawartości

Behlur_Olderys

Moderator
  • Postów

    5 202
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez Behlur_Olderys

  1. Astrofoto najtańszym kosztem możliwym, czyli smartfonem z ręki Syriusz nad Forum Romanum. Może bez wielkiej wartości estetycznej, ale na swój sposób ciekawe. Może lepszy byłby dział "astrofoto turystyczne" Na pewno widać, że trochę wyżej nad horyzontem, niż w Polsce.
  2. Zdałem sobie sprawę, że to bzdurna dyskusja (apertura czy światłosiła) bo pytanie jest źle sformułowane. Zamiast zakładać nierealny scenariusz powodujący problemy: "ta sama apertura różne ogniskowe" powinno się założyć stałą ogniskową. Wtedy oczywiste, że lepiej brać większą aperturę, bo to pociąga większą światłosiłę i vice-versa. Przecież jak robimy zdjęcie to podstawowa jest ogniskowa, ona decyduje, jak będzie wyglądał obiekt i jego otoczenie, ona nakłada też ograniczenia na jakość prowadzenia, skalę zdjęcia. Jak już się zdecydujemy na konkretną ogniskową to wtedy oczywiście chcemy dołożyć jak największą aperturę. I tyle. Nie ma dylematu, przy stałej ogniskowej dyskusja się w ogóle nie ma prawa toczyć, bo światłosiła i apertura są od siebie zależne. Pozdrawiam
  3. Może w aparatach do dziennej fotografii (ingerencja w RAWy). Ale w kamerach do astrofoto to jest bez sensu.
  4. 1. Uśrednianie "zwykłe" average wobec mediany ma taki problem, że zawsze bierze pod uwagę cały sygnał. Mediana (z definicji) wybiera jakby najlepsze piksele z wszystkich zdjęć, pomijając praktycznie wszystkie inne. Ogólnie to temat na niejedną pracę naukową, i w zasadzie z tego co czytam u większości osób mediana daje najlepsze rezultaty przy małej ilości zdjęć w stacku. Ja osobiście preferowałbym average z odcinaniem najgorszych próbek czyli sigma-kappa clipping. Pamiętaj, że average da ci nową jakość, stworzy piksel, którego nie było na żadnym zdjęciu, być może lepszy od wszystkich możliwych a tymczasem mediana tylko wybierze jeden z istniejących. To wydaje się przewagą algorytmów opartych na średniej. Minusem jest to, że jeśli masz nierówne jakościowo fotki w stacku to średnia małej ilości zdjęć uwypukli błędy prowadzenia itp. SigmaKappa już nie, dlatego ją ogólnie polecam 2. Nie wiem, skąd wziąłeś log2/x ? SNR rośnie jak sqrt(N), a głębia bitów rośnie jak log4(N) (gdyby to był prawdziwy oversampling, ale nie wiem, co DSS naprawdę robi). 3. Jeszcze raz powtarzam: to, że coś widać "na oko" to nie znaczy, że działa tak, czy inaczej. Jakość zdjęć, żeby można je porównać obiektywnie, trzeba *mierzyć*. SNR można od biedy zmierzyć porównując średnią wartość piksela w jakimś jednolitym obszarze do odchylenia standardowego. Wtedy można porównywać między różnymi wynikami stackowania. To powinno dać się zrobić w PS, albo w jakimś Matlabie 4. Sumowanie i średnia - nie ma specjalnej różnicy. Suma to a+b, średnia to (a+b)/2. Później i tak rozciągasz histogram suwakami Jak zrobisz jedno zdjęcie 1x1min to sygnał będzie np. 100. Szum fotonowy to *zawsze* pierwiastek z tego, więc 10. SNR = 100/10 =10 Zrobisz 1x4minuty - sygnał będzie 400. Szum od tego sqrt(400) = 20. SNR = 400/20 = 20. A jak zamiast naświetlania będziesz stackował 4x1min: 100+100+100+100=400 Sqrt (400) = 20 400/4 = 100 20/4 = 5 SNR = 100/5 = 20 tak samo jak 1x4 min. Tylko jak zdjęcia są "pojechanie" to taka matematyka niestety nic Ci nie da podobnie, jeśli oprócz szumu fotonowego masz jeszcze dużo szumu odczytu czy innego syfu.... Pozdrawiam.
  5. Behlur_Olderys

    M92

    Tak, dithering w zasadzie powinien niwelować wpływ wszystkich możliwych "fixed patterns" które są zmorą CMOS-ów (a podobno ASI1600 wybitnie). Przy czym powinien być to dithering przynajmniej pseudolosowy o możliwie dużej amplitudzie (przy wielomegapixelowych matrycach to nie problem). Uwaga: jakość niwelacji szumu typu "fixed" powinna być tym lepsza, im więcej razy przesuwamy kadr, i tym gorsza, im więcej zdjęć robimy bez przesuwania.
  6. Trzeba napisać program komputerowy. Backendem będzie obsługa wyjść cyfrowych (0/1 na konkretne wyjścia, które ustawiają konkretne fazy na silniku albo sterują hardware'owym sterownikiem/mostkiem) Frontendem będzie prosty serwer HTTP który obsługuje w najprostszym przypadku metody GET i POST kolejno: do odpytywania i ustawiania pozycji. Szybka piłka, ale nie jestem pewien, czy są gotowe rozwiązania Chyba jednak trzeba się trochę pomęczyć, @wlatanowicz? BTW: gdyby ostatnie pozycje dokładniej opisać (wymiary) to byłby fajny projekcik do naśladowania
  7. Ostatnie zdjęcie - myślałem że z kufelkiem jasnego, tak to wygląda z daleka
  8. Dithering Ale jestem ciekaw alternatywy, czy jest równie skuteczna. Może szybsza? @trouvere Jak to dobrze, że można tak skomplikowane mechanizmy zamodelować dwoma parametrami
  9. Dodajemy sygnał z wszystkich klatek. A następnie dzielimy przez liczbę klatek. Czyli po kolei najpierw suma, a potem dzielenie, co razem daje średnią. Wydaje mi się, że wszyscy mają rację. Domyślam się, że w planetarnym astrofoto zwykła średnia nie zda egzaminu ale tutaj? Czemu nie? Ostatecznie dysponując 14b, 16b subami nie ma po co zwiększać nie wiadomo jak głębi kolorów. Wystarczy przesunąć szum w dół Jeśli oryginalny obraz ma np. sygnał 10000, to szum będzie na poziomie 100. (SNR=100) Po dodaniu 100 takich obrazów sygnał będzie na poziomie 1000000 a szum* - 1000. SNR =1000 *bo sygnał się dodaje normalnie a szum - jak pierwiastek) to istota stackowania. Dzielimy całość przez 100 (czyli wynik to średnia arytmetyczna) i mamy znów: Sygnał 10000 ale już szum - 10. SNR = dalej 1000. No to chyba rezultat jest taki, jaki miał być - zwiększenie SNR? Suma, czy średnia - nie widzę różnicy.
  10. Cześć, Ostatnio myślałem o tym "fixed pattern". Zainspirował mnie post @trouvere Jeśli pojedynczy piksel CMOS-a jest liniowym przetwornikiem ładunek-napięcie to wystarczyłoby zrobić kilka (minimum dwa) flatów w różnych warunkach oświetleniowych (np. 10% i 90% nasycenia) następnie program obliczy współczynnik liniowy i offset do każdego piksela osobno. Następnie taka mapa może być używana jako flat, z tym że trzeba odjąć offsety najpierw, a dopiero potem podzielić przez współczynnik, jakby połączenie biasa i flata. Mając to na myśli ruszyłem na podbój internetu... Niestety, nie okazałem się przełomowym geniuszem, wikipedia też wpadła na ten pomysł https://en.wikipedia.org/wiki/Fixed-pattern_noise#Suppression_of_FPN Czyli to nie jest takie trudne.... Chociaż - Trzeba by flaty robić w tej samej temperaturze co zdjęcia... Robi się z tego powoli połączenie darka, flata i biasa Teraz moje pytanie: Ciekawe, czy ktoś już w Polsce tego próbował? Trzeba by mieć dobry materiał testowy (wyraźny pattern noise) i jakiś program, który to robi (chyba to najtrudniejsze - nie jestem pewien, czy taki program istnieje). Ewentualnie - dysponując operacjami matematycznymi na obrazach można to zrobić chyba w PixInsight: (jeśli ktoś nie lubi teorii/matematyki to proszę przewinąć wzory ) Przypominam, że zakładamy, że każdy piksel jest opisany funkcją liniową postaci: R = a*S + b gdzie R - to rzeczywista odpowiedź piksela na sygnał S, a i b to współczynnik liniowości i offset. Mierząc dwa flaty na poziomie niskim i wysokim (np. 10% i 90%, ale dokładne wartości nie mają znaczenia) możemy znaleźć dla każdego piksela wartości R_L i R_H (Low/High). Dostajemy dwa równania liniowe z dwoma niewiadomymi, czyli zadanie z podstawówki w rodzaju "Staś za dwie gruszki i trzy jabłka zapłacił 5zł, a za pięć gruszek i jedno jabłko - 6zł. Ile kosztuje jabłko, a ile gruszka?) Równanie wygląda tak: R_L = a*S_L + b R_H =a*S_H + b Oczywiście rozwiązanie to: a = (R_H - R_L) /( S_H - S_L) b = R_H - a * S_H. Problem tylko znaleźć S_L i S_H, czyli sygnał, jak powinien być w przeciwieństwie do R, czyli sygnału, jaki rzeczywiście mamy na matrycy. Wydaje się, że naiwne podejście z uśrednieniem obu flatów po wszystkich pikselach powinno dać przynajmniej wstęp do dalszej pracy. Jak wyglądałaby procedura w programie? Załóżmy, że mamy pliki FL i FH (flat low - 10% i flat high - 90%) 1. FL uśredniamy (nie wiem, mediana/średnia z nieskończonym promieniem?) i zapisujemy jako SL 2. FH - to samo, zapisujemy jako SH (Alternatywnie: Dla FL i FH znajdujemy reprezentacyjny piksel referencyjny (w teorii dowolny, tylko żeby miał te same współrzędne tu i tam) i tworzymy SL i SH jako obrazy wypełnione wartościami takimi, jak ten piksel, odpowiednio na FL i FH. Nie powinno mieć specjalnego wpływu, który piksel wybierzemy... Chyba ) 3. Odejmujemy obrazy FH - FL i zapisujemy jako dF 4. Odejmujemy obrazy SH - SL i zapisujemy jako dS 5. Tworzymy nowy obraz sF podzielony przez dS i zapisujemy, jako GAIN_FLAT 6. Tworzymy nowy obraz TEMP = GAIN_FLAT * SH 7. Tworzymy nowy obraz FH - TEMP i zapisujemy jako OFFSET_FLAT 8. Od każdego "surowego" lighta - FITS-a czy tam RAW-a najpierw odejmujemy OFFSET_FLAT, a potem dzielimy przez GAIN_FLAT potem normalnie stackowanie jak zawsze. Ktoś chętny? Przypominam - Flaty low i high trzeba zrobić tak, jak zwykłe flaty, tylko jeden z saturacją ok. 10% a drugi ok. 90%, najlepiej w tej samej temperaturze, co lighty, oczywiście to samo ISO, czas naświetlania siłą rzeczy bez znaczenia, choć lepiej nie za krótko ani nie za długo Pozdrawiam!
  11. "Fundamentalny błąd" to mocne słowa Ja tylko chciałbym przedstawić trade-offy. Podsumujmy - przy założeniu tej samej apertury, tego samego czasu naświetlania i tej samej matrycy: Duża światłosiła (krótka ogniskowa) + Dużo światła na jeden piksel - Mało pikseli na jeden obiekt + Duże pole widzenia - Mała skala - Mała rozdzielczość* Mała światłosiła (długa ogniskowa) - Mało światła na jeden piksel + Dużo pikseli na jeden obiekt - Małe pole widzenia + Duża skala + Duża rozdzielczość* Oczywiście część parametrów wynika jeden z drugiego. Najważniejsze to że trade-offy są proporcjonalne do światłosiły. Coś za coś. Nie ma bezwzględnego wygranego / przegranego. Najważniejszy trade-off moim zdaniem może nie być widoczny na pierwszy rzut oka Pole widzenia <-> Skala Jeśli mamy dużo czasu to po prostu zbierzemy więcej materiału długą rurą, ale pola widzenia ani o milimetr zwiększyć się nie da. Z drugiej strony, jeśli w krótkiej rurce nie widać pewnych detali, to choćby naświetlać rok i dzień to detalu drobniejszego niż wynika ze skali - nie będzie. Kwestie natężenia światła są w pewnym sensie pochodne, wtórne, i wynikają z tego podstawowego wyboru: jaką skalę chcemy robić? Jakie chcemy pole widzenia? Decyzja: skala czy pole widzenia to oczywiście dylemat tak długo jak do dyspozycji mamy tylko jedną kamerę. Podobnie kwestia apertury: najlepiej jak największa, ale technicznie lepiej niż f/2 to chyba za dużo teleskopów nie ma No i budżet też nie jest z gumy * Rozdzielczość w znaczeniu: jak drobne detale się zapisały na zdjęciu. Ten parametr ma sens tak długo, dopóki skala nie przekracza seeingu, ew. dla "lucky imagingu" ogranicza nas równa w obu przypadkach granica rozdzielczości wynikająca wyłącznie z apertury.
  12. Kosztem detalu... Przynajmniej do granicy seeingu. Potem już 100% racji.
  13. Nie zapominam, tylko nie uwzględniam w rozważaniach. To już indywidualna kwestia rozmiaru matrycy i wielkości plamki światła teleskopu. Pewnie można włożyć do f/2 matrycę 1/4" a do f/8 - 4/3" i będzie też ciekawe porównanie pól widzenia...
  14. Dwie rzeczy musimy uznać za oczywiste: 1. Światło dostaje się przez aperturę teleskopu. Nie ma innej drogi. Jeśli dwa teleskopy mają tą samą aperturę, to dostają tyle samo światła z jakiegoś odległego obiektu. Tutaj nie ma magii. 2. Obraz obiektu na matrycy jest wprost proporcjonalny do ogniskowej. Innymi słowy, rozmiar R [mm] jakiegoś obiektu o rozmiarze kątowym (na niebie) równym a [w stopniach] na matrycy położonej w ognisku teleskopu o ogniskowej f [mm] będzie równy: R = a*f*(pi/180) Wniosek: dla dwóch teleskopów o różnych ogniskowych ale tych samych aperturach obraz tego samego obiektu będzie miał różne rozmiary (większy w teleskopie z większym f) ale całkowita jasność obu obrazów będzie identyczna. Tymczasem powierzchniowa jasność będzie większa w teleskopie z mniejszą ogniskową (czyli z "szybszym" f/ratio). Czy w związku z tym zdjęcia nie będą się różnić? Przy minimalnym wpływie szumów, po odpowiednim resizie, zdjęcia powinny być prawie nie do odróżnienia Pytanie: czy po to mamy kamerę z małym pikselem, żeby robić resize? Czy nie lepiej załatwić to sprzętowo, niż software'owo? Wchodzimy ogólnie w podobne rozważania, co hardware binning vs software binning. Dopóki mamy dość sygnału różnica nie powinna być specjalnie widoczna. Ale już w "ciemnych" partiach obrazu zaczyna się liczyć każdy elektron szumu, i to tam zarówno hardware binning, jak i używanie "szybszego" teleskopu powoli zaczyna się opłacać (tym bardziej, im więcej szumu i im słabszy sygnał). Naprawdę z chęcią obejrzałbym porównanie np. achromatu 127 f/5 do Maka 127 f/11 - ta sama matryca, ten sam obiekt (m42 kontra jakieś IFN czy coś równie ciemnego), te same czasy, to samo LP. Stawiam, że M42 po resize nie byłoby specjalnej różnicy między setupami, ale IFN z achromatu by majaczył, a z Maka w ogóle by nie było widać. Jeśli chcemy wykorzystać maksimum skali (nie resizować dla polepszenia SNR, dodatkowo - nie samplować niepotrzebnie seeingu), i maksimum studni potencjału każdego piksela (co minimalizuje wpływ szumu) przy jednoczesnej minimalizacji czasu naświetlania, to oczywiste jest, że "szybkie" teleskopy będą zdecydowanie lepsze niż "wolne" przy tej samej aperturze. Jeśli jednak robimy zwykłe, popularne, jasne obiekty - to wydaje się, że f/ratio jest bez znaczenia. Tylko apertura... przy okazji - foci ktokolwiek w ogóle aperturami 11" obiekty typu Rozeta? Poza RASA? Czemu nie? @kubaman - nie martw się, Twoja RASA to kozacki telep, i bardzo Ci zazdroszczę, pewnie nie tylko ja. Spróbuj machnąć nią coś ciemnego, naprawdę ciemnego, myślę, że wtedy ten sprzęt pokaże pazur, i bez teoretycznych rozważań będzie widać jak na dłoni przewagę szybkiego f/ratio.
  15. Przede wszystkim skala z takim pikselem dla teleskopu, który pokryłby cały sensor (RC 20"f/8?) wychodzi absurdalna. Do dużych teleskopów raczej są też duże piksele ...
  16. I to jest właśnie niepokojąca, druga strona medalu Niestety, nie ma wzorów na ładną obróbkę, to nie tylko kwestia praktyki, ale zasadniczo proces arbitralny, niemierzalny, jeszcze trzeba mieć gust ;D . Nie czuję się dobry w tego typu zabiegach, i jestem pewien, że jeśli tylko przejdę kiedyś (daj Boże czas!) na praktykę, to obróbka będzie nieprzeciętnie słaba w moim wykonaniu
  17. Nieświadomy to jest ktoś, kto pstryka fotki smartfonem w trybie auto. Myślę, że daleko Tobie do nieświadomości, po prostu każdy zatrzymuje się na takim poziomie wiedzy, z jakim czuje się wygodnie.
  18. Może dlatego że na końcu stackowania wynik jest uśredniany? W końcu wyniki musi się zmieścić na tych 16 bitach czy iluś. Algorytm stackowania to nie suma, ale średnia, albo mediana. (Albo wariacje na ten temat). @Pav1007 już wspominał coś o tym. Jeśli dodasz do siebie 1000 zdjęć o głębi 14b to wynikowa głębia (14 + log_2(1000) =~ 24b). DSS dodaje zdjęcia i tworzy tymczasowo plik o głębi 32b, gdzie to się wszystko zmieści, a potem dzieli wynikowe wartości pikseli przez jakąś liczbę. To dzielenie nie powinno wiele zmienić w kategoriach SNR, a efekt ma taką samą głebię koloru, jak oryginalne suby. Dzięki temu można je sensownie obrabiać na komputerze. Ale może ktoś wie coś lepiej w tym temacie? Przyznam, że dla mnie mogłaby zostać "goła" suma, w dobie GIMPa 32b?
  19. Moim zdaniem krótko: warto kupić RASA 11" Światłosiła to nie do końca marketing. W Polskich warunkach seeing ogranicza używalność ogniskowych - przynajmniej dla mgławic - do jakiegoś metra, w każdym razie - skala mniejsza niż 1"/px nie ma sensu, bo przy długoczasowej astrofotografii seeing rozmyje ewentualne szczegóły. Dla ASI 1600 skala 1"/px jest osiągana przy ogniskowej ok. 800mm. Jeśli mamy ograniczoną ogniskową w ten sposób, a aperturę chcemy zwiększać, to jedyne, co nam zostaje, to kupować coraz "szybsze" astrografy. Dlatego RASA ze światłem f/2.2 to totalny koniec drogi (no, może jeszcze RASA 14") przy polskim niebie i z pikselami typu 4um. Oczywiście, jeśli ktoś dysponuje większym pikselem (droższym...) to można jechać dalej Ale to temat rzeka. BTW: No, akurat Dirac to chyba jednak pierwszego rzędu? nie ma tutaj różniczki do kwadratu... Tak na marginesie
  20. Sygnał na poziomie 800e będzie obarczony "na dzień dobry" szumem fotonowym na poziomie sqrt(800) =~28e. Może to o tym zapomniałeś?
  21. Dobra, wróćmy na początek. Mamy dwa teleskopy : RASA 11" f/2.2 oraz zwykły SCT 11" f/10 plus kamerę ASI 1600 o pikselu 3.8um W obu wypadkach mamy tą samą aperturę, więc pierwsze minimum w funkcji Airego będzie miało ten sam rozmiar kątowy, tj. z grubsza 0.5". Dla RASA skala wynosi jakieś 1.25"/px. Jak widać, dysk Airego mieści się bez pudła w jednym pikselu. Tymczasem dla SCT skala to już bardziej hardkorowe 0.3"/px. No to mamy lekki oversampling krążka Airego ... No i od tego momentu prosiłbym o wytłumaczenie od @JSC. Co z tego wszystkiego wynika, biorąc pod uwagę przeciętny seeing w Polsce na poziomie 2" ?
  22. Liczyłem to w innym wątku. Różnica jest niewarta pieniędzy i zależy głównie od kamery, a nie teleskopu Edited: a nie, to w tym wątku drugi post:
  23. Oczywiście, co nie zmienia faktu, że dla ludzi którzy nie są biegli w aparacie matematycznym mechaniki kwantowej, a chcą choć trochę się dowiedzieć o zachowaniu się światła czasami może wystarczyć model korpuskularny, (efekt fotoelektryczny) a czasami model falowy (dyfrakcja) wystarczy w innych kwestiach. A w niektórych, jak w przypadku jednofotonowego eksperymentu z dwoma szczelinami bez funkcji falowej ani rusz Czy to zaraz błąd? BTW a do grawitacji kwantowej to nawet model funkcji falowej nie wystarczy, więc byłobym ostrożny z tym "wszystkim"
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.