Jump to content

GrzegorzP

Społeczność Astropolis
  • Content Count

    62
  • Joined

  • Last visited

Community Reputation

27 Neutral

About GrzegorzP

  • Rank
    Alnitak
  • Birthday 06/26/1968

Kontakt

  • Strona WWW
    http://www.afterdusk.pl

Informacje o profilu

  • Płeć
    Mężczyna
  • Skąd
    Zielona Góra
  • Sprzęt astronomiczny
    FSQ106, Sky90, FS60, Meade LX200, Canon 70-200L f/2.8, Canon 100L f/2.8, EM-200, EOS6D, Orion StarShot Pro, ASI178MM, ASI120MC

Recent Profile Visitors

1360 profile views
  1. Może Kolega triplety pomylił?
  2. Adres strony, z której pochodzi jest wystarczającą (jak dla mnie) rekomendacją. Co do poradników generalnie: niełatwo napisać coś od A-Z. Niektóre sprawy są tak oczywiste dla autora, że może nie pomyśleć o ich uwzględnieniu. Ciekawiło mnie czy faktycznie ktoś polecał używanie zdebayeryzowanych plików do kalibracji. W przypadku Pix-a weź jeszcze pod uwagę, że większość procesów ma coś takiego jak "Format Hints". To są takie dodatkowe opcje dotyczące otwieranych plików, które nadpisują ustawienia globalne. Np jeżeli w module IC wprowadzisz "raw" w input, to każdy otwierany plik będzie "pure RAW" niezależnie od ustawień w DSLR_RAW. Co nie zmienia faktu, że ja w globalnych mam czysty RAW, bo o tych "hintsach" za często zapominam .
  3. Moment - jeżeli piszesz o Pix-ie, to może być jeszcze jedna kwestia. W tym programie są dwa tryby pracy z RAW-em: wspomniany pure RAW (czyli obraz traktowany i wyświetlany jako BW) i kolorowy RAW (ale to nie oznacza zdebayeryzowany). Ten drugi to pik RAW, w którym poszczególne piksele dostają kolor zgodny z odpowiadającym im filtrom. Zamiast czarno-białej kratki jest kratka czerwono-zielono-niebieska (może o tym czytałeś?). To oczywiście nadal RAW, żadne interpolacje nie będę wykonane i materiał będzie (jak to się przyjęło określać) surowy. Na takim pliku możesz robić kalibrację i wszystko będzie OK. Pytanie czy jest jakaś różnica - pamiętam, że dawno temu na forum Pix-a Juan wspominał chyba, że w przypadku zdejmowania flatów z "kolorowych" matryc taki format jest lepszy, bo program osobno znormalizuje każdy kanał. To było dawno, mogłem coś źle zapamiętać - trzeba byłoby pokopać w archiwum. Nie interesowałem się tym specjalnie, bo moje flaty zdejmują się prawidłowo i nigdy nie miałem z tym problemów. Niewątpliwą wadą tego formatu RAW jest trzykrotnie większy plik. Tak z ciekawości - mógłbyś podlinkować jakiś przykład poradnika, który mówi o kalibracji na kolorowym pliku?
  4. Unable to acquire CFA pattern information - nie można uzyskać informacji o wzorcu(?) CFA. Romek skonwertował to na TIF, a taki plik nie ma odpowiedniej informacji w nagłówku, dlatego nie można go "zdebayeryzować". Gdyby użyć jakiegoś programu, który zrobi to na podstawie podanej informacji o układzie filtrów w CFA i nie będzie przejmował się brakiem danych w nagłówku, to można go przerobić na kolor. Jeżeli wiesz jak to działa, to powinieneś zauważyć, że pracując na kolorowych plikach (po debayeryzacji) na jednym pikselu masz tak na prawdę informację z niego i kilku sąsiednich - algorytm odczytał dane o "kolorze" z pikseli sąsiednich i na tej podstawie odtworzył pełny kolor tego piksela (z ilu pobrał i co dokładnie zrobił zależy od stosowanego algorytmu debajeryzacji). W ten sposób każdy hot w pewnym sensie rozlewa się na kilka pikseli, a sam zostaje zaburzony informacją z pikseli sąsiednich. Nie jest mi znany żaden poradnik, który zalecałby debayeryzację przed wykonaniem pełnej kalibracji, wręcz przeciwnie, każdy przed tym ostrzega. Oczywiście masz prawo do swojego podejścia "na chłopsi rozum" .
  5. Ja niestety nie mogę powiedzieć, że rozumiem co piszesz - co to jest warstwa debayeru? Nie ma czegoś takiego. W pliku RAW nie ma pikseli czerwonych, zielonych niebieskich, ogólnie nie istnieje coś takiego jak "kolorowa matryca" i każda jest BW - tzn. każdy przetwornik zlicza fotony, które trafiły w konkretny piksel i ma w nosie jaką długość (jaki "kolor") miała fala elektromagnetyczna, która została zarejestrowana (zrobił się dualizm korpuskularni-falowy ;)). To co nazywamy matrycą kolorową jest tylko skrótem myślowym i różni się od matrycy BW tym, że ma z przodu maskę filtrów RGB (różnie poukładanych), które puszczają fale o odpowiedniej długości ("kolorze"). W ten sposób pierwszy piksel z pierwszego wiersza rejestruje tylko R, kolejny tylko G, itd. na przemian, pierwszy z drugiego wiersza G, dalej B, itd. (maska Bayera). Każdy piksel zlicza fotony bez "wiedzy " o tym jakiego koloru dotyczą (każdy z nich mógłby zliczyć dowolne fotony, ale maska filtrów puszcza tylko konkretne). W ten sposób zostaje zarejestrowany sygnał, który odpowiedni algorytm przekształca na informację o kolorze na podstawie wiedzy o układzie filtrów w masce (odpowiednio interpretuje informację z kolejnych pikseli) . Podsumowując: podczas kalibracji odejmujemy klatkę dark od light na zasadzie piksel od piksela. Algorytm nie wie czy usuwa czerwony, zielony, czy niebieski hot. Po prostu piksele na klatkach dark i light odpowiadają sobie (są w tym samym miejscu) i tyle. Tak samo odbywa się to w przypadku matryc BW (tzn. baz maski filtrów). Dopiero po kalibracji robimy "debayeryzację" (albo inny de-coś tam, jeżeli układ filtrów był inny) i dostajemy skalibrowane, kolorowe klatki, które można wyrównać i składać odpowiednim algorytmem. Mam wrażenie, że nie do końca wiesz jak to działa. To jest już stare, ale zasady funkcjonowania przetworników się nie zmieniły, więc pozwolę sobie polecić linki: przetworniki "kolorowe" matryce
  6. Sorki, ale z tego powyżej to ja też nie teges , ale ogólnie kalibracja darkami polega na odjęciu ciemnej klatki od fotki. Robimy to na surowym materiale, bo podczas debayeryzacji algorytm aproksymuje wartość pikseli na podstawie pikseli sąsiednich i generuje "sygnał" tam gdzie go nie było.
  7. Na takiej klatce (bez debayeryzacji) masz w tle siatkę od maski Bayera. Jeżeli wyświetlisz obraz 1:1 (bez przeskalowania) to powinieneś widzieć tylko drobny wzór złożony z pojedynczych, naprzemiennie ułożonych, jaśniejszych i ciemniejszych pikseli. Gdy oglądam Twój plik bez skalowania to na moim ekranie tak jest. To co pokazałeś powyżej jest przeskalowane - w takim przypadku faktycznie ten drobny wzór interferuje i wygląda jak "szkocka kratka" (bez koloru oczywiście). Poniżej fragment Twojego pliku powiększony do 300% i mocno rozjaśniony. tmp.tif
  8. A od kiedy debayeryzuje się klatki kalibracyjne? Romek - co z tym jest nie tak? Jak dla mnie wygląda OK.
  9. Poczytaj o ManualImageSolver. W skrócie: 1. Generujesz obraz ze zbliżonym polem i zasięgiem z CatalogStarGenerator 2. Wskazujesz odpowiadające sobie gwiazdki przy pomocy DynamicAlignment i zapisujesz proces na pulpicie 3. Robisz ManualSolver wskazując zapisany proces jako punkty odniesienia Po tym zdjęcie będzie opisane z pewnym błędem, ale można na nim wykonać ImageSolver, który doprecyzuje. U mnie sprawdza się zawsze.
  10. Ze swojej strony mogę obiecać, że w miarę możliwości pomęczę jeszcze Twój materiał - na razie to był tylko taki szybki podgląd. Jeżeli coś rozsądnego mi wyjdzie to pokażę, jeżeli nie będę cierpliwie czekał na rozwój sytuacji.
  11. Ja czytam, oglądam i zazdraszczam . Mam kilka swoich plików z takiego samego (jeżeli nie identycznego) setupu. Po obróbce coś tam widać, ale do tego poziomu detalu to mi daleko. OK, warunki były słabe (z powodu COVID też miejsko-balkonowe), może za mało materiału. No to pociągnąłem sobie załączony SER i pogrzebałem. Widać nieco więcej, ale to nadal nie to, więc z pewną nieśmiałością zapytam: może mógłbyś uchylić nieco rąbka tajemnicy i zdradzić jakie były ustawienia programu? Np jaki poziom wavelet w RS?
  12. Dekonwolucja tylko na obrazie liniowym
  13. A miałeś włączoną optymalizację darka przy kalibracji? Jeżeli tak, to może program wylicza dziwne współczynniki i (niepotrzebnie) przeskalowuje dak. To może dawać takie efekty. Jeszce jedno: jak wygląda statystyka tych skalibrowanych klatek - poziomy tła podobne, czy różne? Mógłbyś ewentualnie umieścić gdzieś biasa master darka i flata i do tego trzy surowe lighty (taki, który u Ciebie kalibrował się dobrze, z nadkorekcją i nieskorygowany).
  14. To zupełnie inny rodzaj astrofotografii - tutaj nie chodzi o uzyskanie efektownych (poprawka: estetycznych, bo efektowny to on jest) obrazków, tylko pokazanie czegoś co jest trudne do zarejestrowania. O tym układzie podwójnym napisała Bellatrix tutaj. Różnica pomiędzy jasnościami Syriusza A i B (odpowiednio -1.4m i 8.5m ) powoduje, że ten pierwszy w porównaniu z drugim faktycznie wygląda jak latarka (za mało powiedziane) przy iskierce (jest ok. 9000 razy jaśniejszy od składnika B ). Te "kręgi rozogniskowania" to krążki dyfrakcyjne, które przy takiej skali musiały się pojawić. Przyłączam się do pytanie powyżej - jakie czasy?
  15. AS2 jest programem 32-bitowym, więc nie może zaadresować więcej niż 3GB. AS3 jest 64-bit, więc będzie mógł wykorzystać wszystko co masz. Obawiam się, że takiej ilości, tak dużych klatek AS2 nie poskłada. Jeżeli Księżyc "lata" po całym kadrze, to nie ma szans na złożenie tego (jak napisał Loxley każdy program się pogubi). Potrzebujesz czegoś co zrobi wstępną analizę i zgrubne wyrównanie kolejnych kadrów (i zapisze wynik w nowych plikach). Być może stary dobry Iris potrafiłby to zrobić, ale ostatnio bardzo rzadko z niego korzystam i nie pamiętam jak to się robiło (trzeba by poczytać o składaniu zdjęć planet). Link
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.