Skocz do zawartości

GrzegorzP

Społeczność Astropolis
  • Postów

    92
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez GrzegorzP

  1. Pytałem o format plików, ponieważ Pix może czytać pili po kawałku (jeżeli są np. zapisane jako xsif bez kompresji), a czasami musi załadować całość (np. jeżeli działamy bezpośrednio na RAW-ach z aparatu). W tym drugim przypadku zazwyczaj są problemy z pamięcią (temat regularnie wraca na forum Pix-a). Twojego przypadku nie dotyczy (chyba, że masz kompresję w plikach). Jak napisał przed chwilą Wessel myślę, że to problem z konfiguracją. Dzisiaj będę składał 125 plików z FF. Mam i7 16GB RAM i ok. 260GB wolnego na dysku roboczym - to chyba największa porcja danych jaką przerabiałem za jednym podejściem., dam znać jak poszło. Na twoim miejscu spróbowałbym jeszcze tradycyjnej metody z reinstalacją programu.
  2. Jeżeli będzie dostępne biorę: poz.5. Filtr Astronomik ProPlanet 742 poz.7. Rewolver Baadera Q Turret
  3. GrzegorzP

    Gwiazda Barnarda

    Rzadko się odzywam i raczej unikam chwalenia się moją archaiczną stroną, której layout powinien być zmieniony kilka lat temu , ale skoro kolejny raz pojawia się taki temat, to pokażę swój projekcik. Wymyśliłem to sobie w 2003 roku i zaczynałem od zmodyfikowanej Vesty (dla młodszych: to taka kamera internetowa 640x480px, którą kiedyś powszechnie przerabiano na długie czasy). Pierwsze fotki były składane z kilku paneli, ale i tak nie obejmowały całego pola, które pokazuję aktualnie. Później był Canon 300D, kamera CCD Oriona i ostatnio Canon 6D. Zaczynałem od serii bardzo krótkich (15-20s ekspozycji), później utrzymywałem ten "standard" dla zgodności i porównywalnego zasięgu. Wszystkie fotki robione z 8" LX200 clasic, czyli stary Meade z pierwszej serii z korektorem f/6.3 (ok 1200mm ogniskowej). Ta "korekcja" jest słaba i nawet na APS-C brzegi lecą, więc praca ma raczej charakter dokumentu i na wystawie bym jej nie pokazał. Mniejsza wersja składanki: Tutaj dedykowana podstrona projektu, jest tam też animacja. Skoro już przy tych szybkich gwiazdach jesteśmy, to mam jeszcze 61 Cygni, niestety o niej pomyślałem dopiero w 2013, więc okres obserwacji krótszy: Też fotografuję co roku, ale jest 2x wolniejsza i znacznie jaśniejsza, więc nie daje się pokazać wszystkiego na jednym zdjęciu. Powyżej położenie z 2013 i 2019. Tutaj podstrona projektu, na animacji fotki z kolejnych lat.
  4. Może Kolega triplety pomylił?
  5. Adres strony, z której pochodzi jest wystarczającą (jak dla mnie) rekomendacją. Co do poradników generalnie: niełatwo napisać coś od A-Z. Niektóre sprawy są tak oczywiste dla autora, że może nie pomyśleć o ich uwzględnieniu. Ciekawiło mnie czy faktycznie ktoś polecał używanie zdebayeryzowanych plików do kalibracji. W przypadku Pix-a weź jeszcze pod uwagę, że większość procesów ma coś takiego jak "Format Hints". To są takie dodatkowe opcje dotyczące otwieranych plików, które nadpisują ustawienia globalne. Np jeżeli w module IC wprowadzisz "raw" w input, to każdy otwierany plik będzie "pure RAW" niezależnie od ustawień w DSLR_RAW. Co nie zmienia faktu, że ja w globalnych mam czysty RAW, bo o tych "hintsach" za często zapominam .
  6. Moment - jeżeli piszesz o Pix-ie, to może być jeszcze jedna kwestia. W tym programie są dwa tryby pracy z RAW-em: wspomniany pure RAW (czyli obraz traktowany i wyświetlany jako BW) i kolorowy RAW (ale to nie oznacza zdebayeryzowany). Ten drugi to pik RAW, w którym poszczególne piksele dostają kolor zgodny z odpowiadającym im filtrom. Zamiast czarno-białej kratki jest kratka czerwono-zielono-niebieska (może o tym czytałeś?). To oczywiście nadal RAW, żadne interpolacje nie będę wykonane i materiał będzie (jak to się przyjęło określać) surowy. Na takim pliku możesz robić kalibrację i wszystko będzie OK. Pytanie czy jest jakaś różnica - pamiętam, że dawno temu na forum Pix-a Juan wspominał chyba, że w przypadku zdejmowania flatów z "kolorowych" matryc taki format jest lepszy, bo program osobno znormalizuje każdy kanał. To było dawno, mogłem coś źle zapamiętać - trzeba byłoby pokopać w archiwum. Nie interesowałem się tym specjalnie, bo moje flaty zdejmują się prawidłowo i nigdy nie miałem z tym problemów. Niewątpliwą wadą tego formatu RAW jest trzykrotnie większy plik. Tak z ciekawości - mógłbyś podlinkować jakiś przykład poradnika, który mówi o kalibracji na kolorowym pliku?
  7. Unable to acquire CFA pattern information - nie można uzyskać informacji o wzorcu(?) CFA. Romek skonwertował to na TIF, a taki plik nie ma odpowiedniej informacji w nagłówku, dlatego nie można go "zdebayeryzować". Gdyby użyć jakiegoś programu, który zrobi to na podstawie podanej informacji o układzie filtrów w CFA i nie będzie przejmował się brakiem danych w nagłówku, to można go przerobić na kolor. Jeżeli wiesz jak to działa, to powinieneś zauważyć, że pracując na kolorowych plikach (po debayeryzacji) na jednym pikselu masz tak na prawdę informację z niego i kilku sąsiednich - algorytm odczytał dane o "kolorze" z pikseli sąsiednich i na tej podstawie odtworzył pełny kolor tego piksela (z ilu pobrał i co dokładnie zrobił zależy od stosowanego algorytmu debajeryzacji). W ten sposób każdy hot w pewnym sensie rozlewa się na kilka pikseli, a sam zostaje zaburzony informacją z pikseli sąsiednich. Nie jest mi znany żaden poradnik, który zalecałby debayeryzację przed wykonaniem pełnej kalibracji, wręcz przeciwnie, każdy przed tym ostrzega. Oczywiście masz prawo do swojego podejścia "na chłopsi rozum" .
  8. Ja niestety nie mogę powiedzieć, że rozumiem co piszesz - co to jest warstwa debayeru? Nie ma czegoś takiego. W pliku RAW nie ma pikseli czerwonych, zielonych niebieskich, ogólnie nie istnieje coś takiego jak "kolorowa matryca" i każda jest BW - tzn. każdy przetwornik zlicza fotony, które trafiły w konkretny piksel i ma w nosie jaką długość (jaki "kolor") miała fala elektromagnetyczna, która została zarejestrowana (zrobił się dualizm korpuskularni-falowy ;)). To co nazywamy matrycą kolorową jest tylko skrótem myślowym i różni się od matrycy BW tym, że ma z przodu maskę filtrów RGB (różnie poukładanych), które puszczają fale o odpowiedniej długości ("kolorze"). W ten sposób pierwszy piksel z pierwszego wiersza rejestruje tylko R, kolejny tylko G, itd. na przemian, pierwszy z drugiego wiersza G, dalej B, itd. (maska Bayera). Każdy piksel zlicza fotony bez "wiedzy " o tym jakiego koloru dotyczą (każdy z nich mógłby zliczyć dowolne fotony, ale maska filtrów puszcza tylko konkretne). W ten sposób zostaje zarejestrowany sygnał, który odpowiedni algorytm przekształca na informację o kolorze na podstawie wiedzy o układzie filtrów w masce (odpowiednio interpretuje informację z kolejnych pikseli) . Podsumowując: podczas kalibracji odejmujemy klatkę dark od light na zasadzie piksel od piksela. Algorytm nie wie czy usuwa czerwony, zielony, czy niebieski hot. Po prostu piksele na klatkach dark i light odpowiadają sobie (są w tym samym miejscu) i tyle. Tak samo odbywa się to w przypadku matryc BW (tzn. baz maski filtrów). Dopiero po kalibracji robimy "debayeryzację" (albo inny de-coś tam, jeżeli układ filtrów był inny) i dostajemy skalibrowane, kolorowe klatki, które można wyrównać i składać odpowiednim algorytmem. Mam wrażenie, że nie do końca wiesz jak to działa. To jest już stare, ale zasady funkcjonowania przetworników się nie zmieniły, więc pozwolę sobie polecić linki: przetworniki "kolorowe" matryce
  9. Sorki, ale z tego powyżej to ja też nie teges , ale ogólnie kalibracja darkami polega na odjęciu ciemnej klatki od fotki. Robimy to na surowym materiale, bo podczas debayeryzacji algorytm aproksymuje wartość pikseli na podstawie pikseli sąsiednich i generuje "sygnał" tam gdzie go nie było.
  10. Na takiej klatce (bez debayeryzacji) masz w tle siatkę od maski Bayera. Jeżeli wyświetlisz obraz 1:1 (bez przeskalowania) to powinieneś widzieć tylko drobny wzór złożony z pojedynczych, naprzemiennie ułożonych, jaśniejszych i ciemniejszych pikseli. Gdy oglądam Twój plik bez skalowania to na moim ekranie tak jest. To co pokazałeś powyżej jest przeskalowane - w takim przypadku faktycznie ten drobny wzór interferuje i wygląda jak "szkocka kratka" (bez koloru oczywiście). Poniżej fragment Twojego pliku powiększony do 300% i mocno rozjaśniony. tmp.tif
  11. A od kiedy debayeryzuje się klatki kalibracyjne? Romek - co z tym jest nie tak? Jak dla mnie wygląda OK.
  12. Poczytaj o ManualImageSolver. W skrócie: 1. Generujesz obraz ze zbliżonym polem i zasięgiem z CatalogStarGenerator 2. Wskazujesz odpowiadające sobie gwiazdki przy pomocy DynamicAlignment i zapisujesz proces na pulpicie 3. Robisz ManualSolver wskazując zapisany proces jako punkty odniesienia Po tym zdjęcie będzie opisane z pewnym błędem, ale można na nim wykonać ImageSolver, który doprecyzuje. U mnie sprawdza się zawsze.
  13. Ze swojej strony mogę obiecać, że w miarę możliwości pomęczę jeszcze Twój materiał - na razie to był tylko taki szybki podgląd. Jeżeli coś rozsądnego mi wyjdzie to pokażę, jeżeli nie będę cierpliwie czekał na rozwój sytuacji.
  14. Ja czytam, oglądam i zazdraszczam . Mam kilka swoich plików z takiego samego (jeżeli nie identycznego) setupu. Po obróbce coś tam widać, ale do tego poziomu detalu to mi daleko. OK, warunki były słabe (z powodu COVID też miejsko-balkonowe), może za mało materiału. No to pociągnąłem sobie załączony SER i pogrzebałem. Widać nieco więcej, ale to nadal nie to, więc z pewną nieśmiałością zapytam: może mógłbyś uchylić nieco rąbka tajemnicy i zdradzić jakie były ustawienia programu? Np jaki poziom wavelet w RS?
  15. A miałeś włączoną optymalizację darka przy kalibracji? Jeżeli tak, to może program wylicza dziwne współczynniki i (niepotrzebnie) przeskalowuje dak. To może dawać takie efekty. Jeszce jedno: jak wygląda statystyka tych skalibrowanych klatek - poziomy tła podobne, czy różne? Mógłbyś ewentualnie umieścić gdzieś biasa master darka i flata i do tego trzy surowe lighty (taki, który u Ciebie kalibrował się dobrze, z nadkorekcją i nieskorygowany).
  16. To zupełnie inny rodzaj astrofotografii - tutaj nie chodzi o uzyskanie efektownych (poprawka: estetycznych, bo efektowny to on jest) obrazków, tylko pokazanie czegoś co jest trudne do zarejestrowania. O tym układzie podwójnym napisała Bellatrix tutaj. Różnica pomiędzy jasnościami Syriusza A i B (odpowiednio -1.4m i 8.5m ) powoduje, że ten pierwszy w porównaniu z drugim faktycznie wygląda jak latarka (za mało powiedziane) przy iskierce (jest ok. 9000 razy jaśniejszy od składnika B ). Te "kręgi rozogniskowania" to krążki dyfrakcyjne, które przy takiej skali musiały się pojawić. Przyłączam się do pytanie powyżej - jakie czasy?
  17. AS2 jest programem 32-bitowym, więc nie może zaadresować więcej niż 3GB. AS3 jest 64-bit, więc będzie mógł wykorzystać wszystko co masz. Obawiam się, że takiej ilości, tak dużych klatek AS2 nie poskłada. Jeżeli Księżyc "lata" po całym kadrze, to nie ma szans na złożenie tego (jak napisał Loxley każdy program się pogubi). Potrzebujesz czegoś co zrobi wstępną analizę i zgrubne wyrównanie kolejnych kadrów (i zapisze wynik w nowych plikach). Być może stary dobry Iris potrafiłby to zrobić, ale ostatnio bardzo rzadko z niego korzystam i nie pamiętam jak to się robiło (trzeba by poczytać o składaniu zdjęć planet). Link
  18. Tayson podał rozwiązanie, ale dosyć enigmatyczne . Ze zrzutu ekranu wynika, że masz włączonego STF-a. On bardzo agresywnie wyciąga fotkę - dodanie do tego nawet minimalnego przekształcenia daje taki efekt. Albo dezaktywuj STF (to właśnie wspomniane F12), albo zresetuj ustawienia.
  19. Jestem potencjalnie zainteresowany. Szczegóły na PW.
  20. Na ogół nie "grzebię" się w fotkach innych (mam za dużo zaległego własnego materiału), ale lubię takie gęste kawałki nieba i nigdy nie dotykałem fotki z achromatu. Moja próba (całość w Pix): Nie wysiliłem się zanadto i trochę poszedłem na łatwiznę. Po pierwsze primo - za późno zrobiłem crop (dopiero po wyciąganiu nieliniowym), po drugie primo - nie przyłożyłem się do zdejmowania gradientu (sporo zostało, po części wynika to z "pierwszego primo"), po trzecie - dekonwolucja (a dokładniej maska do dekonwolucji) powinna być zrobiona lepiej. Nie lubię wycinać tła na zero, więc zostawiłem sporo szumu, pewnie można by nad tym jeszcze podziałać. Nie jestem pewien czy materiał wyjściowy był na pewno liniowy (tzn czy nie był lekko wyciągany). Achromat powoduje spero problemów w kalibracji kolorów , zrobiłem ją na podstawie najjaśniejszych gwiazd gromady - na oko tak wyglądało najlepiej.
  21. Jak dajesz autostretch, to wyciągasz do granic możliwości - tak działa ta funkcja na ustawieniach domyślnych (zakładam, że mówimy o Screen Transfer Function). STF jest raczej do podglądu tego co siedzi na fotce, osobiście nigdy nie użyłem takich ustawień podczas obróbki.
  22. GrzegorzP

    Betelgeza w dzień

    Jak kobieta prosi, to nie sposób odmówić Małe wyjaśnienie: to jest fotka z serii ekspozycji wykonanych na tym samym czasie (dobrane tak, żeby rejestrowały się obie planety), więc Wenus jest wypalona (i większa niż powinna). Fotki powyżej były składane z dwóch różnych czasów i pokazują rzeczywiste rozmiary planet przy tej ogniskowej.
  23. GrzegorzP

    Betelgeza w dzień

    Tak generalnie, to zaprzedałem duszę fotografii i widok okularu w wyciągu mnie brzydzi , ale jakoś namierzyć trzeba było . Jowisza i Wenus oczywiście było widać. Księżyce wyszły dopiero na fotce, ale nie szukałem ich - nie spodziewałem się, że w takich warunkach będzie to możliwe (przejrzystość była średnia, Słońce bardzo blisko). Jowisza w dzień obserwowałem wielokrotnie. Główne pasy widać zawsze (SCT 8"). Pod podanym linkiem znajdziesz fotkę z Canona bez filtrów i większych kombinacji - starałem się na niej oddać widok rzeczywisty. W tym przypadku było wyjątkowo słabo - Słońce było na prawdę blisko i nawet trochę zaglądało do tuby.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.