Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 079
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez Piotr K.

  1. 14 godzin temu, diver napisał(a):

    ale poświata obejmuje praktycznie całe jądro galaktyki. Nie bardzo mogłem to selektywnie obrobić, więc zmniejszyłem nieco poziom czerwieni, żeby nie mieć czerwonego jądra.

    A czy fakt, że poświata obejmuje też jądro, nie świadczy o tym, że w jądrze też jest Ha, więc ono po prostu powinno być czerwonawe? Skąd wiadomo, że poświata w ramionach to "prawilny" wodór, a w jądrze nie?

  2. A jak robisz konwersję do pierwszej sekwencji, przed kalibracją? Nie masz tam przypadkiem zaznaczone "Debayer"? Bo CFA data zdaje się można zaznaczyć tylko wtedy, gdy w fitsie jest info, że klatka jest z maską Bayera. Przy mono to powinno być nieaktywne. 

     

    (głowy nie dam, bo piszę z pamięci, a wersji 1.2 na razie nie instalowałem)

  3. OK, no to spajki mamy załatwione :) Ogniskowa - Siril mi w ogóle nie chce zrobić plate solve, nie tylko gdy podaję 750 mm i piksel 5,7 um, ale nawet gdy przeleciałem wszystkie ogniskowe od 700 do 780 mm, co 5 mm. A Nova Astrometry podaje skalę 1,57 arcsec/px, czyli tyle, ile powinno być przy pikselu 5,7 um i ogniskowej 750 mm:

     

    https://nova.astrometry.net/user_images/7489501#annotated

     

    Ale mniejsza z tym, to jest akurat mało ważne.

     

    Dobra, teraz co do reszty poruszanych tu zagadnień:

     

    @siutek, jaki masz ten odrośnik? Ściągnąłem Twój materiał i odpaliłem go na DSS - bez problemu się kalibruje lighty flatami+biasami. To, co zostaje, i co widzisz też na Twoim zdjęciu, czyli to ogromne pojaśnienie po lewej, to nie jest winieta ani żaden Light Fall Off, tylko odblask od Księżyca, który walił Ci z boku we wlot odrośnika. Zerknij np. na Stellarium, i zobacz, gdzie na niebie był Księżyc względem Twojego kadru. Gdyby wina leżała po stronie toru optycznego, to podobne niesymetryczne pojaśnienie z lewej strony powinno być też widoczne na flatach. A nie ma go tam - wg mnie flaty są ładne i w miarę symetrycznie oświetlone. Ta lekka niesymetryczność, którą widać, wynika nie z żadnego tiltu (rozumianego jako brak prostopadłości matrycy do toru optycznego), tylko co najwyżej z przesunięcia LW względem wyciągu, ew. trochę złej kolimacji. I na razie w ogóle bym się tym nie przejmował - flatami się takie rzeczy ogarnia bez problemu.

     

    Jeszcze co do odrośnika - raczej bym się skłaniał do usunięcia go, i ewentualnie założenia grzałki na LW. Ja miałem odrośnik na Newtona z karimaty, i zrobienie z czymś takim dobrych flatów jest niemożliwe, bo przy próbach przyłożenia do odrośnika jakiejś świecącej powierzchni, typu ekran laptopa czy tablet, cały odrośnik się kiwa i odkształca. A skyflaty podobnie, bo weź na taki odrośnik załóż T-shirta ;)

     

    Co do nadkorekcji flatami - miałem z tym w zeszłym roku niezłe jazdy, ale da się to na spokojnie ogarnąć. Używałem DSS, i zrobiłem tak, że brałem po prostu różne kombinacje klatek, i patrzyłem co zadziała. Podstawowa sprawa to kalibracja flatów - albo biasami, albo flatdarkami (taka jest poprawna nazwa, bo to są darki do flatów, a nie flaty do darków ;) ). Chyba, że aparat ma automatycznie odejmowaną wartość biasa, tak jak np. mój Nikon D5100, wtedy wystarczy po prostu zestackować flaty, bez żadnej kalibracji biasami, i takim masterflatem skorygować lighty.

     

    Do rzeczy - wg mnie na Twoim materiale gradient pochodzi od Księżyca walącego w odrośnik, a nie od nadkorekcji flatami. Co więcej, na Twoim materiale nie sprawdzisz, która kombinacja klatek działa przy korekcji flatami (flat + bias, flat + flatdark itp.), ponieważ ten odblask od Księżyca jest tak jebitny, że maskuje wszystko inne.

     

    Jak będziesz miał jakiś lepszy materiał, tzn. najlepiej bez odrośnika i bez Księżyca walącego w tubę, to odpal sobie Sirila, i na spokojnie skalibruj lighty różnymi kombinacjami klatek. Siril ma tę zaletę, że można wszystko po kolei robić ręcznie, więc cały czas wiesz co się dzieje, i co jest kalibrowane czym. W DSS-e np. tej pewności nie mam, i nie pamiętam już, czy jeśli się wrzuci biasy jako biasy, to flaty są nimi kalibrowane, czy trzeba wrzucić biasy jako darkflaty (nomenklatura DSS), i wtedy dopiero zostaną zastosowane do flatów. Jeśli nie podejdziesz do tego metodycznie i na spokojnie, na dobrym materiale, to nigdy tego nie rozkminisz - a to, co tu ludzie wypisują w tym wątku pewnie Ci tylko zwiększa mętlik w głowie :)

     

    Dobra, teraz co do tego co tu się pojawiało wcześniej:

     

    Najgorzej jak wszystkie klatki są IMG_xxxx.CR2 bo wtedy bardzo łatwo o pomyłkę. Trzeba pozmieniać nazwy. To najlepiej robić już na poziome akwizycji a tak teraz trzeba przeglądać klatka po klatce, żeby znaleźć te niewłaściwe.

     

    Nic nie trzeba przeglądać klatka po klatce. Wystarczy sobie ustawić w Eksploratorze Windows widok ikon na Large Icons (tak, żeby było widać miniaturki, a nie tylko nazwę pliku i datę/godzinę). I natychmiast widać, gdzie się kończy seria lightów, a zaczyna np. seria flatów czy darków. Przewijasz przez całą zawartość katalogu, i wszystko jest jasne. Wystarczy z Shiftem zaznaczyć właściwe pliki, i przerzucić je do stworzonych podkatalogów "light", "flat", "bias" itp.

     

    Co do odróżnienia biasów od darków, bo na miniaturkach w Eksploratorze wszystkie będą czarne - wystarczy otworzyć daną klatkę w zwykłej Windowsowej przeglądarce zdjęć, i kliknąć ikonkę z "I" w kółeczku, żeby się wyświetliły informacje z EXIF-a. Tam jest podany m.in. czas ekspozycji - jak coś ma krótki czas ekspozycji to wiadomo, że jest biasem, a jeśli długi - to wiadomo, że to dark.

     

    Uwaga - jeśli klatki są robione na czasie Bulb, to Exif podaje 30 sekund, a nie właściwy czas. Dlatego tak użyteczny jest APT, który do nazwy rawa dopisuje wszystkie parametry, również właściwy czas ekspozycji.

     

    Wracając - raczej robi się biasy i darki w seriach, więc nie ma opcji, żeby na zmianę były np. trzy darki, potem bias, potem dark, potem 2 biasy itp. Więc nie ma potrzeby przeglądania wszystkich plików po kolei, wystarczy znaleźć te z początku i końca serii. Dodatkowo ułatwia to fakt, że pliki mają podane godziny i daty utworzenia - przecież wiadomo, kiedy mniej-więcej zaczęło się robić które klatki, prawda? Poza tym zwykle między jedną a drugą serią klatek jest jakaś większa lub mniejsza przerwa - np. gdy skończę robić flaty, to mija chwila, bo zakładam dekiel na teleskop, zmieniam ustawienia w programie do akwizycji itp. Więc gdy patrzę potem na listę plików, to po godzinie i dacie jestem w stanie bez problemu zorientować się, gdzie pojawia się przerwa między ekspozycjami.

     

    Tak w ogóle to .CR2 jest nienajlepszym formatem zapisu.

     

    Śmiem twierdzić, że wręcz przeciwnie, zwłaszcza dla osób początkujących. Pliki raw z aparatu mają jedną ważną zaletę - zapisaną informację o balansie bieli. Gdy ma się go ustawiony w aparacie prawidłowo, tzn. na Daylight w przypadku aparatu niemodowanego, a na Custom na szarej karcie w przypadku aparatu modowanego, to wystarczy w Deep Sky Stackerze zaznaczyć w opcjach Raw/FITS DDP Settings opcję "Use camera white balance", i po stackowaniu otrzymujemy plik z prawidłowym kolorem, bez nadmiaru zielonego, z którym na początku przygody z astrofoto nie bardzo wiadomo, co zrobić. Fitsy takiej możliwości nie dają, i wg mnie jest to bardzo poważna ich wada.

     

    No i dekodowanie w kompie trwa wieki.

     

    Od zawsze pracuję na rawach z aparatów, i nigdy nie miałem najmniejszych problemów z podglądem, czasem trwania debayeryzacji itp. Czy to przeglądanie w APT, czy w przeglądarce Windows, czy w DSS. Więc nie wiem, skąd stwierdzenie, że to trwa wieki.

     

    Nie ma sensu robienie 100 darkflatów jeśli flatów jest 30. Standardowo to po 10 każdego wystarczy a jak ma być mercedes to po 36

     

    Jest jakieś miarodajne źródło tych informacji? Klatki kalibracyjne podlegają dokładnie tym samym zasadom statystyki, jak klatki light - im więcej zestackujesz, tym mniejszy masz szum. Wszystkie klatki wnoszą szum, kalibracyjne też. Im będzie ich więcej, tym szum będzie mniejszy. Oczywiście od pewnej liczby, zależnej od tego jak szumi matryca, dorabianie kolejnych już niewiele wniesie - ale pisanie w taki sposób, jakby 10 było jakąś złotą zasadą, do zastosowania zawsze i wszędzie, jest zwyczajnie nieprawdziwe (chyba, że jest jakieś wiarygodne źródło tej informacji, to chętnie się zapoznam).

     

    Część klatek zapisała się jako landscape a część jako portrait - integracja sobie z tym poradzi ale np. blink w PI już nie. Warto na sztywno ustawić aparat w jedną z dwóch orientacji - sporo ułatwia.

     

    Fizyczna orientacja aparatu nie ma tu nic do rzeczy. Jeśli już, to można wyłączyć opcję "Auto rotate" w menu aparatu.

     

    robisz na iso 800, czemu!? Zwyczaje z fotografii "dziennej" nie mają tu zastosowania. 

     

    A co ma do tego fotografia dzienna? Akurat ISO 800 jest polecane do astrofoto w Canonach, ponieważ przy tej wartości zwykle jest najkorzystniejszy stosunek szumu odczytu do zbieranego sygnału. Tu można sobie sprawdzić, jakie są optymalne wartości ISO dla większości Canonów:

     

    https://astrophotography.app/EOS.php

     

    Jest takie pojęcie "iso invariant" (google). W większości Canonów to powyżej 1600. Lepiej robić 1600 czy 3200 bo rośnie stosunek sygnał-szum (SNR) a to jest to o co walczymy

     

    Tak się składa, że akurat większość Canonów jest ISO-variant, tu pierwszy z brzegu tekst na ten temat:

     

    https://petapixel.com/2017/03/22/find-best-iso-astrophotography-dynamic-range-noise/

     

    Fakt, że powyżej ISO 1600 zaczynają być invariant ma wg mnie mniejsze znaczenie. Podawanie porad typu "lepiej robić ISO 1600 czy 3200" jest mylące, bo jednocześnie ze zwiększaniem ISO redukujemy sobie zakres dynamiczny, czyli łatwiej przepalamy gwiazdy. Czyli trzeba palić krótsze klatki - a po co walić po 200 czy 300 klatek 30 sekundowych, jeśli można mieć mniejszą liczbę np. 120 sekundowych? Czas ekspozycji dobiera się pod szum odczytu, jasność nieba, teleskopu / obiektywu i fotografowanego obiektu, a nie "lepiej robić tak i tak".

     

    W 3 min klatkach zbierasz szumy. Ogólna zasada im gorsze niebo i większe wzmocnienie (iso) tym krótsze klatki ale więcej.

     

    Niestety, jest to nieprawda. Chyba, że jest jakieś wiarygodne źródło tej informacji, to poproszę. W krókich klatkach łapiesz dokładnie taki sam szum, jak w dłuższych, bo szum lecący z nieba jest w danym momencie zawsze taki sam, niezależnie od tego, czym i jak łapiesz fotony. Jest dokładnie odwrotnie - im jaśniejsze niebo, tym lepiej ustawić niższe ISO i palić jak najdłuższe klatki, jeszcze nieprzepalone. Dlaczego? Ponieważ im jaśniejsze niebo, tym więcej leci fotonów LP, i tym szybciej wypełnia nam się studnia potencjału, głównie tymi niechcianymi fotonami. Skrócenie czasów naświetlania niczego nie zmienia (tak samo jak bez sensu jest skracanie klatek gdy jest gorąco, rzekomo po to, żeby łapać mniej szumu termicznego). Szum zależy od tego, ile łącznie nałapiemy fotonów, w danej temperaturze, a nie od tego, czy będą krókie klatki ale więcej, czy długie ale mniej.

     

    Uzbierasz więcej treści robiąc 100 klatek po 30 sek na iso 1600 niż z 17 klatek po 180 sek na tym samym iso

     

    Ponownie - jest na to jakieś wiarygodne źródło? O ile na 180 sekundach klatki nie będą przepalone, to treści będzie na nich dokładnie tyle samo. Albo i nawet więcej, jeśli przy 30 sekundach jasność tła będzie zbyt niska, żeby wyjść w znaczący sposób ponad szum odczytu.

     

    Do zbierania materiału (Lighty i Flaty) używam Astro Photo Tool - zobaczę. czy da się tam zapisywać fity zamiast CR2.

     

    Nawet jeśli się da (wg mnie nie), to nie ma to najmniejszego sensu. APT dodaje do nazw wszystkie ważne informacje - rodzaj klatki, obiekt, czas ekspozycji, temperaturę, ISO, co chcesz. A masz dodatkowo zaszytą informację o balansie bieli. Więc póki nie masz kamery dedykowanej do astro, albo nie używasz np. ASIair, która od razu konwertuje sobie rawy do fitsów, to korzystaj z rawów, bo to jest po prostu bardzo wygodne.

     

    Robiłem lighty na iso 800 właśnie ze względu na księżyc i 180s ekspozycji - więcej z oczywistych powodów by się nie dało.

     

    Ja ostatnio paliłem 240 s przy ISO 200 albo 400. Przy Księżycu prawie 100%. I nie stanowi to żadnego problemu. Czas i ISO dobierasz pod konkretne warunki, nie ma jednej złotej reguły że "zawsze tak", albo "zawsze inaczej".

     

    Jednak po wyjaśnieniach zmienię swoje podejście

     

    Bardzo słusznie - proponuję zmianę podejścia od przeczytania np. tych artykułów:

     

    https://www.cloudynights.com/articles/cat/column/fishing-for-photons

     

    Zwłaszcza "Signal to noise", ale inne też są dobre. Tam jest rzetelna, usystematyzowana wiedza, a nie mity.

     

    Przesunięcie winiety to skutek tiltu. W bagnecie w każdym DSLR za wyjątkiem starych na M42 praktycznie nie do zwalczenia. Możesz próbować z tilterem w wyciągu ale DSLR tak maja i to jest jeden z wielu argumentów dlaczego to proteza w astrofotografii.

     

    To jest pojedynczy raw wrzucony w analizę tiltu w ASTAP-ie:

     

    tilt-siutek.thumb.jpg.70761c0b12f886845e0665e29b3068de.jpg

     

    Jak widać, jest super, zwłaszcza jak na full frame. Nie wiem, jak bardzo krzywa musiałaby być matryca, żeby z tego powodu dawać takie różnice zacienienia kadru. Stawiam na złe ustawienie LW względem wyciągu, albo ogólnie trochę skopaną kolimację. Choć ta wydaje się spoko, biorąc pod uwagę wykres z ASTAP-a. A to masakryczne pojaśnienie z boku kadru, które ma kolega @siutek, to nie jest żadna winieta, tylko odbijąjące się od wnętrza odrośnika światło Księżyca.

     

    Ogólnie sugeruję, po pierwsze, poczytać teksty które podlinkowałem. Craig Stark wie co pisze. Po drugie, bardzo wartościowy jest też ten wątek:

     

    Sony IMX183 mono test thread - ASI, QHY, etc. - Beginning Deep Sky Imaging - Cloudy Nights

     

    Ja wiem, że dotyczy kamery mono z sensorem IMX183, ale jest tam multum ciekawych informacji, pozwalających zrozumieć, o co chodzi z kalibracją, szumem, flatami itp. A pan Jon Rista to kolejny koleś, który wie o czym pisze. Uprzedzam - wątek ma prawie 50 stron. Ale warto.

     

    Po trzecie wreszcie, warto sięgnąć do książek, ale niestety angielskojęzycznych. Kwestie szumu i kalibracji są fajnie wyjaśnione np. w The Deep Sky Imaging Primer.

     

    Dobra, chyba tyle, i tak już siedzę nad tym postem ze dwie godziny ;) 

    • Lubię 3
    • Dziękuję 2
  4. 19 minut temu, MarekS99 napisał(a):

    Jeśli uśrednia wszystkie piksele to w jaki sposób wzrasta SNR? 

     

    Szum to tak naprawdę po prostu niedokładność, z jaką mierzymy liczbę fotonów lecących z danego fragmentu nieba. Im więcej fotonów nałapiesz, tym mniejsza będzie ta niedokładność w stosunku do wartości sygnału. Proponuję, żebyś uważnie i ze zrozumieniem przeczytał te artykuły, które podlinkowałem wyżej :)

  5. 7 godzin temu, MarekS99 napisał(a):

    Program porównuje jasności punktów i sprawdza jak się mają piksele sąsiednie. Uśrednia wartości  stosując taki algorytm, że to co uzna za sygnał uśrednia a to co za szum uśrednia ale w pierwiastku.

     

    Sorki, ale tak nie jest (żeby nie napisać - to jest kompletna bzdura ;) ). Program uśrednia wartości wszystkich pikseli, i tyle. Z samego tego procesu wynika, że szum się uśrednia i wyrównuje.

     

    Proponuję poczytać świetną serię artykułów "Fishing for photons" na Cloudy Nights, autorstwa Craiga Starka - kolesia, który zrobił m.in. PHD do guidingu.

     

    Fishing for Photons - Articles - Articles - Cloudy Nights

     

    Zwłaszcza artykuły "Signal to noise", ale pozostałe też są bardzo dobre.

    • Lubię 2
  6. Była pogoda, trzeba było focić, no matter what ;) Wywlokłem na taras trzy zestawy, dwa standardowe i jeden próbny, tzn. ED80 na CEM-25P, z Nikonem D5100. Standardowe fociły w Ha, a próbny skierowałem na gromadkę kulistą NGC 2419, na zasadzie "a dobra, zobaczymy co wyjdzie". Zachęcony wyjątkowo dobrym prowadzeniem CEM-a ustawiłem ekspozycje na 240 s, i to był niestety błąd - gwiazdy przejarałem masakrycznie, mimo ustawienia ISO 200 w aparacie. No ale coś tam widać, więc wrzucam, zwłaszcza że gromadka jest bardzo rzadko fotografowana - na forum znalazłem raptem kilka zdjęć z ostatnich 12 lat.

     

    Technikalia:

     

    Nikon D5100 @ ISO 200, ED 80 + FF/R 0,85x, CEM-25P, 91 x 240 s, dithering w RA po każdej klatce, 60 flatów, stackowane i wstępnie rozciągane w Siril, kosmetyka w GIMP, opisy w ASTAP. Jeśli Nikon pozostanie przypięty do ED-ka, to muszę popracować nad odległością FF - matryca i chyba też tilterem, bo gwiazdy na rogach mogłyby być lepsze.

     

    r_db_pp_light_stacked-stretch-16bit-nostars.thumb.jpg.fdacbd5dcd76b62fe01cc48f7139d0ae.jpg

     

    r_db_pp_light_stacked-stretch-16bit-nostars-opis-DS.thumb.jpg.2ff237f4e202f99b0ee26795a7953bc9.jpg

     

    r_db_pp_light_stacked-stretch-16bit-nostars-opis-hyperleda.thumb.jpg.f4a86473e63ffcc390ab11be8ac1c909.jpg

     

    I jeszcze dla porównania fotka z zeszłego roku, też Nikonem D5100, ale podpiętym do Newtona 150/750 na EQ3-2. Ekspozycja: 320 x 30 s, ISO 800., flaty, focone z tego samego miejsca, czyli z południowej części Wrocławia. Siądę może jeszcze do tego zdjęcia, bo kolory gwiazd możnaby zdecydowanie bardziej wyciągnąć :)

     

    Autosave-stretch.thumb.jpg.b3a70b8011f43f576c9316a6d72f8d79.jpg

     

     

     

     

    • Lubię 4
  7. Hej,

     

    Wracam jeszcze do fotki Pacmana, którą jakiś czas temu tu wrzuciłem. Nie daje mi ten materiał spokoju, bo i efekty wciąż były niezadowalające. Tym razem podszedłem trochę inaczej do obróbki. Jako luminancję wziąłem te ponad 8 godzin Ha, natrzaskane przez TS-a 65Q, ale jako RGB użyłem czyste RGB, bez żadnego filtra, focone jeszcze w zeszłym roku ED-kiem 80 (zamiast RGB które fociłem TS-em 65Q z filtrem CLS). Celem było osiągnięcie koloru jak najbardziej zbliżonego do "naturalnego", czyli takiego, jaki wychodzi modowanym aparatem bez żadnych filtrów, po kalibracji kolorystycznej na gwiazdach. Efekt poniżej:

     

    Ha-TS65-RGB-ED80-v2.thumb.jpg.2deb27c9b147fa1ec3c90e509b90058d.jpg

     

    Wg mnie jest całkiem nieźle - da się odróżnić te drobne "kijankowate" struktury wokół centrum, a całość jest w miarę gładka i kontrastowa. Jedyna różnica to taka, że w RGB nie potraktowanym luminancją z Ha centrum mgławicy jest jaśniejsze (bo ma większy udział niebieskiego/zielonego, których filtr Ha nie przepuszcza). Ogólnie jestem bardzo zadowolony z efektu, bo jest wg mnie o wiele lepiej i ciekawej niż było. Ale nie mam złudzeń - zaraz mnie zjedziecie, że za mało czerwono, że strasznie mało kontrastowe, że tu szumi, a tam rozmazane, a w ogóle to kup ASI2600 i Pixa, i przestań zawracać głowę ;)

     

    Technikalia:

     

    Aparat - Canon 1100D mod @ ISO 1600

    Ha - TS65Q w ilości ponad 8 h z filtrem Astronomik Ha 12 nm

    RGB - ED80 w ilości ponad 3 h bez filtra

     

    Focone z osiedla w południowej części Wrocławia, niebo Bortle 6

     

    Stackowanie - Siril

    Obróbka - Siril (kalibracja kolorystyczna i wstępne rozciąganie), Starnet (oddzielenie gwiazd) i GIMP (złożenie wszystkiego do tzw. kupy, kosmetyka, odszumianie itp :) ).

    • Lubię 3
  8. 38 minut temu, wismat napisał(a):

    Wersja angielska daje jednoznaczne wyjaśnienie wszystkich wątpliwości, które poruszyliśmy w tym wątku :)

     

    The term yellow dwarf is a misnomer, because G-type stars actually range in color from white, for more luminous types like the Sun, to only very slightly yellowish for the less massive and luminous G-type main-sequence stars lower down.[7] The Sun is in fact white, but it can often appear yellow, orange or red through Earth's atmosphere due to atmospheric Rayleigh scattering, especially at sunrise and sunset.

    • Dziękuję 1
  9. Z ciekawości sprawdziłem w Telescopiusie - w miejscu znalezionym przez kol. @Herbert West nic nie ma, w żadnym z Surveyów:

     

    blue-no-closeup.thumb.jpg.e51260917977b3e06aea8cef68404d90.jpg

     

    To jest ten rejon gromady:

     

    blue-no-wide.thumb.jpg.42b570086072f6f0e3e368c52f4b1d1a.jpg

     

    Natomiast podobna niebieska paciaja jest po drugiej stronie gromady:

     

    blue-closeup.thumb.jpg.7141fab9279dbfa6d45145e1e6fd8683.jpg

     

    A konkretnie to tu:

     

    blue-wide.thumb.jpg.8a54d18df8b6608be3d1c8b54f262110.jpg

     

    Czy to ma jakiś związek - nie wiem, znalazłem to pokazuję, może kogoś to zainspiruje :)

     

    Dobra, tyle, nie zaśmiecam wątku. A zdjęcie super! :)

    • Lubię 1
  10. Wygląda na to, że każdemu z nas gdzieś dzwoni, ale każdemu w trochę innym kościele ;)

     

    2 godziny temu, dobrychemik napisał(a):

    "Kolor" biały jest wytworem mózgu generowanym w przypadku, gdy efektem próbkowania światła są trzy zbliżone wartości wzbudzenia trzech rodzajów komórek światłoczułych.

     

    21 minut temu, ko20 napisał(a):

    A tak na naprawde jest białe zgodnie z defiicją którą podałeś - zbliżone wartości RGB na komórkach śwaitłoczułych. To nasz mozg interpretuje jako białe. 

     

    Przy czym warto dodać, że nasze komórki światłoczułe szybko się męczą. Dlatego gdy przez chwilę patrzymy na powierzchnię o jakimś odcieniu, to po chwili zaczynamy mieć wrażenie, że jest coraz bardziej biała (lub szara). Na tym polega zjawisko tzw. powidoków.

     

    2 godziny temu, dobrychemik napisał(a):

    Przykład: nie ważne jaką lampę sobie włączycie to mleko zawsze wyda wam się białe, choć przecież będzie rozpraszało inne światło, o innym widmie. Mózg elastycznie stosuje automatyczny balans bieli.

     

    Przez chwilę po zapaleniu innego światła niż białe, mleko będzie miało dla nas taki kolor, jak to inne światło. Dopiero po chwili zaczniemy je widzieć jako białe.

     

    1 godzinę temu, MarekJ71 napisał(a):

    Trochę jestem zaskoczony informacją, że rozpraszanie Rayleigha w atmosferze powoduje, że Słońce zmienia kolor z żółtego na biały. Byłem przekonany, że jest odwrotnie - czytałem kiedyś, że Słońce widziane z kosmosu ma białoniebieski kolor, a kolor żółty który widzimy jest właśnie efektem rozpraszania światła Słońca w atmosferze.

     

    No właśnie, bo tu jeszcze trzeba by doprecyzować, czy chodzi o kolor Słońca obserwowanego bezpośrednio, czy o kolor całęgo światła  lecącego z nieba, padającego np. na białą kartkę. Bezpośrednio - chyba będzie żółtawe, właśnie z powodu rozpraszania, ale biała kartka będzie biała, bo do tego żółtawego, bezpośredniego, dochodzi jeszcze to rozproszone, lecące ze wszystkich kierunków (które powoduje, że cienie np. na zdjęciach śniegu są niebieskie, a nie szare).

     

    2 godziny temu, dobrychemik napisał(a):

    A wracając do książki to myślę, że autor na siłę stara się obiektywizować pojęcie z definicji subiektywne.

     

    No ale kolor gwiazd da się jednoznacznie, standardowo zmierzyć i określić:

     

    Color index - Wikipedia

     

    Wrażenie barwy, jakie my widzimy, to jedno, a różnica z pomiaru w dwóch filtrach jest jednoznaczna.

     

    Tylko teraz tak się zastanawiam - jeśli Słońce widziane na wprost jest żółtawe, z powodu rozpraszania (nawet w czasie górowania), ale światło padające na białą kartkę jest białe (bo dochodzi jeszcze to rozproszone), to w takim razie finalnie Słońce, fotografowane spoza Ziemi, też powinno być białe (no bo na kartkę pada światło sumaryczne, bezpośrednie i rozproszone - a oba pochodzą ze Słońca). Chyba że to, co uznajemy za światło białe, jest tak naprawdę lekko żółtawe, a widzimy je jako białe z powodu opisanego wyżej przyzwyczajenia komórek światłoczułych w oczach... (dobra, tu już wchodzę na grząski grunt, i wcale nie jestem pewien tego co piszę ;) ).

    • Lubię 1
  11. 10 godzin temu, Herbert West napisał(a):

    A myślałem, że może jakiś dziwny obiekt, szkoda :-)

    Swego czasu ktoś tu publikował zdjęcie, z którego usunął ledwo widoczne pyły, bo się bał, że mu społeczność zarzuci, że nie umie w obróbkę, bo jakieś plamy ma na zdjęciu (ma być widać to, o czym wszyscy wiedzą, że ma być widać, a nie to, co naprawdę widać ;) ). Więc nie skreślałbym tak od razu tego artefaktu ;)

     

    (żeby nie było - nie jestem entuzjastą ufo i innych tego typu głupot, piszę tylko, że czasem coś, co będzie uznane za artefakt wcale nim być nie musi).

  12. Tu jest znakomita dyskusja odnośnie kolorów:

     

    https://www.cloudynights.com/topic/547513-universally-accepted-tint-color-range-for-h-alpha-emission/

     

    Dotyczy wprawdzie mgławic Ha, ale pada w niej też takie stwierdzenie:

     

    The Sun is technically classified as a G2v star, which would be slightly yellow, but because of Rayleigh scattering in the atmosphere, it looks white, and it's light is white. Our eyes evolved over millions of years to see sunlight as white.

     

    Więc raczej stawiam na to, że Słońce sfotografowane spoza Ziemi będzie lekko żółte, a z Ziemi - białe (o 12 w południe, przy czystym niebie, tak jak wtedy, gdy się robi balans bieli na szarą kartę). Neil jest świetnym popularyzatorem, ale nie zdziwiłbym się, gdyby niektóre tematy traktował trochę po łebkach - nie można znać się na wszystkim...

     

    EDIT po zapoznaniu się z linkiem podanym niżej przez kol. @wismat - zwracam honor Neilowi, wygląda na to, że Słońce faktycznie jest białawe (oglądane poza atmosferą). A zdanie z CN, które przytoczyłem wyżej, jest nieścisłe.

    • Lubię 1
  13. 10 godzin temu, PawełED80 napisał(a):

    Jest może jakiś program który pokaże miniatury tych dużych plików? 

    Miniatury - nie wiem, ale do przeglądania fitsów jest ASIFitsView, w pakiecie softu od ZWO (ASIStudio się to nazywa, czy jakoś tak), i jest to wg mnie najlepsza przeglądarka plików graficznych, jaką stworzyła ludzka cywilizacja ;) Genialnie prosta, nieprzekombinowana, i co najważniejsze - nie zmienia powiększenia gdy przeskakuje się na kolejne klatki. Idealne do szybkiego przelecenia przez całą serię zdjęć, żeby sprawdzić, czy któreś nie jest pojechane. 

  14. 12 minut temu, PawełED80 napisał(a):

    Gdy kopiuję zdjęcia na komputer są w bardzo małym rozmiarze.

    Dlaczego się zapisują jak na załączonych zdjęciach ?

     

    Ponieważ wrzucasz w DSS także miniaturki, zapisane przez ASIair w formacie jpg. Do kazdego zdjęcia w formacie fits jest taka miniaturka w jpg. Możesz te miniaturki spokojnie wyrzucić, ważne są tylko pliki fits.

    • Lubię 1
  15. I jeszcze wersja trzecia (dodałem ją też do pierwszego posta dla porównania):

     

    drizzle-rgb-colcalib-16bit-noisereduction-stretch-nostars.thumb.jpg.afe169f64f72728d16498c0cb131196e.jpg

     

    Metodyka:

    Zestackowałem materiał jeszcze raz, tym razem z opcją Drizzle 2x (to nie to samo, co algorytm Bayer Drizzle, o którym pisałem wcześniej), i zanim cokolwiek zacząłem rozciągać, to na wersji Ha dałem standardowe GIMP-owe odszumianie, a na wersji RGB - rozbicie na dwie bliźniacze warstwy, dolna potraktowana blurem, a górną użyłem jako luminancji. Dzięki temu kolorowy szum na wersji RGB został trochę zredukowany. Tak przygotowane pliki normalnie rozciągnąłem w Sirilu, usunąłem gwiazdy Starnetem++, i wrzuciłem wszystko jako warstwy w GIMP-ie. Materiał RGB rozbiłem na poszczególne kanały, wersję Ha dodałem do kanału R ustawionego na Opacity 20%, i taki syntetyczny kanał Ha+R z powrotem połączyłem z G i B w warstwę HaRGB. Użyłem ją jako kolor, a jako luminancję warstwę z samym Ha. Gwiazdki oczywiście potraktowane osobno - kolor z materiału RGB, luminancja z materiału Ha, żeby były jak najmniejsze.

     

    Więcej raczej z tego nie wyciągnę, przynajmniej na razie. Głównie przeszkadza mi ciapkowaty szum tam, gdzie mgławica jest narzadsza, czyli na krawędziach. Jeśli ktoś ma jakieś mniej lub bardziej konstruktywne uwagi, to nadal zapraszam do komentowania :)

    • Lubię 1
  16. 7 minut temu, Tuvoc napisał(a):

    Dzięki wielkie za materiał! Będę się bawić :)

     

    Bardzo dziękuję za chęci :)

     

    7 minut temu, Tuvoc napisał(a):

    Argumenty dotyczące sprzętu i obróbki to jakbym słyszał siebie sprzed pewnego czasu ;) Spokojnie minie Ci :D

     

    No, faktem jest, że jeszcze nie tak dawno upierałem się (i to przez ładnych parę lat), że absolutnie nie zamierzam zacząć używać GoTo, bo bez problemu orientuję się na niebie, i nie będzie za mnie jakaś maszyna myśleć. Ale tylko do momentu, gdy po raz pierwszy nie spróbowałem GoTo z platesolve'em. Obecnie życia sobie bez tego nie wyobrażam :D Z filtrami NB i modowaniem aparatu było to samo - koledzy @Jarek J. i @Noth od stu lat mi ciosali kołki na głowie, że zmodyfikuj aparat i zmodyfikuj aparat, i zacznij focić przynajmniej Ha, itp. itd. A ja nie, nie ma mowy, nie zawracajcie mi głowy, żadne mody, i proszę się ode mnie odwalić :D W niniejszym wątku widać, jak bardzo jestem konsekwentny ;) Więc nie wykluczam, że i GIMP mi minie.

    • Haha 1
  17. Godzinę temu, Tuvoc napisał(a):

    Skoro chcesz :D

     

    Po to tu jestem :) Zaczynam wreszcie ogarniać podstawy akwizycji i obróbki na tyle, żeby zacząć się uczyć wykorzystywać potencjał materiału :) Nota bene - mam Twoją stronę www w Ulubionych, już tam zdążyłem podpatrzeć patent, żeby focić materiał do gwiazd na bardziej przymkniętej przysłonie niż materiał do mgławic / tła. Badzo fajne zdjęcia, i bardzo fajna strona.

     

    Godzinę temu, Tuvoc napisał(a):

    wiem doskonale, że przejście od tylko RGB lub tylko narrowband do włączania wodoru w RGB nie jest proste.

     

    Dodam, że moje dotychczasowe RGB też raczej było takie mało efektowne. Choć z ogniskowymi dłuższymi niż 135 mm dopiero zaczynam, bo do tej pory fociłem głównie Samyangiem 135 mm, a to jednak trochę inny materiał, tak pod względem skali, jak i ilości sygnału - f/2,8 vs f/6,46 to ponad 5x więcej światła w tym samym czasie.

     

    Godzinę temu, Tuvoc napisał(a):

    Wodór jest świetnie zebrany i opracowany!

     

    Dziękuję. Być może dlatego, że prawie w ten proces nie ingerowałem ;) Tyle co wycelować w obiekt, kontrolować ostrość, i trafiać w ten sam kadr w kolejnych sesjach (nota bene - po ok. 1/3 zbierania materiału obróciłem aparat o 90 stopni, dlatego surowe klatki wymagają cropa). A potem rozbicie stacka na R, G i B w Sirilu i lekkie wyciągnięcie R funkcją Histogram Transformation.

     

    Godzinę temu, Tuvoc napisał(a):

    Rób to jeszcze raz, albo jeszcze z 10 razy :D

     

    Dokładnie taki mam plan :)

     

    Godzinę temu, Tuvoc napisał(a):

    jak tylko masz możliwość to odpuść sobie EQ5 i przejdź na HEQ5.

     

    Na razie nie mam takiej możliwości. Chcę w sposób optymalny wykorzystać to, co mam do dyspozycji. Udało mi się dograć prowadzenie w EQ5 na tyle, że idzie płasko jak stół (w porównaniu z tym, co było wcześniej), a dokładność rzędu 0,5-0,7" w czasie 400 sekund powinna chyba być OK dla skali 2,55"/px? Poza tym focę z osiedla, wszędzie dookoła mam budynki i dachy, czasem ktoś otworzy okno, innym razem zalatuje ciepłe powietrze znad któregoś komina - seeing zapewne nie jest idealny, więc dokładniejszego prowadzenia chyba i tak bym nie wykorzystał (choć oczywiście lepiej mieć większą dokładność, niż mniejszą :) ).

     

    Godzinę temu, Tuvoc napisał(a):

    Druga sprawa to aparat. Miałem, przerabiałem to i jak się nie ma co się lubi to ok, można z nim pracować ale szkoda Twojego czasu i mordowania się z obróbką. Kamera chłodzona, albo przynajmniej nowszy model DSLR to będzie skok jakościowy i dużo mniej frustracji później

     

    Tu moje podejście jest podobne jak w przypadku montażu - chcę się najpierw nauczyć wykorzystywać optymalnie to, co mam. Nie sztuka kupić nowy, lepszy sprzęt, i rzucać w problemy pieniędzmi, tak potrafi każdy, kto ma kasę. Sztuką jest próbować zrozumieć swój sprzęt, ten który się ma, i nauczyć się go używać tak, żeby zmaksymalizować zalety a zminimalizować wpływ wad.

     

    Co do aparatów, to oprócz C1100D mod mam jeszcze Canona 7D MkII, Nikona D5100, pożyczonego Canona 4000D oraz niedawno kupioną kamerę ASI1600MC-Cool, obecnie podpiętą do Samyanga 135 mm. Wszystkie aparaty mam pomierzone, w sensie zmierzyłem im szum odczytu, poziomy prądu ciemnego oraz rzeczywiste przełożenie e-/ADU dla każdego ISO. Na tej podstawie policzyłem sobie, jaka powinna być średnia jasność tła zdjęć, żeby być sporo ponad szumem, i teraz zaczynam tą wiedzę wykorzystywać. Focenie z miasta bardzo przy tym pomaga, bo niebo jest tak jasne, że nawet przy f/6,46 ekspozycja 240 s z Ha wystarcza, żeby być powyżej wartości 10 x szum_odczytu^2. Poza tym przy zaświetlonym niebie chłodzona kamera nie jest tak niezbędna, bo szum lecący razem z LP i tak zgłusza szum termiczny. Zwłaszcza teraz, w czasie tej "pseudo-zimy", gdy temperatury matryc oscylują w granicach 3-6 st. C.

     

    Poza tym mam wrażenie, że za sporą część tego ciapkowatego szumu, który zwykle mam na zdjęciach, ponosi winę algorytm debayeryzacji Bilinear Interpolation w DSS-ie, a sam nie aparat jako taki. Zacząłem ostatnio eksperymentować z algorytmem Bayer Drizzle, ale za wcześnie jest, żebym mógł coś konkretniejszego powiedzieć.

     

    Godzinę temu, Tuvoc napisał(a):

    Nie zaśmiecałbym kadru jakimiś tabelkami z kolorystyką itd. Czym mniej takich ozdobników tym lepiej skupić się na samej fotografii.

     

    Częściowo się zgodzę, a częściowo nie ;) Mam wrażenie, że przynajmniej dla części osób kolor gwiazd to jest kwestia mało istotna, więc postanowiłem wrzucać tę tabelkę, żeby zwrócić uwagę, że jednak z kolorami gwiazd to nie jest taka dowolność jak w przypadku kolorów mgławic w palecie HST, i da się je w miarę dokładnie określić.

     

    Godzinę temu, Tuvoc napisał(a):

    Po 8 godzinach H-alpha i 1.5 RGB powinna być żywa, intensywna mgławica, a jest taka zduszona i nieco mdła. Podobnie z kolorami.

     

    Pytanie brzmi, czy te lepsze efekty, o których piszesz, da się osiągnąć w podstawowym oprogramowaniu, tzn. w Sirilu i GIMP-ie. Celowo nie chcę przechodzić na Pixa, z tych samych powodów co w przypadku upgrade'u sprzętu - nie sztuka jest osiągać piękne obrazki, gdy gros roboty robi za nas soft i/lub sztuczna inteligencja. Oczywiście zdaję sobie sprawę, że obsługa Pixa to nie jest bułka z masłem, ale mam jednak wrażenie, że trochę przypomina ona pilotowanie wspólczesnego samolotu pasażerskiego - pilot musi umieć naciskać konkretne guziczki, a samego fizycznego pilotowania samolotu tam nie ma, bo wszystko robią automaty. Ja na razie chciałbym się nauczyć latać małą awionetką, która pozwala "poczuć" samolot i to, co się z nim dzieje w powietrzu (że sobie pozwolę na taką analogię ;) ). Patrzę na tutoriale obróbki Ha+RGB w internecie, część jest robiona w PS-ie, a GIMP wcale nie odbiega wiele od PS-a. Więc mam nadzieję, że jednak da się uzyskać lepsze efekty niż do tej pory, bez zdawania się na zmatematyzowany soft... :)

     

    Godzinę temu, Tuvoc napisał(a):

    P.S. Podrzuć stacki :D

     

    Proszę bardzo: https://we.tl/t-2jA60FR3zh

     

    • Lubię 2
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.