Skocz do zawartości

holeris

Społeczność Astropolis
  • Postów

    709
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    15

Treść opublikowana przez holeris

  1. Porównanie ceny z Google One czy Amazon Drive, wypada na korzyść Astrobina. Można mieć nieskończoną ilość zdjęć max. 50 MB każde za 37 euro rocznie. U Googla jest 100GB za 90zł rocznie. Na tiffa z zachowanymi warstwami 50MB w sumie mało (o ile można tam takie przechowywać - nie wiem, nie korzystam). No i Astrobin ma funkcje społecznościowe, których standardowym chmurom brakuje. W podstawowym planie Photoshopa jest 20GB, ale to też w zasadzie niezbyt dużo. Można powiedzieć taki gratis do PS. EDIT: Pozostaje oczywiście kwestia odbudowy zaufania po ostatniej wpadce.
  2. holeris

    Które APO

    https://drive.google.com/drive/folders/1GdzZQIGsMeORQdjv3gZP67RU1WPoilKq Masz 2 surowe klatki z NGC6992 (120s z filtrem IR-Cut z Gór Izerskich), tego co wyżej wkleiłem oraz 2 klatki z M81/M82 (180s z filtrem h-alpha 7nm z Wrocławia). Pamiętaj, żeby się przesadnie nie sugerować jeśli coś będzie nie tak. Przyczyną może być małe doświadczenie, a nie optyka.
  3. holeris

    Które APO

    Ja mam ten pierwszy podlinkowany teleskop, APO 102 / f7, kupiłem używanyz 2 lata temu. Niestety jestem zdecydowanie zbyt mało doświadczony, aby wypowiedzieć się na temat możliwości tego teleskopu. Czasem wychodzi aberracja, a czasem nie. Nie rozumiem od czego to zależy. Stosuję z kamerą QHY168C, z pikselem 4.8μm oraz z korektorem x0.8. Tutaj masz zdjęcie (moim zdaniem) bez aberracji. Patrz wersje na samym dole tego wątku:
  4. Pewnie, że nie ma, przecież ja nie o tym. Mówię, że wielkość piksela ma znaczenie dla prowadzenia.
  5. Chodzi też o skalę zdjęcia, czyli jak duży fragment nieba (w sekundach łuku) obejmuje 1 piksel. Im większy piskel, przy tej samej optyce, tym łatwiej o kompensacje pozornego ruchu gwiazd. Czytaj tańszy montaż, etc. Tutaj możesz obliczyć skalę w zależności od optyki (apertura, ogniskowa) oraz matrycy kamery (rozdzielczość, rozmiar piksela): http://www.12dstring.me.uk/fovcalc.php
  6. Miałem kiedyś podobnie. DSS nie chciał mi stackować krótkich, słabo naświetlonych klatek. Pomogło jedynie włączenie super pixela, ale to z kolei pogarsza rozdzielczość. Spróbuj zestackować w siril. Tylko będziesz musiał chyba przekonwertować do tiff najpierw.
  7. holeris

    Markarian BW

    Wygląda na jeden z wielu katalogów agregujących dane z kilku projektów badawczych. Pod tym linkiem jest napisane: Total 469,053,874 Stars 260,562,744 Galaxies 208,478,448 Unknown 12,682 Sam projekt Gaia skatalogował 2 miliardy gwiazd z drogi mlecznej, tak dla porównania. W głębokim polu Hubbla jest 10000 galaktyk, a to tylko 2.6 arcmin.
  8. holeris

    Markarian BW

    Ile jest znanych galaktyk? Jak to sprawdzić? Jest jakiś "zbiorczy" katalog zawierający wszystkie? Czy co projekt badawczy, to osobne dane i nikt tego nie podsumowuje?
  9. A ten jasny "rozbłysk" z lewej? Achernar?
  10. U mnie w pracy filtr zaczal wykrywac astropolis jako malicious website
  11. Wyglądają OK. bla To wiele tłumaczy, dzięki! Czym się w zasadzie różni konwersja do sRGB od dołączenia profilu sRGB?
  12. Ciągle mam jakieś dziwne objawy. Robię tak: 1. Otwieram w PS stacka w formacie TIF. 2. Przypisuję mu profil sRGB (opcja assign profile). 3. Obrabiam testowo zdjęcie. 4. Zapisuję TIFa (przez save as). Opcja dołączenia profilu jest zaznaczona. 5. Zapisuję JPG (przez export as). Nie zaznaczam konwersji do sRGB, zaznaczam dodanie profilu. 6. JPG otwieram w PS. Wygląda tak samo jak TIF w PS. 7. JPG otwieram w firefox. Wygląda tak samo jak TIF w PS. 8. W windowsowej przeglądarce obrazów, w paincie, nawet w rawtherapy JPG wygląda inaczej niż TIF w Photoshopie / Firefoxie - czerwień jest bardziej intensywna. 9. Wracam do TIFa w PS. Próbuję przekonwertować profil (opcja convert profile to). Z sRGB w identyczne sRGB - pojawiają się inne kolory w PS (takie jak w punkcie 8). Dlaczego mam taki efekt w punkcie 8? Skoro zdjęcie ma przypisany profil sRGB, a sRGB jest de facto standardem, to nie powinno się wszędzie wyświetlać tak samo? Efekt w punkcie 9 jest równie dziwaczny. Co robię źle?
  13. No tak, trochę to uprościłem. Masz oczywiście rację. W macierzy nie jest dosłownie zapisana liczba elektronów. W każdym razie jest to surowy sygnał, który w połączeniu z gainam i offsetem daje pośrednio informację o ilości elektronów. Pytanie czy później jest transformacja jakaś, czy po prostu jeden do jednego interpretujesz to "jak chcesz". Jak ustalisz, że to czerwony, to będziesz się poruszał po RGB w ramach (ilość ADU, 0, 0), co w wybranym gamucie będzie oznaczało inne miejsce na trójkącie barw. Dalej następuje już inwencja twórcza. Nasunęła mi się początkowo myśl, że w związku z tym wszystkim zawsze powinienem pracować w gamucie Adobe RGB, bo przecież w każdej chwili, np. w celu prezentacji w internecie, mogę przekonwertować do sRGB. Ale z drugiej strony, obrabiając zdjęcie od początku w Adobe RGB mogę uzyskać kolory, których nie ma w sRGB i wtedy podczas konwersji zmienię wygląd zdjęcia i może przestać odpowiadać temu, co sobie zamierzyłem. Co z kolei skłania mnie do używania formatu sRGB, chyba że będę planował obrobić zdjęcie pod wydruk. Z tym, że wtedy będę się musiał liczyć z faktem, że jeśli będę je chciał kiedyś opublikować w internecie, to może zostać odebrane inaczej niż sobie zamierzyłem, bo a) Adobe RGB może nie być wspierane, b) większość ludzi nie ma odpowiednich monitorów.
  14. Świetne tłumaczenia, dziękuję! Nurtuje mnie jeszcze jedna kwestia: gdzie zaimplementowany jest algorytm transformujący liczbę elektronów na konkretne wartości RGB i czy w ogóle takowy istnieje? W moim rozumieniu zarejestrowane przez matrycę fotony przekształcane są w elektrony, przechodzi to wszystko przez przetworniki A/C, etc. Kamera ostatecznie zapisuje tę surową informację o ilości złapanych elektronów na pixel mniej więcej w postaci zero fotonów - w polu ustawiamy wartość 0, maksymalna głębokość studni - w polu ustawiamy maksa dla 14 bitów (w zależności od kamery, ilość bitów może się różnić). Tak więc mamy plik, w którym zapisana jest (nieważne w jakiej postaci) macierz mówiąca nam ile zarejestrowało się elektronów na piksel. W każdym polu tej macierzy zapisana jest 14-bitowa wartość. W którymś momencie należy jednak zdecydować jak przekształcić ilość elektronów w informację o kolorze (uprośćmy sytuację do kamery mono, bez maski bayera). Czy tutaj zachodzi jakakolwiek transformacja? Czy jest jakaś zasada, którą każdy producent oprogramowania sam implementuje? Czy też po prostu, w zależności od przyjętego gamutu, 0 bitów oznacza czerń, a maksymalna ilość bitów w macierzy taki a taki kolor, w zależności od przyjętego gamutu i koloru, który sobie akurat dla naszej, monochromatycznej przecież, klatki przyjęliśmy. Czyli zdjęcie jest de facto 14 bit na kanał i znów od softu zależy czy przy zapisie do 16bit rozciągnie je czy zostawi 2 bity puste?
  15. Jeszcze trochę podrążę. Format FITS nie ma informacji o przestrzeni barw. Tam informacje są surowe. A format TIF? Bo jak otwieram stacka to on nie ma żadnego profilu. Czy to dlatego, że TIF ma surowe dane, bez przestrzeni barw? Czy też dlatego, że Siril mu nie ustawił profilu ICC, ale zapisane zostało mimo wszystko w sRGB? Innym słowy gdzie w takim workflow pierwszy raz surowe dane zapisywane są w którejś z przestrzeni barw: Kamera -> pliki FITS -> Siril -> Plik TIF -> PS -> Plik TIF -> Plik JPG
  16. Czyli w moim przypadku Siril ustawia profil sRGB, bo ewidentnie taki ma zdjęcie po stacku. Muszę poszperać jak to zmienić. A może przestawić Sirila, żeby też wyrzucał FITS i później zapisać to w czymś do TIFa AdobeRGB, tylko w czym? Hmmm
  17. A może w formacie "raw", czyli dla kamery FITS, nie ma jeszcze czegoś takiego jak przestrzeń barw? Dane są zapisane niezależnie, np. w postaci ilości zarejestrowanych fotonów o konkretnej długości fali. I dopiero przy konwersji do innego formatu pojawia się przestrzeń barw. W moim przypadku byłby to Siril, którym stackuje FITSy w FITa. Tylko nie mogę się póki co doszukać gdzie to w Sirilu ustawić, o ile oczywiście te moje rozważania są słuszne...
  18. Dzięki Waszym wytłumaczeniom uzupełnionym o własne poszukiwania chyba zaczynam rozumieć temat. Postaram się opisać to swoimi słowami i zarysować kwestie, gdzie wciąż mam wątpliwości. Jak coś, to korygujcie :-) Przestrzeń barw Przestrzeń barw to pewien matematyczny model określający kolory. Jednym z takich modeli jest model CIEXYZ. W modelu tym, podobnie jak w innych modelach RGB, arbitralnie i precyzyjnie wyznacza się trzy barwy podstawowe (np. za pomocą długości fali) oraz punkt bieli. Na tej podstawie można następnie wyznaczyć kolory możliwe w tym modelu do przedstawienia. Na poniższym rysunku model CIEXYZ zobrazowany jest wielokolorowym, zaokrąglonym trójkątem. Istnieją również inne przestrzenie barw jak sRGB czy Adobe RGB, gdzie temperatura barw podstawowych może być inna, skąd wynikają możliwości tych modeli jeśli chodzi o przedstawienie kolorów. Na rysunku niżej wyrażone są przez trójkąty wewnątrz trójkąta CIEXYZ. Pytanie: czy wierzchołki tych trójkątów wyrażają temperaturę barw czerwonej, niebieskiej i zielonej w modelu CIEXYZ dla sRGB / AdobeRGB? To by wyjaśniało dlaczego ProPhoto RGB leży poza CIEXYZ - jego kolory podstawowe leżą poza możliwościami CIEXYZ, tak? Przestrzeń barw a komputery Na komputerze każdy z kolorów zapisywany jest na określonej liczbie bitów. Dla 8 bitów na kolor mamy łącznie 24 bity możliwości, co daj łącznie ~16M kolorów. Dla 10 bitów wartość ta rośnie do ok miliarda (2^30). W zależności od przestrzeni barw w jakiej zapisane jest dane zdjęcie te same wartości poszczególnych kolorów mogą znaczyć coś innego, dlatego ważne jest, by zdjęcia zawierały profil ICC zawierający "przepis jak z liczb dojść do konkretnych kolorów". Ze względu na brak ciągłości oraz ograniczoną ilość bitów, muszą pojawić się kompromisy. I tak skrajne kolory, tzn. podstawowe czerwony / zielony / niebieski zawsze jesteśmy w stanie zapisać precyzyjnie. Natomiast od ilości bitów zależy rozpiętość tonalna, czyli jak dużo odcieni np. czerwonego jesteśmy w stanie zapisać. Przestrzeń barw w fotografii Kamera astronomiczna QHY168C robi zdjęcia 14bit na kanał, więc potrafi zobrazować znacznie więcej kolorów niż 10 bitowy monitor jest w stanie wyświetlić. Tu nasuwa mi się pierwsze pytanie. Jakiej przestrzeni barw używa kamera? Ustawia się to gdzieś w programach do akwizycji? Mój TIF z Sirila jest ewidentnie sRGB, czyli na starcie tracę część kolorów, tak? bla
  19. Wow! Dzięki @Adam_Jesion za tak obszerne wyjaśnienia. Myślę, że skorzystam na tym nie tylko ja, więc pomysł z wydzieleniem osobnego tematu był jak najbardziej trafiony.
  20. O ile dobrze rozumiem to oznacza, że pracując ze zdjęciem ograniczam się do gamutu sRGB i nie wykorzystuję pełni możliwości monitora, ale za to zyskuję na prezentacji - w internecie każdy zobaczy zdjęcie tak jak ja (o ile je dobrze wyeksportuję). A jeśli chciałbym obrobić zdjęcie wyłącznie do prezentacji na moim monitorze lub do wydruku, to jakie opcje najlepiej wybrać? Profil monitora jak miałem wcześniej? AdobeRGB? Czy jeszcze jakoś inaczej? Taka operacja, (znów) o ile dobrze rozumiem, spowoduje, że po konwersji zdjęcie może trochę zmienić kolory (u mnie na monitorze), bo szerszy gamut AdobeRGB będzie "rzutowany" na mniejszy sRGB? Czyli właśnie coś takiego co miałem teraz. Podsumowując: - jak do prezentacji w necie: obrabiać w sRGB (Working space), zapisywać "Export as" w SRGB - jak do prezentacji na moim monitorze: obrabiać w AdobeRGB (Working space), zapisywać przez "Save as" (???) - jak do wydruku: obrabiać w AdobeRGB, zapisywać przez "Save as" (???) Zgadza się? Piszę z pracy, więc nie mogę teraz dokładnie podejrzeć tych ustawień. Zrobię to wieczorem z domu.
  21. Kolejne podejście do obróbki. Ale coś mi dalej nie pasuje z kolorami przy konwersji do jpeg. Po przekowertowaniu da sRGB i otworzeniu poza PS kolory, zwłaszcza czerwień, robią się wyraźnie jaskrawsze (@Adam_Jesion pomocy). W PS w ustawieniach Edit -> Color settings mam ustawiony profil monitora. Wrzucam niżej wersję przed kowersją do sRGB i po niej. Dajcie znać czy widzicie różnicę. Przed kowersją do sRGB: Po konwersji do sRGB:
  22. A skąd siril wie jakie gwiazdy mają mieć kolory? Też sobie ściąga z neta?
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.