Jump to content

holeris

Społeczność Astropolis
  • Content Count

    106
  • Joined

  • Last visited

Community Reputation

61 Neutral

About holeris

  • Rank
    Regulus

Informacje o profilu

  • Płeć
    Mężczyna
  • Skąd
    Wrocław

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Wyglądają OK. bla To wiele tłumaczy, dzięki! Czym się w zasadzie różni konwersja do sRGB od dołączenia profilu sRGB?
  2. Ciągle mam jakieś dziwne objawy. Robię tak: 1. Otwieram w PS stacka w formacie TIF. 2. Przypisuję mu profil sRGB (opcja assign profile). 3. Obrabiam testowo zdjęcie. 4. Zapisuję TIFa (przez save as). Opcja dołączenia profilu jest zaznaczona. 5. Zapisuję JPG (przez export as). Nie zaznaczam konwersji do sRGB, zaznaczam dodanie profilu. 6. JPG otwieram w PS. Wygląda tak samo jak TIF w PS. 7. JPG otwieram w firefox. Wygląda tak samo jak TIF w PS. 8. W windowsowej przeglądarce obrazów, w paincie, nawet w rawtherapy JPG wygląda inaczej niż TIF w Photoshopie / Firefoxie - czerwień jest bardziej intensywna. 9. Wracam do TIFa w PS. Próbuję przekonwertować profil (opcja convert profile to). Z sRGB w identyczne sRGB - pojawiają się inne kolory w PS (takie jak w punkcie 8). Dlaczego mam taki efekt w punkcie 8? Skoro zdjęcie ma przypisany profil sRGB, a sRGB jest de facto standardem, to nie powinno się wszędzie wyświetlać tak samo? Efekt w punkcie 9 jest równie dziwaczny. Co robię źle?
  3. Tak, kupiłem ostatecznie asusa PA329Q. Wg testu na pclab:
  4. No tak, trochę to uprościłem. Masz oczywiście rację. W macierzy nie jest dosłownie zapisana liczba elektronów. W każdym razie jest to surowy sygnał, który w połączeniu z gainam i offsetem daje pośrednio informację o ilości elektronów. Pytanie czy później jest transformacja jakaś, czy po prostu jeden do jednego interpretujesz to "jak chcesz". Jak ustalisz, że to czerwony, to będziesz się poruszał po RGB w ramach (ilość ADU, 0, 0), co w wybranym gamucie będzie oznaczało inne miejsce na trójkącie barw. Dalej następuje już inwencja twórcza. Nasunęła mi się początkowo myśl, że w związku z tym wszystkim zawsze powinienem pracować w gamucie Adobe RGB, bo przecież w każdej chwili, np. w celu prezentacji w internecie, mogę przekonwertować do sRGB. Ale z drugiej strony, obrabiając zdjęcie od początku w Adobe RGB mogę uzyskać kolory, których nie ma w sRGB i wtedy podczas konwersji zmienię wygląd zdjęcia i może przestać odpowiadać temu, co sobie zamierzyłem. Co z kolei skłania mnie do używania formatu sRGB, chyba że będę planował obrobić zdjęcie pod wydruk. Z tym, że wtedy będę się musiał liczyć z faktem, że jeśli będę je chciał kiedyś opublikować w internecie, to może zostać odebrane inaczej niż sobie zamierzyłem, bo a) Adobe RGB może nie być wspierane, b) większość ludzi nie ma odpowiednich monitorów.
  5. Świetne tłumaczenia, dziękuję! Nurtuje mnie jeszcze jedna kwestia: gdzie zaimplementowany jest algorytm transformujący liczbę elektronów na konkretne wartości RGB i czy w ogóle takowy istnieje? W moim rozumieniu zarejestrowane przez matrycę fotony przekształcane są w elektrony, przechodzi to wszystko przez przetworniki A/C, etc. Kamera ostatecznie zapisuje tę surową informację o ilości złapanych elektronów na pixel mniej więcej w postaci zero fotonów - w polu ustawiamy wartość 0, maksymalna głębokość studni - w polu ustawiamy maksa dla 14 bitów (w zależności od kamery, ilość bitów może się różnić). Tak więc mamy plik, w którym zapisana jest (nieważne w jakiej postaci) macierz mówiąca nam ile zarejestrowało się elektronów na piksel. W każdym polu tej macierzy zapisana jest 14-bitowa wartość. W którymś momencie należy jednak zdecydować jak przekształcić ilość elektronów w informację o kolorze (uprośćmy sytuację do kamery mono, bez maski bayera). Czy tutaj zachodzi jakakolwiek transformacja? Czy jest jakaś zasada, którą każdy producent oprogramowania sam implementuje? Czy też po prostu, w zależności od przyjętego gamutu, 0 bitów oznacza czerń, a maksymalna ilość bitów w macierzy taki a taki kolor, w zależności od przyjętego gamutu i koloru, który sobie akurat dla naszej, monochromatycznej przecież, klatki przyjęliśmy. Czyli zdjęcie jest de facto 14 bit na kanał i znów od softu zależy czy przy zapisie do 16bit rozciągnie je czy zostawi 2 bity puste?
  6. Jeszcze trochę podrążę. Format FITS nie ma informacji o przestrzeni barw. Tam informacje są surowe. A format TIF? Bo jak otwieram stacka to on nie ma żadnego profilu. Czy to dlatego, że TIF ma surowe dane, bez przestrzeni barw? Czy też dlatego, że Siril mu nie ustawił profilu ICC, ale zapisane zostało mimo wszystko w sRGB? Innym słowy gdzie w takim workflow pierwszy raz surowe dane zapisywane są w którejś z przestrzeni barw: Kamera -> pliki FITS -> Siril -> Plik TIF -> PS -> Plik TIF -> Plik JPG
  7. Czyli w moim przypadku Siril ustawia profil sRGB, bo ewidentnie taki ma zdjęcie po stacku. Muszę poszperać jak to zmienić. A może przestawić Sirila, żeby też wyrzucał FITS i później zapisać to w czymś do TIFa AdobeRGB, tylko w czym? Hmmm
  8. A może w formacie "raw", czyli dla kamery FITS, nie ma jeszcze czegoś takiego jak przestrzeń barw? Dane są zapisane niezależnie, np. w postaci ilości zarejestrowanych fotonów o konkretnej długości fali. I dopiero przy konwersji do innego formatu pojawia się przestrzeń barw. W moim przypadku byłby to Siril, którym stackuje FITSy w FITa. Tylko nie mogę się póki co doszukać gdzie to w Sirilu ustawić, o ile oczywiście te moje rozważania są słuszne...
  9. Dzięki Waszym wytłumaczeniom uzupełnionym o własne poszukiwania chyba zaczynam rozumieć temat. Postaram się opisać to swoimi słowami i zarysować kwestie, gdzie wciąż mam wątpliwości. Jak coś, to korygujcie :-) Przestrzeń barw Przestrzeń barw to pewien matematyczny model określający kolory. Jednym z takich modeli jest model CIEXYZ. W modelu tym, podobnie jak w innych modelach RGB, arbitralnie i precyzyjnie wyznacza się trzy barwy podstawowe (np. za pomocą długości fali) oraz punkt bieli. Na tej podstawie można następnie wyznaczyć kolory możliwe w tym modelu do przedstawienia. Na poniższym rysunku model CIEXYZ zobrazowany jest wielokolorowym, zaokrąglonym trójkątem. Istnieją również inne przestrzenie barw jak sRGB czy Adobe RGB, gdzie temperatura barw podstawowych może być inna, skąd wynikają możliwości tych modeli jeśli chodzi o przedstawienie kolorów. Na rysunku niżej wyrażone są przez trójkąty wewnątrz trójkąta CIEXYZ. Pytanie: czy wierzchołki tych trójkątów wyrażają temperaturę barw czerwonej, niebieskiej i zielonej w modelu CIEXYZ dla sRGB / AdobeRGB? To by wyjaśniało dlaczego ProPhoto RGB leży poza CIEXYZ - jego kolory podstawowe leżą poza możliwościami CIEXYZ, tak? Przestrzeń barw a komputery Na komputerze każdy z kolorów zapisywany jest na określonej liczbie bitów. Dla 8 bitów na kolor mamy łącznie 24 bity możliwości, co daj łącznie ~16M kolorów. Dla 10 bitów wartość ta rośnie do ok miliarda (2^30). W zależności od przestrzeni barw w jakiej zapisane jest dane zdjęcie te same wartości poszczególnych kolorów mogą znaczyć coś innego, dlatego ważne jest, by zdjęcia zawierały profil ICC zawierający "przepis jak z liczb dojść do konkretnych kolorów". Ze względu na brak ciągłości oraz ograniczoną ilość bitów, muszą pojawić się kompromisy. I tak skrajne kolory, tzn. podstawowe czerwony / zielony / niebieski zawsze jesteśmy w stanie zapisać precyzyjnie. Natomiast od ilości bitów zależy rozpiętość tonalna, czyli jak dużo odcieni np. czerwonego jesteśmy w stanie zapisać. Przestrzeń barw w fotografii Kamera astronomiczna QHY168C robi zdjęcia 14bit na kanał, więc potrafi zobrazować znacznie więcej kolorów niż 10 bitowy monitor jest w stanie wyświetlić. Tu nasuwa mi się pierwsze pytanie. Jakiej przestrzeni barw używa kamera? Ustawia się to gdzieś w programach do akwizycji? Mój TIF z Sirila jest ewidentnie sRGB, czyli na starcie tracę część kolorów, tak? bla
  10. Wow! Dzięki @Adam_Jesion za tak obszerne wyjaśnienia. Myślę, że skorzystam na tym nie tylko ja, więc pomysł z wydzieleniem osobnego tematu był jak najbardziej trafiony.
  11. A gdzie to ustawić w PH? Tutaj?
  12. O ile dobrze rozumiem to oznacza, że pracując ze zdjęciem ograniczam się do gamutu sRGB i nie wykorzystuję pełni możliwości monitora, ale za to zyskuję na prezentacji - w internecie każdy zobaczy zdjęcie tak jak ja (o ile je dobrze wyeksportuję). A jeśli chciałbym obrobić zdjęcie wyłącznie do prezentacji na moim monitorze lub do wydruku, to jakie opcje najlepiej wybrać? Profil monitora jak miałem wcześniej? AdobeRGB? Czy jeszcze jakoś inaczej? Taka operacja, (znów) o ile dobrze rozumiem, spowoduje, że po konwersji zdjęcie może trochę zmienić kolory (u mnie na monitorze), bo szerszy gamut AdobeRGB będzie "rzutowany" na mniejszy sRGB? Czyli właśnie coś takiego co miałem teraz. Podsumowując: - jak do prezentacji w necie: obrabiać w sRGB (Working space), zapisywać "Export as" w SRGB - jak do prezentacji na moim monitorze: obrabiać w AdobeRGB (Working space), zapisywać przez "Save as" (???) - jak do wydruku: obrabiać w AdobeRGB, zapisywać przez "Save as" (???) Zgadza się? Piszę z pracy, więc nie mogę teraz dokładnie podejrzeć tych ustawień. Zrobię to wieczorem z domu.
  13. Kolejne podejście do obróbki. Ale coś mi dalej nie pasuje z kolorami przy konwersji do jpeg. Po przekowertowaniu da sRGB i otworzeniu poza PS kolory, zwłaszcza czerwień, robią się wyraźnie jaskrawsze (@Adam_Jesion pomocy). W PS w ustawieniach Edit -> Color settings mam ustawiony profil monitora. Wrzucam niżej wersję przed kowersją do sRGB i po niej. Dajcie znać czy widzicie różnicę. Przed kowersją do sRGB: Po konwersji do sRGB:
  14. A skąd siril wie jakie gwiazdy mają mieć kolory? Też sobie ściąga z neta?
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.