Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 081
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Piotr K.

  1. A z miasta przy Księżycu też umiesz? Bo wiesz, pod ciemnym niebem to każdy potrafi A na serio, to gwiazdy Ci poleciały w seledyny, fiolety i zielenie - aż się dziwię, że taki fachura puszcza coś takiego, zwłaszcza że poprawa nie jest trudna - nawet mi się udało
  2. @Przemotar A skalę liczysz wg wzoru: skala [arcsec / px] = rozmiar piksela [um] / ogniskowa [mm] * 206,265 Co do FOV, to wystarczy wpisać dane sensora i ogniskową np. w Stellarium, albo w Sky Safari, i można sobie wyświetlić prostokącik (albo kwadracik w przypadku ASI 533) pokazujący jaki kawałek nieba będzie objęty kadrem. A o tych "ekwiwalentach ogniskowej" jak najszybciej zapomnij - wprowadzają tylko zamieszanie i robią ludziom wodę z mózgu. Ogniskowa jest jedna, zawsze ta sama, zmienia się FOV, a to co się liczy w astrofoto to skala zdjęcia.
  3. Właśnie sprawdziłem - przy mojej skali odwzorowania ok. 5,8 arcsec/px z Samyanga135 mm / ASI 1600 MC ten sposób się nie sprawdza. Odpaliłem na próbę na materiale sprzed ok. 2 tygodni, i niestety Starnet wycina nie tylko gwiazdy, ale też jasne jądro komety U Ciebie jądro komety jest wyraźnie większe niż gwiazdy, więc może Starnet go nie usunie.
  4. Wg mnie - wręcz przeciwnie. Ponieważ kometa się rusza, więc właśnie chcemy, żeby klatki były w miarę krótkie, żeby obraz komety nie zdążył się rozmazać. A jeśli klatek jest dużo, to tym lepiej, bo można spróbować wybrać co kilka do stackowania, tak jak pisałem wyżej. Ogólnie wydaje mi się, że im większe "powiększenie" (mniej sekund łuku na piksel), tym powinno być łatwiej uzyskać efekt wycięcia gwiazd ze stacka na kometę, bo im mniejsze są gwiazdy (im mniej pikseli zajmują), tym mniejsza szansa, że na kolejnych klatkach będą zajmować podobne miejsce. Najtrudniej będzie przy krótkich ogniskowych, typu obiektyw fotograficzny - bo tam gwiazdy są duże, o rozmiarach porównywalnych z obiektem, a z powodu małego "powiększenia" nie ma wielkich zmian położenia gwiazd między kolejnymi klatkami. Więc nakładanie się gwiazd na kolejnych klatkach będzie bardzo duże. Mój plan na najbliższą sesję z kometą to krótkie klatki, duża dziura f/2,8, tak żeby czas ekspozycji nie był zbyt długi, żeby złapać jak najwięcej sygnału, ale jeszcze przy "zamrożonym" ruchu komety, i nie za wiele klatek, żeby nie zajechać się przy ewentualnej konieczności rozbijania każdej klatki na gwiazdy i kometę. Wtedy zobaczę, czy te moje złote rady mają jakikolwiek sens
  5. @Bentoq A dlaczego Starnet miałby gładko usunąć podłużne ślady gwiazd? Starnet służy do usuwania gwiazd punktowych, a nie powyciąganych w kreski. Co do tego, że DSS sobie "nie radzi" - jeśli na kolejnych klatkach zarejestrowanych na kometę pozycje gwiazd będą się trochę na siebie nakładać, to wg mnie żadnym prostym algorytmem stackującym tego nie usuniesz, bo zbyt duża część danych dla danego piksela zawiera obraz gwiazdy lub jej fragmentu. Podobnie będzie w Sirilu, i nie ma się co dziwić, bo sprawa (celowo nie piszę "wina") jest zapewne po stronie materiału, a nie programu. Spróbowałbym dwóch podejść: 1. Zestackować np. co trzecią, albo co piątą klatkę zarejestrowaną na kometę. Odstęp czasowy pomiędzy klatkami powinien być na tyle duży, żeby położenia gwiazd na dwóch kolejnych klatkach nie nakładały się na siebie. Wtedy jest szansa, że algorytmy stackujące potraktują gwiazdy jako "odstające", i je wytną (analogicznie jak działa usuwanie hot pikseli dzięki ditheringowi). Tracisz sygnał na komecie, ale może nie będzie śladów gwiazd. 2. Bardziej czasochłonne - *każdą* klatkę light potraktować Starnetem, i zrobić dwie wersje - wersję tylko z kometą, oraz wersję tylko z gwiazdami. Potem zestackować osobno klatki z gwiazdami, i osobno klatki z kometą, i złożyć te dwa stacki jako dwie warstwy np. w GIMP-ie. Osobiście tych podejść jeszcze nie wypróbowałem, ale wydają się sensowne. Oczywiście możesz też rozważyć domyślny na forum sposób, to znaczy: "PYTANIE: Nie działa mi... [wstaw dowolny problem]" ODPOWIEDŹ: "Kup Pixa / Kup ASI2600 / Kup montaż ASA, i absolutnie nie staraj się zrozumieć, co może być podstawą problemu"
  6. Aktualizacja cen: Delos 14 mm - 1600 PLN z wysyłką Ethos 21 mm - 4100 PLN z wysyłką
  7. Ja wprawdzie korzystam z WiFi przy EQ3-2 z napędem Asterion, ale jest to genialne rozwiązanie, gdy steruję sesją przez ASIair. Bo nie muszę łączyć sterownika na montażu kabelkiem USB z ASIair - łączę się przez WiFi, co daje jeden kabel mniej, a działa znakomicie. Nie wiem, jak to jest rozwiązane w SWSA, który ma napęd tylko w RA - więc GoTo i tak nie zrobisz. Ale jeśli guding by działał po WiFi, nawet jeśli tylko w RA, to i tak jest to super rozwiązanie, jeśli nie trzeba by używać kabelka ST-4 (o ile SWSA oferuje możliwość guidowania inaczej niż po ST-4).
  8. @Wiesiek1952 Funkcję "Long exposure noise reduction" oczywiście znam. Mają ją nie tylko jednocyfrówki, ale także C4000D i C1100D. Tyle że ona polega na zrobieniu darka zaraz po wykonaniu właściwego zdjęcia, na takim samym czasie i ISO jak to zdjęcie - przez czas robienia darka mamy zablokowany aparat. Dla celów fotografii urodzinowo-imieninowo-przyrodniczej jest to przydatne, natomiast - z tego co wiem - w astrofotografii się tego nie stosuje, właśnie z powodu straty czasu (jak jest pogoda, to się zbiera lighty, a nie czeka, aż aparat skończy strzelać kolejnego darka po kolejnym lightcie; poza tym soft do obsługi sesji nie radzi sobie przy włączonej tej funkcji). Zwłaszcza, że w astrofoto zwykle zbiera się po kilkadziesiąt czy nawet kilkaset klatek. Czyli wygląda na to, że to, co napisałeś: ...dotyczy pojedynczych zdjęć, i obróbki w programach do dziennej fotografii. Ale odniosłem wrażenie, że chodziło Ci o programy do zbierania i obróbki materiału astrofoto, stąd było moje zdziwienie i pytanie.
  9. Możesz to rozwinąć? Jak konkretnie Canony robią ten mapping? Masz na myśli stworzenie mapy hot pikseli? Mam od dawna do dyspozycji 3 Canony, C4000D, C1100D i C7D2, przejrzałem właśnie na szybko menu C7D2, i jedyne co widzę to "Dust delete data", czyli możliwość zmapowania i usunięcia cieni paprochów. O hot pikselach nic nie piszą. Co do Cosmetic Correction, to np. w DSS jest taka opcja, ale włączenie jej nie powoduje automatycznego usunięcia hotów z materiału. Trzeba się troszkę pobawić suwakami, żeby zdefiniować, co ma zostać uznane za hota / deada. Trzeba przy tym bardzo uważać, bo łatwo spowodować, że z obrazu zostaną usunięte jasne środki gwiazd. Jeśli znasz metodę na zmapowanie złych pikseli przez aparat, i potem zastosowanie tej mapy w kalibracji, to daj proszę znać
  10. Tośmy się rozszaleli Kolega @Jupiter130 pewnie już dawno sobie znalazł inne hobby, a my teraz przez najbliższe pół roku będziemy się przerzucać kolejnymi wersjami i dyskusją czy były flaty, czy nie było, i że na pewno to czy tamto Poniżej wrzucam opis mega-rozciągniętego zdjęcia. Wg mnie jedyne, co można uznać za oznakę bandingu, to pionowa kreska po lewej stronie, zaznaczona czerwoną strzałką. Pozostałe "krawędzie", zaznaczone niebieskimi strzałkami, to krawędzie kolejnych klatek - kolega latał z kadrem po całej okolicy (albo celowo, albo nie udawało mu się porządnie wycelować w M42), w związku z czym wspólna część wszystkich klatek jest dość mała. Na dodatek, w którymś momencie kadr został obrócony o 180* (zapewne meridian flip), o czym świadczy obecność paprochów i po lewej stronie, i po prawej (zakreślone na różowo). To, że te paprochy są ułożone w rządek świadczy wg mnie właśnie o tej "wędrówce" kadru - paproch był jeden, ale zwielokrotnił się przez nałożenie klatek z niepokrywającym się polem widzenia. Zielona strzałka - to wynik przepalonej gwiazdy, coś a'la "pixel blooming" w CCD, tylko że odwrotnie , o czym wcześniej pisał jeden z kolegów. A co ma wspólnego banding z flatami? Banding to paski powstające na matrycy, ale bardzo ciemne, blisko zera, widoczne tylko gdy za mocno się rozciąga materiał. Schodzi przy użyciu biasów / darków, przynajmniej u mnie, no i dzięki ditheringowi. Za to flaty zwykle są dobrze naświetlone, mniej-więcej w połowie zakresu jasności, więc daleko od ciemnych wartości, w których siedzi banding. A przynajmniej taką mam wiedzę, jeśli jest inaczej, to podaj jakieś źródła, chętnie się dokształcę
  11. Noo, chłopie, szacun jeśli wyrównałeś to ręcznie. Serio Wg mnie prawdziwego kozaka w obróbce można poznać po tym, że umie zrobić takie rzeczy ręcznie, bez posiłkowania się Pixem czy Sirilem. Dlatego m.in. wciąż siedzę w GIMP-ie, i nie mam zamiaru przesiadać się na Pixa. Konia i śmietki w kadrze oczywiście widziałem, ale wyciąłem je kadrowaniem, bo stawianie w tych miejscach próbek do BkgExt powoduje powstawanie kolorowych plam po korekcji. Co do flatów - moje doświadczenie jest takie, że gdy dobrze zadziałają, to na obrazie, zwłaszcza w szerokim kadrze, zostają właśnie takie nierównomierne gradienty. Tym więcej, im niżej nad horyzontem był obiekt, bo w trakcie sesji gradient się zmienia, w miarę wędrówki obiektu nad horyzontem. Plus chwilowe chmury, które też chyba były na klatkach. Przy stackowaniu te zmiany się nakładają i powstaje właśnie takie porozlewane, plamiste tło. Co do tych paprochów po lewej, to nie bardzo mam pomysł, skąd się wzięły - zmiany położenia są wg mnie zbyt duże jak na zmiany położenia kadru w czasie sesji. Chyba, że jakiś paproch przemieszczał się na soczewkach...? Tak czy siak - poszedłem na łatwiznę i wyciąłem je kadrowaniem. Popróbuję z pełnym kadrem @Jupiter130 sama rejestracja tylko określa położenia i parametry gwiazd na każdej klatce, i służy do wyliczenia przesunięć pomiędzy klatkami. Ale w DSS-ie złe klatki trzeba usunąć z listy samodzielnie, ręcznie albo wg zadanego progu.
  12. O kurczę, co tam się dzieje w tym kadrze Ale ogólnie spoko fotka - gdyby nie te rozjechane gwiazdy byłoby spoko. Wszystkie 200 klatek to ma, czy tylko niektóre? Może gdyby do stackowania wybrać tylko klatki z mniej pojechanymi gwiazdami byłoby lepiej...? Tak czy siak, na szybko wychodzi coś takiego:
  13. Winietowanie spowodowane nierównomiernym oświetleniem matrycy to jedno - do korygowania tego (oraz usuwania cieni paprochów na optyce / matrycy) służą flaty. Gradientu od zanieczyszczenia nieba sztucznym światłem flatami nie usuniesz. Można go redukować np. filtrami ALP lub NB, albo sztucznie, czyli np. przez Background Extraction. Na zdjęciu kolegi @Jupiter130 widać wyrażnie, że pole jest ładnie, równomiernie oświetlone, i winietowania nie ma. Więc flaty, jeśli były stosowane, zagrały bardzo dobrze. To co nie zagrało, to próba usunięcia gradientu od LP.
  14. A konkretnie, to zajęło mi to ok. 5 minut. Bez usuwania gwiazd. Healing Tool w GIMP-ie Nota bene, bardzo fajna fotka. Gdyby nie to tło, zrąbane niedokładną korekcją tła, to byłoby całkiem spoko. Fajne kolory gwiazd - nie chodzi mi o obwódki spowodowane aberracją chromatyczną, tylko ogólnie.
  15. Raczej nie flatowanie, tylko Background Extraction w Sirilu. Widać wyraźnie, że ciemne miejsca są tylko wokół mgławicy, a to się bierze ze złego rozmieszczenia próbników. Mają być tylko na ciemnym tle nieba, a nie na jakichkolwiek pojaśnieniach związanych z mgławicą. To nie są paski związane z matrycą, tylko z przepalonymi gwiazdami. Więc paski będą zawsze tam, gdzie są gwiazdy, a nie w stałych miejscach na matrycy. Dithering tu nie pomoże. W moim C1100D jest dokładnie tak samo. Jedno, co mi przychodzi do głowy, to próbować zmiejszyć ISO, żeby zwiększyć studnię potencjału, i wydłużyć czasy ekspozycji. Ale w praktyce jeszcze tego nie próbowałem. Nie, kolego, dithering służy również do usuwania hot pikseli i dead pikseli. Właśnie dlatego, gdy stosuje się dithering, a matryca nie ma ampglow, można w ogóle NIE robić darków.
  16. Aktualne, obniżka cen: Delos 14 mm - 1650 PLN z wysyłką Ethos 21 mm - 4150 PLN z wysyłką
  17. Nie "ta satelita", tylko "TEN satelita". Satelita jest rodzaju męskiego.
  18. Zrobiłem tak, że pokolorowałem trzy czarno-białe warstwy, tą od red na czerwono, tą od green na zielono, a tą od blue na niebiesko, opcją Colourise, i ustawiłem tryby mieszania dla warstwy czerwonej i zielonej na Addition. Efekt wyszedł jaśniejszy, co jak sam zauważyłeś, nie jest dziwne, biorąc pod uwagę opis trybu Addition z manuala do GIMP-a: Addition mode is very simple. The pixel values of the upper and lower layers are added to each other. The resulting image is usually lighter. The equation can result in color values greater than 255, so some of the light colors may be set to the maximum value of 255. Aaa, dobra, już rozumiem - trzy warstwy, ale każda ma tylko jeden kanał. OK. Próbuję to właśnie ustawić na tej fotce M38, ale tak na szybko nie wiem, jak to zrobić - zakładka Channels zmienia widoczność kanałów dla całego obrazka, a nie dla pojedynczej, aktualnie wybranej warstwy...
  19. To prawda, i też się z tym kiedyś męczyłem. Rozwiązanie jest proste - przepuścić surowe stacki R, G i B przez proces rejestracji np. w DSS-ie. Wrzucasz te stacki jako trzy klatki, tak jakbyś chciał je zestackować, i odpalasz rejestrację, ale bez stackowania. Tylko trzeba mieć zaznaczone w którejś zakładce, żeby zachował klatki pośrednie, nie pamiętam gdzie to było, chyba w zakładce Output. To samo można też zrobić w Sirilu, wtedy nie trzeba nic dodatkowo zaznaczać, bo jak się robi kalibrację ręcznie, to wszystkie klatki pośrednie zostają na dysku. Dokładnie tak. Dlatego napisałem Ci już wcześniej, że kombinacjami z balansem bieli nic nie uzyskasz, bo nie do tego ta funkcja służy. Powiem tak - nie Ty pierwszy kombinujesz, jak z achromatu zrobić apo Teraz już mniej jest takich pomysłów, bo względnie dobrze skorygowane refraktory i obiektywy są coraz szerzej dostępne, ale kiedyś średnio co pół roku trafiał się kolejny odkrywca, który miał kolejny świetny pomysł na takie zabawy. Kończyło się to zawsze tak samo, to znaczy wcześniej czy później trzeba się przesiąść na lepsze szkło. Albo na Newtona, który - jako teleskop zwierciadlany - nie ma aberracji chromatycznej, a jest nawet tańszy niż achromaty. Jeszcze jeden sposób na obwódki wokół gwiazd, nad którym też się od jakiegoś czasu męczę, to usunięcie gwiazd ze zdjęcia przy pomocy StarNet++, uzyskanie w GIMP-ie warstwy tylko z gwiazdami, rozbicie jej na składowe RGB, i takie maskowanie warstwy o najbardziej nieostrych gwiazdach maskami z kolorów ostrzejszych, żeby pozbyć się obwódek. Ma to potencjał, ale jeszcze muszę nad tym posiedzieć. Ogólnie nie jest lekko, i najlepiej sprawdza się popularna tu na forum metoda, tzn. "gdy coś nie działa - kup lepsze szkło, lepszą kamerę, i Pixa"
  20. To jest porównanie mojego najnowszego zdjęcia M38, po lewej RGB złożone trybem mieszania Addition, po prawej przez Compose. Jak widać wersja z Addition jest mega-rozjaśniona, z przepalonymi gwiazdami, co mnie wcale nie dziwi, bo Addition po prostu dodaje do siebie wartości z poszczególnych warstw. Nie wiem, dlaczego na tym filmiku z YT to działa - ale może dlatego, że wygląda mi to na 8-bitową, starą wersję GIMP-a, może tam to działało inaczej niż teraz.
  21. Możesz, ale nie ma to za wiele sensu, tak jak pisał MateuszW - szkoda czasu i światła. Ale próbowałeś tego, że wiesz co mówisz? Czy tak Ci się tylko wydaje? Poza tym nie pisze się "abberacja", tylko "aberracja" Zgadza się. Ale tylko pod warunkiem, że obiektyw czy teleskop nie ma żadnego luzu na focuserze. Bo jeśli ma, to może się okazać, że puszczenie focusera o ileś kroków w jedną stronę, a potem powrót, wcale nie powróci w dokładnie to samo miejsce. Nie jest to takie proste, jak się może wydawać. Na filtrach RGB i mono jest inaczej, bo focuser po prostu tak długo ostrzy, aż jest ostro. Ale poleganie tylko na znalezionych wartościach offsetów dla poszczególnych kolorów może nie działać prawidłowo. Poza tym, niestety nie ma żadnej gwarancji, że każdy kanał, maksymalnie wyostrzony, da taką samą średnicę krążków gwiazd. Tak powinno być w teorii, ale w praktyce np. mój Samyang 135 ma tak, że kolory G i B ostrzą bardzo ładnie, gwiazdki są malutkimi punkcikami, a kolor R, nawet maksymalnie wyostrzony, i tak ma rozlane i trochę nieostre krążki gwiazd. Na OSC skutkuje to czerwonymi obwódkami wokół gwiazd, oraz zielonkawymi środkami gwiazd, bo czerwony, zamiast być skupiony tak samo jak dwa pozostałe, jest rozlany na większej powierzchni. Próba ostrzenia tym obiektywem na kamerze mono z filtrami RGB daje dokładnie taki sam efekt - to znaczy czerwonego koloru nie da się wyostrzyć tak samo dobrze, jak zielonego i niebieskiego, więc gwiazdy mają czerwone obwódki. Tu żadne triki z offsetami focusera nie pomogą. Co więcej, nawet kupno teleskopu teoretycznie dobrze skorygowanego pod względem aberracji chromatycznej, wcale nie gwarantuje prawidłowego ostrzenia wszystkich kolorów. Np. TS 76 EDPH, niby taki wyczesany astrograf, ma problem z kolorem niebieskim, który zachowuje się podobnie jak czerwony w moim Samyangu. Wiem o przynajmniej dwóch egzemplarzach tego teleskopu, które mają taki problem. Dlatego poszedłem w drugą stronę, tak jak pisałem wcześniej - ustawiam ostrość tak, żeby krążki poszczególnych kolorów były nieostre w podobny sposób. Dzięki temu obraz gwiazd mam lekko nieostry, ale za to całe światło, ze wszystkich kanałów, trafia w obręb tych krążków, co daje prawidłowe kolory bez obwódek. Zamiast ostrzenia na filtrach RGB (a w zasadzie wystarczyłby tylko R i G albo R i B, bo G i B ostrzą w ten sam punkt) ostrzę na przezroczystej folii w kolorze magenta. To powoduje, że ostrość łapię równocześnie na kolorach R i B. Kolor G wtedy też jest trochę nieostry, ale gdy dodam jeszcze obrazy wyostrzone bez kolorowej folli, to łącznie wszystkie kolory mają podobną średnicę krążków gwiazd, dzięki czemu nie ma obwódek. I to wszystko robię na jednym i tym samym balansie bieli, zawsze ustawionym na Daylight. Najpierw ustawiam ostrość maską Bahtinova bez kolorowej folii, zdejmuję maskę i focę np. przez godzinkę, a potem ustawiam ostrość na masce Bahtinova z folią magenta, zdejmuję maskę i folię, i dalej focę na pełnym OSC. Potem wszystkie klatki wrzucam razem, do jednego stackowania, bez żadnego rozbijania na kanały, bo nie ma takiej potrzeby. Wszystko leci w pełnym OSC. Co do rozbijania na składowe, i późniejszego składania takiego materiału, to w GIMP-ie jest to banalnie proste, tak jak pisze @szuu. Wrzucasz stack z OSC, rozciągnięty już, albo nie, jak chcesz, dajesz Colours - Components - Decompose, i otrzymujesz nowy obraz, składający się z trzech warstw, podpisanych red, green i blue, i zawierających te właśnie kolory. Robisz na nich co tam sobie chcesz, a potem, żeby je złożyć z powrotem, to dajesz Colours - Components - Compose, sprawdzasz czy do poszczególnych kolorów są przypisane odpowiednie warstwy, i tyle, powstaje z powrotem kolorowy obraz. Opcja Colourise działa tylko, gdy zmieni się tryb obrazu z Greyscale na RGB, ale tryb mieszania Addition nie daje właściwego efektu (właśnie sprawdziłem). A Compose działa tak jak powinno, i jest banalnie proste. Poza tym bardzo łatwo można sprawdzić, jak się zachowują poszczególne kolory na stacku w programie Siril, który od razu z automatu rozbija kolorowe fotki na R, G i B. Wystarczy powiększyć obraz np. do 200%, ustawić tak, żeby w polu widzenia były gwiazdy, i przełączać się między kanałami - widać wtedy jak na dłoni, który kanał jest ostry, a który nie. Tylko dzięki temu w ogóle wpadłem na to, że mój Samyang ma problemy z ostrzeniem w R. Od lat walczyłem z czerwonymi obwódkami i zielonkawymi środkami gwiazd, sądziłem, że robię jakieś błędy w obróbce, a dopiero gdy zacząłem używać Sirila to stało się jasne, w czym tkwi problem. Aha, jeszcze tylko dodam, że byli już macherzy, którzy używali achromatów do astrofotografii w narrowbandach - np. samo Ha. Wtedy aberracja chromatyczna nie ma większego znaczenia. Gdzieś nawet były tu na forum, albo na Astromaniaku, wątki na ten temat, ale to już było ładne kilka lat temu, więc nie wiem, czy da się to łatwo znaleźć. Po angilelsku wystarczy wpisać "Narrowband imaging with achromats" i wyskakuje trochę linków, np. ten .
  22. Zainspirowany fotkami kolegi MaPa wykorzystałem niedawną dziurę w chmurach nad Wrocławiem, żeby sprawdzić kolory gwiazd w gromadach M38 i NGC1907. Zapiąłem Canona 4000D do EDka 80 + R/FF 0,85x, posadziłem to na EQ3-2, i poleciało. Parametry: Canon 4000D @ ISO 400, ED 80 + R/FF 0,85, ok. 60 x 60 s, dithering w RA co 2 klatki, darki, flaty, flatdarki, stackowanie w DSS, rozciąganie w Siril, kosmetyka w GIMP, opis w ASTAP. Biegun północny nieba na górze kadru. Jak widać, w gromadzie M 38 faktycznie jest sporo niebieskawych gwiazd. Natomiast w NGC 1907 jest ich zdecydowanie mniej, podobnie jak w całej okolicy. Zróżnicowanie barwne jest spore, i dużą przyjemność sprawia mi przyglądanie się tym różnokolorowym kropeczkom Fajne takie szybkie akcje, i to z miasta, podstawowym sprzętem
  23. Aktualne, obniżka cen: Delos 14 mm - 1700 PLN z wysyłką Ethos 21 mm - 4200 PLN z wysyłką
  24. A w astrofoto robi się analizę ostrości zdjęcia na podstawie odbicia światła w oku? Jeśli tak, to nic o tym nie wiem. Za to w foto dziennej jak najbardziej robi się szczegółowe testy rozdzielczości obiektywów. Tu np. pierwszy z brzegu test: Test Samyang 135 mm f/2.0 ED UMC - Rozdzielczość obrazu - Test obiektywu - Optyczne.pl Takie testy robi się, UWAGA!, na tych strasznych matrycach OSC, które są w aparatach fotograficznych, a które ponoć tak rujnują obraz, zabierają światło itp. Więc chyba z tymi matrycami OSC nie jest tak źle @lkosz, dzięki za podbudowę teoretyczną Wydaje mi się (ale policzyć tego nie umiem), że oprócz lekkiej straty rozdzielczości matryca OSC w stosunku do mono+filtry może jeszcze dawać niższą liczba odcieni, na jakie możemy podzielić jasność. W sensie, że jeśli na OSC mamy np. trzy piksele R, oddzielone "pustymi" pikselami o innym kolorze, i po ekspozycji dostaniemy np. wartości 50-nic-56-nic-53 (dla uproszczenia w 8 bitach), to dla "pustych" pikseli będzie trzeba uśredniać, czyli 50-53-56-54,5-53, a to nam nie dodaje danych. W mono dla każdego piksela będziemy mieli rzeczywistą wartość, czyli potem przy stackowaniu mamy więcej danych do filnalnego uśredniania, co być może da nam zwiększoną dokładność w odwzorowaniu kolorów. Czyli może jest tak, że np. 16-bitowa kamera OSC da taką samą liczbę odcieni, jak 14-bitowa kamera mono+filtry. Ale to już tylko takie moje dywagacje, bo nie umiem tego wyliczyć. Ale gdy się jeszcze weźmie pod uwagę dithering, oraz to, że w OSC poszczególne filtry łapią też trochę światła z innych kolorów, to wydaje mi się, że ta ewentualna strata głębi bitowej jest pomijalna. Tak czy siak, z tego co widzę na forum, to raczej nikt nie pali 3x więcej materiału dla kamer OSC. Wszyscy palą mniej-więcej tyle samo, mniej dla jasnych obiektów, więcej dla ciemnych, i tyle. Natomiast wracając do pytania autora wątku (który zapewne już dawno z niego uciekł, widząc, że dyskusja zmierza w stronę offtopu ): Balansem bieli wg mnie sprawy nie ogarniesz. Spróbowałbym innego podejścia - najpierw ustawiasz ostrość np. maską Bahtinova z filtrem R, zdejmujesz go, i focisz część sesji na tak ustawionej ostrości. Potem ostrzysz na filtrze G, zdejmujesz go, i znowu focisz część sesji na tak ustawionej ostrości. I potem to samo robisz dla filtra B. Uzyskasz trzy zestawy zdjęć, każdy zestaw na trochę inaczej ustawionej ostrości - czyli na każdym zestawie gwiazdy będą trochę inaczej nieostre (jeden kolor będzie ostry, pozostałe dwa nie). Przy odrobinie szczęścia wielkość nieostrych krążków będzie podobna na każdym zestawie, więc po zestackowaniu uzyskasz gwiazdy trochę nieostre, ale za to bez obwódek. Wiem, że to działa, bo podobną metodę stosuję do mojego Samyanga 135 mm, choć on akurat ma trochę inną przypadłość niż "po prostu" aberracja chromatyczna. Ale to już temat na inny raz
  25. Przypuszczam, że charakterystyka jest dobrana tak, żeby pomóc w interpolacji. Bo jak np. w pikselu G masz też trochę sygnału z R i B, to jest bardziej płynne przejście między sąsiednimi pikselami. Jakoś fotografowie dzienni nie narzekają na jakość zdjęć z OSC Że się kolory zamazują, albo że muszą palić 3x dłuższe ekspozycje, bo ich matryce mają tylko 25% pikseli R i B, a 50% pikseli G. Ja wiem, że foto dzienna to trochę inna bajka, ale zasady działania sprzętu są chyba takie same? Oczywiście. Ale co to ma do tego, co pisze Mateusz (i nie tylko on, bo to jest tzw. "wiedza powszechna"), że matrycę OSC trzeba naświetlać 3x dłużej? Usiłuję się dowiedzieć - dlaczego? Przecież jeśli rozbijesz matrycę OSC na trzy mniejsze matryce, każda składająca się z pikseli o danym kolorze, to masz trzy mniejsze matryce mono z filtrem R, G lub B. Niby w jaki sposób każdy piksel takich mniejszych matryc miałby łapać mniej światła? Dlaczego? Każdy piksel jest mono, w OSC też, i jest mu obojętne, czy ma nad sobą filtr R, G lub B przyczepiony na stałe, czy trochę wyżej, w kole filtrowym. Ergo - każdy piksel w matrycy OSC łapie dokładnie tyle samo światła, ile łapałby w matrycy mono. Jedyna różnica to taka, że filtry RGB mają węższe zakresy, mniej się na siebie nakładające. Czyli de facto każdy piksel OSC łapie WIĘCEJ światła, niż piksele mono, bo oprócz swojego koloru łapie też trochę dwa pozostałe. Co zapewne wpływa na nieco mniejszą rozdzielczość zdjęcia - tu zgoda. Ale chyba ta różnica w zakresach między filtrami OSC a RGB+mono nie powoduje aż konieczności wydłużenia czasu ekspozycji o 3x? Jeśli masz trzy leżące w sąsiedztwie piksele R, porozdzielane pikselami o innych kolorach, to przecież interpolacja polega na tym, że "puste" miejsca między tymi trzema pikselami R są zastępowane jakąś liczbą średnią z wartości zebranych przez te trzy piksele. A nie wartościami 0, które by mocno zaniżyły średnią. Więc obraz z matrycy OSC nie będzie ciemniejszy ani bardziej zaszumiony niż z matrycy mono. Będzie tylko mniej szczegółowy. A przynajmniej tak mi się wydaje na tzw. zdrowy rozsądek
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.