Skocz do zawartości

JKbooo

Społeczność Astropolis
  • Postów

    463
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    5

Treść opublikowana przez JKbooo

  1. Maskownica na LG też już dawno założona. No nic... może poszukam przyczyny za pół roku jak chmury znowu przykryją Polskę aż do wiosny. Póki co nic nie ruszam, sprzęt musi być gotowy do akcji w każdej chwili.
  2. Dzięki Sławku! Masz może pomysł skąd te "pióropusze" mogą się brać? Domyślam się, że są to jakieś refleksy w torze optycznym, ale już wyczerniłem welurem całą tubę razem z focuserem i LW, a one wciąż uparcie trzymają się gwiazdek. 😛 Nie przeszkadzają mi jakoś ekstremalnie mocno, ale może nie dostrzegam czegoś oczywistego co łatwo będzie można naprawić, więc pytam.
  3. Dziękuję bardzo Marku! Taki też był zamysł, więc cieszę się, że się udało. Należę do tych masochistów co lubią polatać po swoich fotkach na przybliżeniu 200%, więc muszę pilnować wszystkie moje terminatory, żeby mi gdzieś smrodu nie narobiły.
  4. Zaczęło się od prostych testów sprzętu, ale (wreszcie) skończyło się na skończonym zdjęciu. Pierwszej nocy nawet nie oczekiwałem zebrania choć jednej dobrej klatki, bo przywróciłem celę lustra do oryginalnego stanu, czyli stanu w którym LG latało sobie swobodnie po celi w zależności od kierunku patrzenia teleskopu. Cel jednak wybrałem świadomie taki, aby w czasie obserwacji tuba jak najdłużej pozostawała w pozycji pionowej co ograniczyło swobodę poruszania się lustra, no i o dziwo zadziałało. Oprócz potwierdzenia, że wcześniej lustro było "szczypnięte" udało się również zebrać całkiem fajny materiał. Na kolejną noc już byłem przygotowany bo wyrzuciłem z celi oryginalnie przyklejony korek i zastąpiłem go wydrukowaną uszczelką z filamentu TPU 20D. Uszczelka ma taki wymiar, że leży swobodnie na obwodzie lustra nie generując na nie nacisku, ale znacznie ogranicza swobodę lustra w celi. Trzeciej nocki po raz pierwszy od zakupu tego teleskopu nie musiałem nic kolimować po rozłożeniu sprzętu (również LW, a to dzięki pająkowi od @Tom-cio). Cel niezbyt oryginalny, można by wręcz powiedzieć, że oklepany. Ja jednak mam tylko jedno skończone zdjęcie tego obiektu, a zrobiłem je krótko po zakupie pierwszego sprzętu do astrofoto, więc delikatnie rzecz ujmując, szału ono nie robi. Podrzucę je gdzieś na końcu tego posta. Kompozycja całej ramki może i jest nieco dziwna, ale nawet nie wiem jak inaczej do tego podejść. Nie ma chyba też tragedii bo wciśniętą w prawy dół NGC 5474 w miarę balansuje M101 razem z warkoczem jaśniejszych gwiazd po drugiej stronie. Od początku jednak planowałem prezentować te obiekty osobno, skupiając się na ciaśniejszym cropie M101, a sąsiadkę podać ewentualnie na dokładkę. SXT niestety dalej sobie nie do końca radzi z galaktykami, a w szczególności obiektami mgławicowymi wewnątrz nich. Gdyby nie ten fakt obróbka tego zdjęcia byłaby bardzo prosta i przyjemna, no ale tak nie było. Rozciągając zdjęcie samym GHSem miałem do wyboru albo przepalone gwiazdki, albo spłaszczone światło na galaktyce z mdłym centrum. Stworzyłem więc maskę w PS na galaktyki i skorzystałem z niej w trakcie odpalania SXT. Zastanawiam się, czy ktoś dostrzeże niewielki artefakt powstały w wyniku tego zabiegu. Wszelkie komentarze i opinie bardzo mile widziane! Pełen kadr z domyślną rozdzielczością sensora: Ciaśniejszy crop z pełną rozdzielczością (po drizzle) dla odważnych i ciekawskich: Pierwsza i jedyna do tej pory moja fotka M101 (2020): Na koniec standardowo sprzęt i dane akwizycji: Equipment: Scope: GSO 8" f/4 with 2" Moonlite autofocuser, flocked Coma corrector: TS GPU Mount: EQ6-R Camera: QHY 168C Guide scope: ZWO 280/60 Guide camera: ZWO ASI 120MC-S Filter: Baader UV/IR cut Acquisition: Location: central Poland, Bortle 5/6 Lights: 262x120s, Gain 10, Offset 50, -10°C Darks: x100 Flats: x80 Bias: x150 Total integration time: 8h 44min Software: Pixinsight (+rc-astro), Photoshop
  5. Nah, jeśli już mówimy o prawie pierwszeństwa to przysługuje ono użytkownikowi @Piotr K.. Prawdopodobnie jeszcze bardziej przysługuje ono obserwatorom, którzy ją zauważyli jeszcze wcześniej, a było ich przynajmniej dwóch. Rzecz w tym, że nikt jeszcze nie postanowił jej oznaczyć, więc obiekt ten wisi sobie tak na niebie, nieoznaczony w żadnym katalogu, mimo, że prawdopodobnie jego ślad widoczny jest na większości szerokopasmowych i szerokokątnych stacków łabędzia.
  6. No to jeszcze sombrero. Obiekt o (moim zdaniem) wyjątkowych walorach estetycznych, ale niestety ciężki do złapania z Polski, a skoro dają dobrej jakości materiał za free, to czemu by nie skorzystać.
  7. Dorzucam jeszcze M77. Znowu problem z flatami. Niby masterflaty w folderze, ale źle mi korygują winietę. Może mi coś umyka po paromiesięcznej przerwie od pixa. Na szczęście sensor mały i czysty, więc trzeba było zlikwidować tylko niewielką winietę.
  8. Obrobiłem sobie NGC 6946 i tak wyszło. Tło musiałem trochę zbombardować, bo z tego co widzę flat jest źle wykonany lub przypisali błędny plik w przypadku tego materiału.
  9. Moim zdaniem przepalone gwiazdy też można ładnie pokazać, tylko trzeba wykonać odpowiedni stretch. Mój edit Twojego materiału: Usuwanie zielonego szumu proponuję po rozciąganiu. Spotkałem się z artefaktami powodowanymi przez ten proces, spowodowanymi stosowaniem go przed stretchem. Dekonwolucja (a przynajmniej ta na gwiazdach) coś nie zagrała mi w przypadku tego zdjęcia. Ja ją robiłem za pomocą BXT (w dodatku tylko na mgławicy), w Twoim przypadku bym ją prawdopodobnie pominął. Gwiazdki mam wrażenie, że są jakby leciutko rozlane. Może jest to kwestia nieidealnie ustawionej ostrości. Nie wiem, ale coś nie zagrało, utrudniając uniknięcie artefaktów. Gwiazdy również rozciągałeś za pomocą GHS? Podrzucam świetny tutorial do GHS: Obejrzyj dokładnie, bo jest to dosyć delikatny proces, ale bardzo ważny. W moim workflow po GHS mam już prawie gotowy obrazek. Zostają tylko rzeczy takie jak właśnie SCNR, blend stars+starless, kontrast na krzywych i saturacja. Oczywiście Twój sposób pracy może się całkowicie różnić, lecz w ramach chęci pomocy dzielę się takimi spostrzeżeniami. Jeszcze mój workflow w przypadku tego materiału: 1. Crop 2. DBE (ekstrakcja tła) 3. PlateSolve + SPCC (kalibracja kolorów) 4. FWHMEccentricity + BXT (dekonwolucja) 5. NXT (redukcja szumów) 6. SXT (separacja gwiazd) 7. GHS na starless i stars oddzielnie 8. SCNR 100% na stars i 50% na starless 9. Saturacja na obu 10. Maska na ciemne piksele starless i ich desaturacja 11. Blend starless i stars w pixelmath: ~(~stars*~starless) Edit. Warto też dopisać, że obrabiałem w Pixinsight, bo nie wspomniałem nigdzie o tym.
  10. Wnioskuję, że jest to ten sam materiał. To czy jest to to samo zdjęcie, jeśli podlegało innej obróbce, to już pytanie do filozofów. Jeśli jest to inny materiał, a artefakty mają inne źródło, to moja pierwsza wypowiedź może być błędna. Wspomniałem o problemie bo sam miałem z nim do czynienia, wiem skąd się bierze i jak się objawia. Zakładałem, że to forum służy do dzielenia się doświadczeniami i tak też poczyniłem. Rzecz w tym, że właśnie ma się do końcowego efektu, ponieważ artefakt w postprodukcji powstał w wyniku błędu optyki. Osobiście nie widzę żadnego powodu, aby tak tego nie określić. Nie widzę w moich wypowiedziach nic, co mogłoby kogolwiek w jakikolwiek sposób urazić, albo świadczyć o złych intencjach. Jeśli ktoś w taki sposób moją wypowiedź odebrał, to jak najbardziej taką osobę w tym momencie przepraszam. Nie planowałem spędzać dzisiejszego wieczoru na kłóceniu się z kimkolwiek, ani bronieniu moich słów, więc pozwólcie, że dalsze potencjalne wypowiedzi dzisiaj może tylko przeczytam, a odpowiem ewentualnie jutro.
  11. Oj kusi mnie zescreenować artefakt, ale... Się powstrzymam w takim razie.
  12. Widzę artefakt po BXT, który spowodował wspomniany przeze mnie problem. Reszta jak wyżej, żadne doczepianie się i ujmowanie czegokolwiek autorowi. Zwykła przyjacielska uwaga. Jak już wspomniałem zdjęcie mi się jak najbardziej podoba. Jeśli takie uwagi nie są tutaj mile widziane, to następnym razem zostawię lajka i sobie pójdę. Pod moimi zdjęciami proszę się jednak wyżywać.
  13. Może się niejasno wyraziłem, chodziło mi o fotkę wstawioną przez autora. Dla mnie jest jasne, że to co widać na screenshocie to nie artefakty BXT, ale nie musi być to jasne dla każdego. Panowie, nie rozumiem skąd to kręcenie małysza tutaj. Chciałem jedynie zaznaczyć, że uwaga @Kriss2022 nie wzięła się znikąd. W żaden sposób nigdzie nie dyskredytuję autora zdjęcia. Uważam jednak, że skoro coś takiego zauważyłem to warto o tym wspomnieć nie tylko autorowi, ale również innym osobom, które przeglądają taki wątek, a mogą mieć podobny problem. To czy ktoś będzie chciał coś z tym zrobić to już od niego zależy. Jak się okazuje, autor sam ten problem zobaczył i najwidoczniej mu przeszkadzał, skoro podjął stosowne kroki w celu jego eliminacji. Człowiek chce dobrze, a tu taki najazd. Strach się tu czasami wypowiadać... Miłego wieczoru. Edit. Polszczyzna. Screenshoty niepotrzebne. Edit.2 Skoro już jesteśmy tacy dokładni, to uchronię się przed wytknięciem jeszcze jednego błędu. Otóż nie był to screen surowego materiału, a po mojej obróbce, bez BXT na gwiazdkach. Wczytałem XISFa i zrobiłem screena, aby zilustrować problem. Nie przywiązywałem większej uwagi, czy była to surówka po autostrechu, czy obrobiona fotka.
  14. To screen surowego materiału przed obróbką. Jak już wyżej pisałem, na wstawionym tu zdjęciu zostały tylko niewielkie artefakty po korekcji gwiazd przez BXT.
  15. Ja oglądam (przynajmniej swoje), ale nie oceniam zdjęcia pod tym względem. Stwierdzam tylko, że pojechane gwiazdki są i je widać, a raczej to co po nich zostało. Ten materiał akurat obrabiałem, dlatego wiedziałem, że tak to wygląda. To już kwestia indywidualna. Dla jednego ma sens, dla drugiego nie ma. Też tak myślę.
  16. Wygląda solidnie, powinno załatwić problem.
  17. Na wstawionej tutaj fotce pojechanych gwiazdek nie widać, ale za to widać artefakty wygenerowane przez BXT, który je skorygował. Gwiazdki są nie tylko pojechane po rogach, ale również chyba widać cień lustra wtórnego co wskazywałoby na brak ostrości (przy krawędziach), prawdopodobnie spowodowaną tiltem. Nie popełniłeś błędu.
  18. W tym momencie różnica w wydajności nie jest tak duża, lecz podczas pracy pobierają mniej prądu, a sam pobór prądu jest stabilniejszy (intel łapał momentami jakieś niewyobrażalne peaki, co może powodować problemy przy tańszym zasilaczu). Z tego co pamiętam intel za to pobiera mniej prądu w trakcie spoczynku. Osobiście nie widzę powodu, aby przy obecnej sytuacji na rynku budować platformę na intelu (budując stację roboczą do obróbki astrofotek), chyba że ktoś chce teraz kupić pamięci DDR4 z myślą o przejściu na DDR5 w przyszłości, bo na taki manewr tylko intel pozwala. Info sprzed pół roku, kiedy mocno grzebałem w temacie, ale od tamtej pory raczej niewiele się zmieniło, zważywszy na to jak licho wypadla 14 generacja u intela.
  19. Wielu wypowiedzi w tym wątku nie ma, do tego w zasadzie wszystkie są ze sobą zgodne. Dlatego nie rozumiem skąd zdanie "najważniejszy to odczyt z dysku i ram. resztę to wymysły jakiś teoretyków stad". Są dwie dłuższe wypowiedzi, przy czym z drugą najwyraźniej się zgadzasz. Stąd też moja myśl, że możesz mówić o mojej ścianie tekstu. Wciąż jednak nie pojmuję o co tu chodzi. Dopytuję się z dwóch powodów. Po pierwsze chcę się czegoś dowiedzieć, jeśli o tym nie wiem, a po drugie to popchnięcie użytkownika do rozwinięcia tematu, który tylko podsunął jakiś pomysł/poruszył wątek, ale nie wyjaśnił co, jak i dlaczego. To drugie niestety często widuję na tym forum i przyznaje, że trochę mnie to uwiera.
  20. Rozwiniesz tę myśl, czy tak po prostu postawisz się w pozycji mądrzejszego i sobie pójdziesz? Może się czegoś dowiem, ale jeśli już, to postawiłbym się bardziej w pozycji praktyka, niż teoretyka. Teorii może mi właśnie brakować (tutaj mam nadzieję, że poratujesz), ale z moich obserwacji wynika, że sprawa jest prosta. Jako przykład weźmy którykolwiek z procesów stackowania, ponieważ one są najbardziej zasobożerne i zwykle przy nich użytkownik musi najdłużej czekać, a komputer się najbardziej poci. Plik jest zczytywany z dysku, następnie przechowywany w pamięci RAM, do której procesor ma szybszy dostęp. Każdy rdzeń procesora otrzymuje własne zadanie i zawsze wszystkie rdzenie są obciążane w 100%, pracując na najwyższym możliwym w tej sytuacji taktowaniu. Na koniec oczywiście jeszcze dochodzi kwestia zapisu w miejscu docelowym, więc ponownie rolę gra prędkość dysku. O ile w żadnym z wymienionych miejsc nie ma wąskiego gardła (tak jak ze wspomnianym HDD, gdzie procesor u mnie musiał czekać na odczyt plików), to prędkość wykonania całego procesu będzie zależała w równym stopniu od każdego z wymienionych podzespołów, przy czym w całej pętli najdłużej zawsze pracuje procesor. Śmiem wątpić, że istnieje laptop, który będzie wydajniejszy od jakiejkolwiek stacjonarki, zbudowanej do tego konkretnego celu, w podobnym budżecie (choć nie śledzę poczynań apple i ich M2).
  21. Składałem swojego pieca na początku tego roku właśnie w takim celu, więc pozwolę sobie podzielić się paroma uwagami. Pracuję jednak na nim głównie w Pixinsight i czasem PS. Procesor wraz z ramem w przypadku takich zadań będzie najistotniejszy, dlatego na tych podzespołach raczej nie szukałbym budżetowych kompromisów. Procesor z jak największą ilością rdzeni o jak najwyższym taktowaniu, lecz jednocześnie taki, który będzie można sensownie schłodzić. Nie skupiałbym się tutaj na tym czy to I3, I5, czy I7, bo to tylko nazwy serii, które zawierają w sobie różne modele procesorów (chooooć akurat w przypadku intela seria I7 z tego co pamiętam ma parę benefitów względem I5, jak chociażby hyperthreading). Niektóre wypadają korzystniej cenowo, a niektóre gorzej. Osobiście w tym budżecie zalecałbym jednak obóz czerwonych, może nawet coś ze starszej serii, ale wyższej półki. Chłodzenie procesora jest mega istotne, ponieważ w trakcie stackowania materiału, czy nawet wykonywania pojedynczych procesów, ten będzie obciążony w 100%. Niewystarczające chłodzenie spowoduje, że procesor będzie ograniczał taktowanie, a więc mimo pełnego obciążenia, nie będzie osiągał swojej maksymalnej wydajności. Tak też jest u mnie gdzie 280mm radiator od chłodzenia wodnego nie jest w stanie schłodzić procesora na tyle, aby osiągnął maksymalne taktowanie przy korzystaniu ze wszystkich rdzeni na raz. Większość internetowych rekomendacji w przypadku takiego użytkowania procesora można wsadzić między bajki, ponieważ większość użytkowników nie korzysta w ten sposób z CPU, a schłodzenie 2 rdzeni to nie żaden problem. RAMu mniej jak 32GB bym nie brał. Ile byś nie wrzucił, w trakcie stackowania prawdopodobnie wszystko zostanie zjedzone (oczywiście w zależności od ilości plików i wykonywanego procesu). Skupiłbym się jednak na tym jak ta pamięć jest wykorzystywana w postprocessingu, ale tutaj pojawia się sporo zmiennych, takich jak wielkość plików na jakich pracujesz, tego czy lubisz bawić się w mozaiki oraz od samego Twojego stylu pracy. Osobiście aktualnie pracuje pracuje na 16Mpx obrazach i pod koniec obróbki materiału mam często zajęte ponad 20GB pamięci RAM. Są to często początkowe stacki, maski, warstwy z gwiazdami i bez, obrazy po kluczowych procesach, do których możliwe, że będę chciał wrócić no i również finalny obraz. Nie wiem jak przechowujesz zebrany materiał. Mnie jeszcze los nie pokarał i część świeższego materiału trzymam na HDD w budzie, więc w moim przypadku sprawdził się spory dysk HDD na przechowywanie. To co jednak jest najistotniejsze to również spory dysk SSD, na którym nie tylko będzie działać system i najważniejsze programy, ale z którego powinien być odczytywany materiał podczas stackowania. Przechowywanie aktualnie stackowanego materiału na HDD to strzał w kolano, który bardzo wydłuży cały proces, dlatego podczas doboru pojemności dysku SSD weź również pod uwagę, że będzie musiał się na nim zmieścić również materiał, na którym pracujesz. W postprocessingu ma to już mniejsze znaczenie, bo po wrzuceniu pliku do programu, będzie on przechowywany w pamięci RAM. Jeżeli korzystasz lub planujesz korzystać z procesów opartych na sieciach neuronowych, takich jak Starnet, BXT, czy ostatnio Graxpert, to warto rozważyć dedykowaną kartę graficzną z rdzeniami CUDA (a więc niestety tylko NVIDIA). Są to procesy, które mimo swojej prostoty, czasami wymagają nieco eksperymentowania, a bez wspomagania CUDA potrafią trwać dosyć długo. Osobiście w tym momencie nie wyobrażam sobie obróbki astrofotografii bez CUDA. Kartę graficzną można jednak w każdej chwili dołożyć, a sama karta graficzna chyba nie musi być z najwyższej półki w tym przypadku (przynajmniej takie wnioski wyciągnąłem po przejrzeniu wątku na Astropolis). Z tego co rozumiem najważniejsze kryteria to ilość pamięci VRAM oraz sam fakt obsługiwania danego modelu przez oprogramowanie. Oprócz tego z tego co mi wiadomo warto kupić dobrej jakości zasilacz, ale czemu warto w tym miejscu dopłacać to już niech się mądrzejsi wypowiedzą. Edit. Zapomniałem jeszcze o płycie głównej. Tutaj najistotniejsza będzie odpowiednia sekcja zasilania, bo nie wszystkie płyty mogą obsłużyć procesory z najwyższej półki, mimo takiego samego gniazda. Warto więc się temu przyjrzeć dobierając płytę główną do wybranego procesora.
  22. Chyba było coś majstrowane przy tych dwóch gwiazdkach, co? Obrazek bardzo fajny, tylko ten obszar jakiś taki przygaszony/nieśmiały.
  23. W ramach nabywania nowych doświadczeń postanowiłem pobawić się programem do obróbki wideo. Spróbowałem wykonać "deep dive" w tytułową mgławicę. Link dla zainteresowanych:
  24. Kurcze, co te gwiazdki jakieś takie koślawe z tych zdalnych CDKów wychodzą? Fota oczywiście powala detalem, choć w centrum coś za ostro chyba.
  25. Wszystko jest kwestią gustu. Ja zdecydowanie wolę gwiazdy bez spajków, bo te jak najbardziej można pięknie podać. Przykładów nie brakuje, szczególnie na tym forum.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.