Skocz do zawartości

dominiksito

Społeczność Astropolis
  • Postów

    316
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Odpowiedzi opublikowane przez dominiksito

  1. Zdecydowanie warto posiedzieć i nauczyć się obróbki. Processing w astro wygląda zupełnie inaczej niż w przypadku normalnych fotek, przez co Lightroom nie będzie się nadawał do tego wcale.

     

    Polecam doczytać o tzw. "stretchu", czyli rozciąganiu histogramu. Programy które Ci w tym pomogą to np. darmowa wersja Pixinsight LE (ktoś tutaj miał link w stopce), albo np. Siril. Dopiero po rozciągnięciu zestackowanej fotki można już robić całą resztę czyli zabawę na kolorach i detalu :)

    W przypadku samej mgławicy, to jest jej malutki kawałeczek. Zdecydowanie warto się pokusić o wyciągnięcie jej całej. Jest ona chyba najjasniejszą mgławicą na naszym niebie i można to zrobić w zasadzie z jednej klatki przy takim sobie niebie.

    • Lubię 2
  2. Na mojej sztuce Star Adventurera, przy duużo lżejszym zestawie z Olympusem (ogniskowa: 300mm, waga około 3 kg), powtażalny wynik bez guidingu to było około 30s. W przypadku zastosowania guidingu czas wydłużał sie do 3 minut, ale RMS-y były momentami większe niż 4. Fajna sztuka do szerszych kadrów i niech tak pozostanie :)

    • Lubię 1
  3. Taki mój przykład z mojej próby zrobienia sesji wczorajszej nocy (temperatura -29 stopni na Podlasiu). Możecie się ze mnie pośmiać :D
     

    • kable bardzo szybko zamieniły się w twarde druty, przez co wypinały się wtyczki przy ruchu montażu
    • AsiAir zaliczał spontaniczne resety od samego początku
    • wyszedłem na szybko z tabletem, żeby przeprowadzić ustawianie na biegun, jednak tablet wyłączył się po 5 minutach (nie zdążyłem)
    • wkrótce po tym to samo stało się z telefonem :D
    • grzałki na obiektywy zrobiły sie jak z blachy już po paru minutach i praktycznie niemożliwe było je założyć, żeby dobrze przylegały

    Po 20 minutach walki decyzja o odwrocie ;)

    • Lubię 2
  4. Dalej niedobrze :) Po pierwsze popatrz na swoje zdjęcie, a następnie wybierz sobie najlepsze wg. Ciebie zdjęcie tego obiektu i będziesz widział co jest nie tak.

    Zakładając, że ustawienie wzmocnienia (iso/gain czy cokolwiek tam użyłeś) sprawiło, że na subach (40s) całkowicie przepalasz część z trapezem, przy czym praktycznie nie rejestrujesz detalu w ciemniejszych partiach. Przez to wychodzi taki wycięty maz :) Zestackowanie większej ilości materiału idąc dalej tą strategią to będzie strata pogodnej nocy i nie radziłbym tego robić.

    Po pierwsze zobacz, że jeżeli przy zdjęciu detal obcinany jest z dwóch stron (z jednej strony przepalenia, z drugiej strony ciemny detal pewnie wszedł poniżej szumu i prawdopodobnie nawet poniżej poziomu biasu), to trochę źle się wstrzelasz ze swoją dynamiką tonalną w dany obiekt.

    Co ja bym sugerował:
    1. Zrobić osobną krótką sesję na najjaśniejszą część, czyli okolice trapeza. Nie musi być długa bo obiekt jest bardzo jasny, ale klatki powinny być o wiele krótsze (spróbował bym 10s albo 5s, tak żeby na jednej klatce tego nie przepaliło). 10-15 minut sumarycznie powinno wystarczyć.
    2. Zrobić drugą prawilną sesję na całą resztę detalu, używając dłuższych subów. Jeżeli jednak montaż Ci nie pozwala na wydłużenie bo będzie pojazd, to spróbuj zwiększyć wzmocnienie, nie przekraczając oczywiście wartości natywnych i zebrać więcej materiału.
    3. Obrobić obydwa stacki osobno i zblendować je w postprodukcji tak, żeby krótsza sesja przykryła przepalone kawałki z dłuższej sesji.

    4. Profit ;)

    PS. poprawne skalibrowanie swojego materiału na pewno pozwoli Ci znacznie łatwiej wyciągnąć detale bez wprowadzania paskudnych gradientów.

  5. W dniu 15.09.2020 o 13:28, ekolog napisał:

    nowemu algorytmowi maszynowego uczenia się (czyli zaawansowana sztuczna inteligencja)

     

    Chciałbym się "przyczepić" tylko do jednego. Nauka maszynowa jakkolwiek bardzo pomocna w przypadku badania mechanizmów sztucznej inteligencji, nie jest ani w promilu sztuczną inteligencją per se. Podstawową różnicą jest to, że sztuczna inteligencja posiada mechanizmy samo-uczenia się i braku żadnej "ręcznej" optymalizacji modelu. W przypadku nauczania maszynowego sami wybieramy jaki typ sieci chcemy użyć, która później bardzo dokładnie definiuje jaki typ danych można użyć do uczenia.

    Jest to więc bardziej rozszerzenie programowania deklaratywnego niż coś przypominającego inteligencję, nawet tą sztuczną ;)

    • Dziękuję 1
  6. 20 minut temu, gryf188 napisał:

    No to jak na razie ten trick nie działa :)  PS sam też nie ma dobrych narzędzi do wyrównywania tła , jest Gradientxterminator ale to dodatek do PS-a .Możesz kombinować z sztucznym flatem w PS ale i tak darmowy Pix LE lepiej to zrobi.


    Mam Pixa i APP, ale w najgorszych przypadkach z tłem idę do Photoshopa ;) Tam bajecznie łatwo oddzielić detal od gradientów przy pomocy filtra gornoprzepustowego i substrakcji warstw.

     

    Warto rozłożyć te wszystkie akcje typu Astronomy Tools na czynniki pierwsze i nauczyć się co one robią :)

  7. 3 godziny temu, janekosa napisał:

    zamiast pracować nad materiałem zebrałem nowy, bo trafiło się wczoraj kilka godzin bez chmur :D
    Zastanawiam się co zwaliłem. podejrzewam że flaty, właśnie robię stack bez nich, zobaczymy co wyjdzie. jak będzie lepiej to spróbuję zrobić lepsze.
    Kadr też nieco uciekł, ale to zupełnie osobna kwestia, zdjęcia robiłem prawie przez ładnych parę godzin i montaż zaczął uciekać. Spróbuję potem zrobić stacka z samych "wcześniejszych" klatek i to powinno się poprawić. Niestety na sprzęcie mobilnym stack trwa prawię godzinę :swear:

    image.thumb.png.e5ccad9326d4f1a7155f75fc12d060f4.png


    Zdecydowanie musisz popracować nad obróbką i wyciąganiem detalu, bo po raz kolejny wyszło tylko pół M42 ;)

     

    To jest najjaśniejsza mgławica wiec naprawdę da się lepiej.

  8. 6 minut temu, Grzędziel napisał:

    Absolutnie się z tym nie zgadzam. Zdjęcia wyszły świetnie jak na tak krótki czas naświetlania.

    Czym robiłeś?

     

    To są cropowane klatki z RedCata 51 i ASI 294 MC Pro (kolorowa) :) Każda robiona na Gain 120

  9. 3 godziny temu, Duser napisał:

    Pytanie mam - jak wygląda sprawa z meridian flipem w ASI Air ? 

    Bo na razie na Astroberry walczę i puki co  bez sukcesów. I wzbiera we mnie  powoli totalna niechęć do Linuxa ...


    Trzeba tylko zaznaczyć w sesji autorun, żeby zrobił i zrobić go-to na dany obiekt (tak żeby zapisało go jako ostatnia pozycje). Wtedy z odpowiednim marginesem sam zrobi flipa w odpowiednim momencie. 

  10. 2 minuty temu, OnlyAfc napisał:

    Dodałbym jeszcze bardzo słabą siłę sygnału wifi, szczególnie w wersji pro. Ludzie od razu kupują sobie dodatkowe wzmacniacze sygnału.

     

    To tylko dla ludzi chcących obsługiwać z domu. W terenie bez problemu mogłem obsługiwać sesję z oddalonego 20m samochodu ;) Ale w domu to raczej zasilanie nie jest problemem, więc spokojnie można użyć dodatkowego routera.

    Co więcej jest możliwość dorobienia lepszej anteny, interfejs już tam jest, ale nie mógł zostać użyty w produkcyjnej wersji. Wiązało by się to z potrzebą wyrobienia pierdyliona nowych certyfikatów ;)

  11. 23 minuty temu, orlen napisał:

    Ja bym chętnie zobaczył jak wyglądają zestawy kolegów z forum. Szczególnie interesuje mnie czy Asia air pro podłączona do aku zelowego w terenie obsłuży montaz, dwie grzalki i kamerę z chlodzeniem. 

     

    Ja obsługuję kamerę z chłodzeniem, kamerkę guide, montaż, dwie grzałki i asiair z tego: https://teleskopy.pl/product_info.php?products_id=5487 wystarczy na około 6h sesji, więc aku żelowy zdecydowanie powinien się nadawać ;)

    Proponowałbym jednak zrobić jakiś prosty szeregowy splitter i wszystkie wejścia 12V podłączyć osobno, a nie przez AsiAir, ponieważ stamtąd jest dystrybuowane tylko około 3A, wiec wszystko ponad to się nie nada ;) Oprócz tego spisuje się dobrze, było zaskakująco bezproblemowo. Zadziałało w zasadzie od kopa nawet u takiego świeżaka jak ja :) Jedyną wyraźną wadą AsiAIr jest to, że obsługuje tylko kamerki ZWO, co dla niektórych to prawdopodobnie dealbreaker.

  12. 21 minut temu, kubaman napisał:

    Matryce quad mają dodatkowe bajery.

    Np HDR.


    Dokładnie tak. Takie matryce są używane często w przemyśle i pozwalają płynnie rejestrować klatki (np. w video) w znacznie większej rozpiętości tonalnej niż pozwalałaby na to specyfikacja np. przetwornika AC/DC przy nie-binowanych pikesleach.

  13. 28 minut temu, Tayson napisał:

    w opisie i specyfikacji technicznej wypuszczonego sprzetu na rynek widnialy opisy pixel np 4,5um. teraz sie okazalo, ze to nie jest wielkosc pojedynczego pixela, a bining 2x2 softowy, czyli de facto pixel jest 2.25um.

    To jakby ktos Ci sprzedal wiaderko 10L, a po czasie okazaloby sie ze to 4sztuki polaczone po 2,5L. Po czym sprzedawca hucznie i radośnie wszystkich informuje, ze teraz masz 4 wiaderka i powinieneś sie z tego cieszyc.

    Ja wolabym miec wiadorko 1szt 10L i 1szt 4L i byc całkowicie swiadomym co kupuje.....Sam to ocen..... Dla mnie to poprostu gra nie fair.

     

    W takich sytuacjach warto zawsze znaleźć specyfikację sensora jaki jest używany w danej kamerce. O architekturze quad-pikselowej wiedziałem już od początku przy kupnie ASI 294 MC Pro. W przypadku CMOS-ów sama wielkość piksela to też nie jest jakaś jednoznaczna metryka. W zależności od typu sensora (czy to są jakieś starsze Olympusy, czy nowsze BSI od Sony) róznie utylizowana jest powierzchnia danej fotoceli, co również wpływa całościowo na rozkład QE, tak samo jak charakterystykę szumów.

    Z reklamowaniem to jednak zawsze jest tak, vide reklamy MediaMarkt w stylu (Fantastyczny komputer dla graczy!!! Procesor Intel!!! Karta Dżifors ... 4 giga!), a jak wszyscy wiemy różnica w kartach graficznych z pamięcią "4 giga" jest dosyć ogromna. To samo jest z kamerkami o danym rozmiarze piksela i raczej ciężko ich winić, gdyż technicznie mają rację, bo powierzchnia piksela to wartość wirtualna i mówi tylko o tym z jakiej powierzchni zbierane jest światło, które tworzy jeden piksel.

  14. Godzinę temu, wessel napisał:

    Wszystko pięknie, ładnie ale kolorystyka tego obszaru w dwóch Waszych propozycjach jest - wyłącznie według mnie oczywiście - zachwiana.

     

    A mówisz to na podstawie jakichś pomiarów spektrometrycznych, czy na podstawie swojego przeczucia? :)

     

    Godzinę temu, wessel napisał:

    zupełnie nie podchodzi mi

     

    I to szanuję :) Ja tam się nie umiem arbitralnie wypowiadać na temat kolorystyki, może podchodzić lub nie. Ja tam spektrometra w oczach zainstalowanego nie mam. Zdecydowanie łatwiej jest ocenić coś gdzie łatwiej o punkt odniesienia, czyli detal.

  15. Godzinę temu, Lukasz77 napisał:

    Do materiał podchodziłem dobre kilkanaście razy! Już myślałem ,że nic z tego nie będzie. A tu nagle coś wyszło! Sporo czasu bawiłem się aby wyrównać tło w nawet tak cudownym programie jak APP! Tej nocy był ogromny airglow na niebie.


    Mogę śmiało potwierdzić, że przez te gradienty ten materiał był arcytrudny do ogarnięcia. Wyszła bajeczka, dosłownie i w przenośni. Jeden z najlepszych kadrów tego kawałka nieba jaki widziałem, gratki!

  16. To zależy od obiektu który się fotografuję. W swojej krótkiej przygodzie astro robiłem już podobny eksperyment na obiekcie i zauważyłem pewną zależność.

     

    Każde zdjęcie ma pewien poziom szumu na swojej podłodze, ten szum staje się coraz bardziej widoczny podczas "wyciągania" zdjęcia. Pewne obiekty zazwyczaj posiadają detal na różnym poziomie jasności, od jasnych gwiazd które często łatwo prześwietlić, przez mgławice emisyjne, które są stosunkowo jasne nawet przy jednym zdjęciu, przez ciemne mgławice refleksyjne, oraz pyły, które są zazwyczaj blisko tej "podłogi".

    Poziom szumu zazwyczaj nie jest liniowy w stosunku do czasu ekspozycji, tak samo jak efektywność jego usuwania poprzez stackowanie materiału. Stąd bardzo często dla pewnych obiektów ekspozycje muszą być odpowiednio długie, żeby wyciągnąć pewne jego detale ponad poziom szumu, aby szybciej być je w stanie wyodrębnić na zestackowanym materiale.

    Skracając, jeżeli można, zawsze lepiej robić dłuższe ekspozycje. To oczywiście jest też ograniczane przez jakość nieba, tak samo jak przez wiele innych czynników takich jak np. przejrzystość powietrza. Często to też jest kompromis, który polega na poświęceniu jasnych gwiazdek, aby lepiej w danym czasie integracji wyodrębnić ciemny detal ze zdjęcia.

    Zaznaczam oczywiście, że to są wnioski tylko i wyłącznie na podstawie moich obserwacji, ktoś bardziej doświadczony oczywiście może pokazać mi dziury w moim rozumowaniu :)

    • Lubię 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.