Jump to content

GrzegorzP

Społeczność Astropolis
  • Content Count

    81
  • Joined

  • Last visited

Everything posted by GrzegorzP

  1. U mnie się otwiera - fajne. Tylko jedna uwaga: to nie mogło być w czasie największego zbliżenia, widać Księżyc więc musiało być robione 17.12. W sumie nawet lepiej, fotka zyskała na atrakcyjności
  2. I wszystko byłoby jasne, tylko nie rozumiem dlaczego w takim razie chciałeś kompilować kod programu na komputerze w obserwatorium. Wydawało mi się, że to był początek problemów, ale być może czegoś nie zrozumiałem.
  3. Dla pełnej jasności - nie teoretyzuję, bo używam Arduino w podobnych zastosowaniach. Np. ostatnio budowałem układ czujników rejestrujących wibracje układu mechanicznego ramienia robota.
  4. Program nie działa na Twoim komputerze tylko na Arduino - w sumie to jest taki "komputer" z własnym procesorem i RAM-em. Jeżeli wgrasz go na flasha, to on tam siedzi na stałe i jeżeli podłączysz zasilanie, to zostanie uruchomiony. Nie potrzebuje do tego komputera, działa i cały czas wysyła dane na serial niezależnie od tego czy Arduino jest połączone z komputerem. Komputer potrzebujesz tylko do odbierania danych. Gdybyś np. dodał do układu moduł BlueTooth, to mógłbyś to odbierać bezprzewodowo.
  5. Jak rozumiem już działa, ale tak dla pełnej jasności: jeżeli w domu załadowałeś program do Arduino, to on jest w pamięci i działa. W obserwatorium niczego nie musisz kompilować (weryfikować) ani ładować. Wystarczy połączyć z komputerem, odpalić monitor/kreślarkę z oprogramowania (lub jakikolwiek inny terminal obsługujący COM-a) i możesz monitorować to co przesyła. Chyba, że masz dwa Arduino - jedno testujesz w domu, a drugie na stałe w obserwatorium.
  6. Mam tylko jedno pytanie: dlaczego musisz ładować program na Arduino na komputerze w obserwatorium? Jeżeli załadujesz program w domu, to on tam będzie i będzie wysyłał dane na port. Jeżeli musisz (chcesz) odbierać to przez aplikację Arduino, to wystarczy, że postawisz ją na komputerze, otworzysz monitor/kreślarkę i informacje powinny spływać.
  7. To był długi i pracowity dzień, ale veni, vidi, vici Wbrew zdrowemu rozsądkowi, gdy zobaczyłem taki obrazek na sat 24 (zapisałem sobie w folderze z materiałem z obserwacji): ...postanowiłem, że wybiorę się jednak do obserwatorium. "Veni" ok 15:30. Szybki montaż LX-a na pierze i ustawienie na Księżyc (po takim wstępnym wyrównaniu można już mniej-więcej trafić przy pomocy goto). Ok. 16:05 "vidi" - Jowisz w szukaczu, chwilę później na ekranie. Ostrość (pływały jak pstrągi w górskim potoku) i o 16:08 pierwsze "vici": LX200 8", f/10, ASI
  8. Miałem się wybrać do obserwatorium i założyć LX-a na piera, ale nie wyszło, więc poszalałem z Rubinarem na balkonie. Pierwszy raz od nie wiem ilu lat przykręciłem telekonwerter (oczywiście do pary TK-2M) i strzelałem z 2 metrów. Ustawianie ostrości tym obiektywem to jakaś porażka, więc taki trochę miękiszon wyszedł - w sumie dziwne, że widać, że pierścień to pierścień. Zrobiłem po kilkanaście klatek - spróbuję coś poskładać. Na razie pojedyncza fotka. EOS-R + Rubinar 1000mm x2, f/20, t=1s, 400ISO prowadzone na Takahashi Sky Patrol III
  9. ...ale nie pasuje do aktualnej konfiguracji.
  10. Wszystko EOS-R, kadrowane do ok. 50% 18.12.2020 na początek na jasnym jeszcze niebie. Rubinar 1000mm, f/10, t=1s, 800ISO Canon 70-200L F/2.8 + ExIIIx2, 400mm, f/5.6, t=1/2s, 400ISO I nieco później Canon 70-200L F/2.8 + ExIIIx2, 400mm, f/6.3, t=5s, 400ISO. Nisko było więc siedziało już głęboko w miejskim "sosie"
  11. Trochę na szybko, nie było czasu na uczciwe chłodzenie - z zachodu błyskawicznie nadciągały chmury Szerzej z Księżycem: EOS R + 70-200 L/2.8 (@200mm, f/2.8,t=1/10s,400ISO) ...i bliżej EOS R + 70-200 L/2.8 + EXIIx2(@200mm, f/5.6,t=1/2s,400ISO), kadrowane 50%
  12. Mam coś takiego przez większość czasu (nie muszę spoglądać w okular teleskopu). Rozmawiałem o tym z okulistą i odpowiedź standardowa - w pana wieku... Polecił mi taki suplement (jak każdy dobry diler dał bezpłatną próbkę ). Nazywa się to VITROFT i podobno częściowo rozpuszcza takie zmętnienia (nie na stałe). Wypróbowałem rok temu i wydaje się, że przez pewien czas było lepiej (albo siła sugestii). W tym roku powtórzę i zobaczymy. Majątek to nie jest (przy kosztach sprzętu astro jak za darmo), duże opakowanie wystarcza na ok. 3-miesięczną kurację (tyle miałem brać).
  13. Moje 125 plików (28GB) przeszło bez problemów - zarówno zwykły stack jak i drizzle. Co do opcji "buffer size", to ostatni raz zmieniałem ustawienia na wersji 32-bitowej. W tamtym wypadku przy dużej liczbie plików faktycznie inaczej nie chciało składać. To było tak dawno, że dążyłem o niej zapomnieć :).
  14. Pytałem o format plików, ponieważ Pix może czytać pili po kawałku (jeżeli są np. zapisane jako xsif bez kompresji), a czasami musi załadować całość (np. jeżeli działamy bezpośrednio na RAW-ach z aparatu). W tym drugim przypadku zazwyczaj są problemy z pamięcią (temat regularnie wraca na forum Pix-a). Twojego przypadku nie dotyczy (chyba, że masz kompresję w plikach). Jak napisał przed chwilą Wessel myślę, że to problem z konfiguracją. Dzisiaj będę składał 125 plików z FF. Mam i7 16GB RAM i ok. 260GB wolnego na dysku roboczym - to chyba największa porcja danych jaką przerabiałem
  15. Jeżeli będzie dostępne biorę: poz.5. Filtr Astronomik ProPlanet 742 poz.7. Rewolver Baadera Q Turret
  16. Rzadko się odzywam i raczej unikam chwalenia się moją archaiczną stroną, której layout powinien być zmieniony kilka lat temu , ale skoro kolejny raz pojawia się taki temat, to pokażę swój projekcik. Wymyśliłem to sobie w 2003 roku i zaczynałem od zmodyfikowanej Vesty (dla młodszych: to taka kamera internetowa 640x480px, którą kiedyś powszechnie przerabiano na długie czasy). Pierwsze fotki były składane z kilku paneli, ale i tak nie obejmowały całego pola, które pokazuję aktualnie. Później był Canon 300D, kamera CCD Oriona i ostatnio Canon 6D. Zaczynałem od serii bardzo krótkich (15-20s ekspoz
  17. Może Kolega triplety pomylił?
  18. Adres strony, z której pochodzi jest wystarczającą (jak dla mnie) rekomendacją. Co do poradników generalnie: niełatwo napisać coś od A-Z. Niektóre sprawy są tak oczywiste dla autora, że może nie pomyśleć o ich uwzględnieniu. Ciekawiło mnie czy faktycznie ktoś polecał używanie zdebayeryzowanych plików do kalibracji. W przypadku Pix-a weź jeszcze pod uwagę, że większość procesów ma coś takiego jak "Format Hints". To są takie dodatkowe opcje dotyczące otwieranych plików, które nadpisują ustawienia globalne. Np jeżeli w module IC wprowadzisz "raw" w input, to każdy otwieran
  19. Moment - jeżeli piszesz o Pix-ie, to może być jeszcze jedna kwestia. W tym programie są dwa tryby pracy z RAW-em: wspomniany pure RAW (czyli obraz traktowany i wyświetlany jako BW) i kolorowy RAW (ale to nie oznacza zdebayeryzowany). Ten drugi to pik RAW, w którym poszczególne piksele dostają kolor zgodny z odpowiadającym im filtrom. Zamiast czarno-białej kratki jest kratka czerwono-zielono-niebieska (może o tym czytałeś?). To oczywiście nadal RAW, żadne interpolacje nie będę wykonane i materiał będzie (jak to się przyjęło określać) surowy. Na takim pliku możesz robić kalibrację i wszystko będ
  20. Unable to acquire CFA pattern information - nie można uzyskać informacji o wzorcu(?) CFA. Romek skonwertował to na TIF, a taki plik nie ma odpowiedniej informacji w nagłówku, dlatego nie można go "zdebayeryzować". Gdyby użyć jakiegoś programu, który zrobi to na podstawie podanej informacji o układzie filtrów w CFA i nie będzie przejmował się brakiem danych w nagłówku, to można go przerobić na kolor. Jeżeli wiesz jak to działa, to powinieneś zauważyć, że pracując na kolorowych plikach (po debayeryzacji) na jednym pikselu masz tak na prawdę informację z niego i kilku sąsiednich - alg
  21. Ja niestety nie mogę powiedzieć, że rozumiem co piszesz - co to jest warstwa debayeru? Nie ma czegoś takiego. W pliku RAW nie ma pikseli czerwonych, zielonych niebieskich, ogólnie nie istnieje coś takiego jak "kolorowa matryca" i każda jest BW - tzn. każdy przetwornik zlicza fotony, które trafiły w konkretny piksel i ma w nosie jaką długość (jaki "kolor") miała fala elektromagnetyczna, która została zarejestrowana (zrobił się dualizm korpuskularni-falowy ;)). To co nazywamy matrycą kolorową jest tylko skrótem myślowym i różni się od matrycy BW tym, że ma z przodu maskę filtrów RGB (różnie pouk
  22. Sorki, ale z tego powyżej to ja też nie teges , ale ogólnie kalibracja darkami polega na odjęciu ciemnej klatki od fotki. Robimy to na surowym materiale, bo podczas debayeryzacji algorytm aproksymuje wartość pikseli na podstawie pikseli sąsiednich i generuje "sygnał" tam gdzie go nie było.
  23. Na takiej klatce (bez debayeryzacji) masz w tle siatkę od maski Bayera. Jeżeli wyświetlisz obraz 1:1 (bez przeskalowania) to powinieneś widzieć tylko drobny wzór złożony z pojedynczych, naprzemiennie ułożonych, jaśniejszych i ciemniejszych pikseli. Gdy oglądam Twój plik bez skalowania to na moim ekranie tak jest. To co pokazałeś powyżej jest przeskalowane - w takim przypadku faktycznie ten drobny wzór interferuje i wygląda jak "szkocka kratka" (bez koloru oczywiście). Poniżej fragment Twojego pliku powiększony do 300% i mocno rozjaśniony. tmp.tif
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.