Skocz do zawartości

Sebo_b

Społeczność Astropolis
  • Postów

    740
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Sebo_b

  1. No to lipa. Czy pole "Naświetlanie" ma jakikolwiek efekt, czy cokolwiek tam wpiszesz to i tak działa wartość jaką ustawiłeś w panelu indi?
  2. Podejrzewam, że indi z ascomem nie wystawia tego parametru jako czasu naswietlania, tylko jako jedno z ustawień. Spróbuj czy to sie będzie zapisywalo poprzez własne ustawienia (przycisk w ekos). Jesli bedzie zapamietywal to będzie obejście - jednak malo wygodne.
  3. Tak masz rację, pospieszylem sie z tymi 16 bitami, jest 14. Ponieważ to jest "floor" a nie szum, też nie ma sensu odejmować bitów tylko wartosci, zostanie wiec dokładnie 13.8 stopów. Przy jednolitym tle odchylenie będzie dobrą miarą, ale ja rozumiem, że tutaj jest liczone z całego zdjecia.
  4. Masz na to jakieś "papiery", bo nie widziałem nigdzie takiej metody... 1. Intuicja podpowiada mi, że odchylenie pokaże zróżnicowanie obrazu a nie szum. Szczególnie, że każda jaśniejsza ciężarówka będzie miała większe wartości kwadratów, niż szum. 2. Średnia / odchylenie to po prostu odwrotność współczynnika zmienności - znowu, pokazuje (tym razem względnie) jak zróżnicowany jest sygnał=obraz. Każde z opracowań jakie czytałem mówi o co najmniej kilkudziesięciu klatkach - inaczej będzie więcej innego szumu niż biasu. Wg. opisu superbiasu z Pixinsight trzeba by zebrać ponad 200 klatek, żeby efekt superbiasu uzyskać z czystego stackowania. Więc jedna klatka nic nie mówi... Sprawdź czy dobrze to liczysz... powinno być szaro. EDIT: No i oznacza to, że masz rozpiętość (pomijając szum) 11 bitów a nie 16 - brzmi niewiarygodnie.
  5. Cześć, garść pytań na początek. Jak okreslasz/wyliczasz ilość szumu? Dlaczego SNR bez biasa ma odwrotną charakterystykę? Ile klatek zestackowales do master_bias? Debayeryzujesz przed czy po stackowaniu? Napisałeś sam debayera? Czy ja dobrze rozumiem, ze masz 2000 ADU samego biasu, a tylko 1000 ADU sygnału przy 8s?
  6. Tak oczywiście, głupi błąd - poprawiłem.
  7. Rozumiem, że mówisz o zestawie Hyperion 8-24 + Barlow 2.5x. Jeśli tak to okular z barlowem łączy się razem, uzyskujesz wtedy ogniskową okularu 3.2 mm - 9.6mm. Jednak postawione przez Ciebie pytanie jest niezrozumiałe, co to znaczy "Szukam okularu do zwiększenia kąta widzenia"?
  8. Nie chcę się czepiać - ale nie brutal tylko "brute force". No i brute force to moim zdaniem nie Monte Carlo, które jest techniką statystyczną.
  9. Słaba ta pomoc techniczna musiała być - zwykle jako jeden z pierwszych kroków przy diagnozie sieci robi się ping, a wtedy widać że 127.0.0.1 odpowiada. Dobrze że znalazłeś, jesteś pewien że sam tego nie dopisywałeś?
  10. A czy ktoś za czasów Kopernika kombinował z serwerami do odszumiania? Wnioski nasuwają się same
  11. Jak pisałem, nie używałem tego nigdy pod Windowsem - ale zdaje się masz rację, na Windowsa Indi to niestety tylko wrapper na ascoma. Tutaj coś się dzieje ze sterownikiem DSLR na ASCOMa, ale to nie wygląda na doszlifowane rozwiązanie. @RadekK czy Ty używałeś może Ekosa na Windowsie?
  12. Popatrzyłem teraz po dwóch latach na Sharpcapa - daruj sobie Ma fajne dodatki jak polaralignment czy wsparcie manualnego focusowania - ale zbieranie sekwencji jest biedne.
  13. Ogólnie nie siedzę w tych tematach, ale z tego co kojarzę to główna różnica jest chyba też w szybkości ładowania tekstur do GPU - zwykle jest to bardzo wolne.
  14. Na pewno Cię nie podejrzewam o złe zamiary - dlatego napisałem o "wydłużeniu okresu próbnego" i podałem rozwiązanie. Kłócić nie ma się o co... ja nikomu do komputera zaglądać nie będę, nie moja sprawa
  15. Wydawało mi się, że już wyrośliśmy z podejścia z lat 90 Indi działa też na Windowsie (choć sam nie używałem) i Macu. Nie jest do tego potrzebny Linux. Drivery są do prawie wszystkiego, lista tutaj: https://indilib.org/devices.html Różnie z tym bywa w obie strony - ale zwykle od komercyjnego software'u możemy oczekiwać wsparcia (chyba że nie płacimy). Jeśli chcesz wydać na SGP to myślę, że będziesz zadowolony, wydaje się kompletny i dużo poważnych ludzi go tutaj używa. Ja podałem alternatywę, używaną przez kilku zapaleńców - jeśli wolałbyś zmarnować nockę (albo i dzień, bo są tam sterowniki-symulatory) w potencjalnym celu zaoszczędzenia $99.
  16. Co innego jakieś b-spline'y, wavelety, fouriery i inne "matematyczne sztuczki", a co innego domyślanie się co tam jest. Wspominają w wątku też o algorytmie w GooglePixel (piszą jednak że tego jednak nie robią), który przeszukuje sieć w poszukiwaniu podobnych zdjęć w celu odgadnięcia kolorów na zdjęciach nocnych... Można by tam podpiąć zdjęcia z Hubble'a i w ogóle by pięknie wyostrzał Oczywiście nie ma twardej odpowiedzi, gdzie jest granica - dla jednego to będzie oszustwo, dla drugiego sztuka obróbki. (PS: czy poprawianie okrągłości gwiazd w Pixie jest ok czy to już oszustwo). Używają Tesli P4 na GC. Taka karta kosztuje $2,300 na Amazonie. Ale pewnie słabsze GPU, byle z CUDA już nieźle przyśpieszy (jeśli zadziała bez modyfikacji skryptu).
  17. Widać to moim zdaniem na gifie, pyły zmieniają kształt przy końcowych iteracjach. Nie wyostrzają się, tylko zmieniają.
  18. Przecież oni tam TensorFlow używają na GoogleCloud. To jest "akademicki" skrypt, nic co da się out of the box użyć. No i moim zdaniem to takie trochę oszustwo, tam jest ML, można to sobie wyobrazić tak jakby ktoś namalował zdjecie od nowa na podstawienie materiału jaki dostał. Co do prędkości na PC: NOTE: The script is extremely SLOW. 50 iterations take about 10 minutes to run (at least for me)...that's out of 2500-3000!. I imagine it's faster if CUDA is enabled. Also, I'm currently processing a 512x512 subframe of a relatively noisy stacked color M101 of mine. Anything much bigger than that was crushingly slow, and a full size frame from a 1x1 binned 1600MM (4656x3520) couldn't allocate enough memory on my 16GB laptop. So, realistically, this is somewhat of an academic exercise at the moment.
  19. Mało to legalne i ogólnie nie fair wobec twórców programu. Jeśli ktoś już jednak w taki sposób chce trochę wydłużyć okres próbny, to łatwiej odciąć aplikacje od sieci w Windowsowym firewallu. Nie ma wtedy ryzyka, że przez przypadek się połączy.
  20. Może jest mniej intuicyjny i mało kto tutaj też używa, ale KStars/Ekos ma sekwencje, refocusowanie co zadany czas albo gdy HFR przekroczy wartość graniczną. No i jest za free.
  21. Dokładnie Używałem Nebulosity, zarówno do akwizycji jak i później do obróbki. Jest dość ubogi, ale prosty i na początek wystarczał. Dla samej akwizycji szkoda płacić, do stackowania Siril go przewyższa. Przy pierwszych klatkach nie ma co od razu kupować kombajnów. Zacznij od APT albo Sharpcap'a; mi Sharpcap się bardzo podobał - ale używałem go chyba tylko z raz czy dwa na testy (ogólnie nie używam Windowsa). W momencie jak już poczujesz, że potrzebujesz więcej, będzie Ci łatwiej wybrać spośród bardziej zaawansowanych narzędzi. PS: ja używam open-sourcowego KStars/Ekos i na moim poziomie "rozwoju" nie wiem co więcej mogłyby mieć płatne narzędzia, jest tam w sumie wszystko.
  22. A do wizuala nie lepiej AZ?
  23. EDIT: dodatkowo 2 żółte porty USB są opisane w instrukcji jako high-current/fast-charging, niestety nie mogę znaleźć ile to oznacza amperów.
  24. Zanim zrobiłem swój aku chciałem kupić taki: https://www.celestron.com/products/powertank-lithium-pro# Dokładnie dopasowany do przepisów linii lotniczych: 158.74Wh 198 USD w stanach = 1 290 PLN w astroshop.eu
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.