Skocz do zawartości

Krzysztof z Bagien

Społeczność Astropolis
  • Postów

    3 157
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    5

Treść opublikowana przez Krzysztof z Bagien

  1. Tak dokładnie jak piszesz to się nie da, ale są jakieś tam metody oceny jakości poszczególnych klatek (FWHM, ogólna jasność, liczba wykrytych gwiazd) i można stackować tylko te spełniające kryteria.
  2. Zależy od programu i komputera, Autostakker ogarnia takie rzeczy całkiem sprawnie (kilka-kilkanaście minut pewnie), ale np. Pix to pewnie z pół roku by to mielił
  3. Z nowych to może np. ASI174MM mini, w Teleskopach jest za niecałe dwa tysie. Spory piksel, rozmiar matrycy też nie najmniejszy, można będzie powalczyć. Chyba, że wolisz kolorową, to np. 585, jak można zobaczyć na forum, jest całkiem spoko. Ewentualnie, ale to już większa kasa potrzebna, coś z matrycą IMX533. Chyba, że się znajdzie używka w dobrej cenie.
  4. Spróbuj się połączyć przez aplikację SynScan może. Albo jakiegoś innego EQModa. Tak na szybko to przychodzi mi do głowy tylko nieprawidłowa wartość Baud rate w ustawieniach sterownika, choć to raczej nie to.
  5. Pisz, pisz - można ewentualnie wydzielić do osobnego wątku, ale chyba nie ma potrzeby.
  6. Ha! Sprytne, nie wpadłbym na to - muszę sobie ten patent zapisać w swoim mentalnym kajeciku.
  7. Z drugiej strony za stówę czy dwie można sobie dokupić całkiem porządnego huba zewnętrznego - a cena tej kamery jest, w porównaniu do ZWO, naprawdę atrakcyjna. Widziałem gdzieś narzekanie na pionowe czy tam poziome paski na długich ekspozycjach, szczególnie widoczne w darkach, ale to chyba dotyczyło innej kamery z tych nowych chłodzonych od SVB (nie pamiętam i nie mogę znaleźć; coś z matrycą 533 może?) - w każdym razie gość pisał, że zgłosił ten problem i że producent mu odpowiedział, że wypuszczą aktualizację firmware' która ma to poprawić.
  8. Raczej mały piksel - będzie prościej uzyskać dużą skalę obrazu. 290 ma trochę większe piksele niż 178 (2,9µm vs 2,4µm), ale tym bym się specjalnie nie przejmował. Zaletą 290 jest nowsza matryca z HCG, co się przekłada na nieco mniejszy szum przy zachowaniu pełnej dynamiki z większym gainem (ale to nie są jakieś drastyczne różnice); 290 jest też wyraźnie szybsza od 178 (wg producenta 737,5fps vs 479,7fps przy ośmiu bitach i ROI 320x240), a przy planetach przeważnie im szybciej tym lepiej. Jeszcze fajna jest 462MM - rozmiar matrycy i piksela takie jak 290, troszkę wolniejsza od 290, ale ma wyższą sprawność kwantową i, przede wszystkim, najlepszą chyba czułość w podczerwieni (czyli np. w paśmie metanu). Ale już niedostępna jak widzę, przynajmniej w Teleskopach.
  9. Nie będę się kłócił, może to w ML jest taka opcja? Albo miesza mi się to po prostu z elektroniczną migawką.
  10. Wydaje mi się, że nie da się w Canonach zrobić zdjęcia bez otwierania migawki. Można ewentualnie, jak masz Magic Lantern, otworzyć fizyczną migawkę i potem odczytywać z matrycy w niemal dowolnych interwałach (tak jak w kamerach astro, taka elektroniczna migawka) jak się to odpowiednio poustawia. Lustro można podnieść na stałe nawet bez ML - włączasz sobie blokadę lustra albo po prostu live view, ale migawka tak czy siak czy srak musi kłapnąć.
  11. Aż tak to raczej nie bardzo, to są stosunkowo małe obiekty (kilka - kilkanaście metrów przeważnie) i ich rozmiar kątowy jest często mniejszy od rozmiaru plamki Airy'ego (to oczywiście zależy od skali obrazowania, ale żeby zobaczyć coś więcej niż tylko kropkę, to ogniskowa musi być liczona w metrach, jeśli mówimy o czymś innym niż ISS), więc w wyniku takiego obracania się satelity ślad nie robi się falisty, dalej jest prosty, tylko okresowo zmienia się jego jasność. Więc to raczej na pewno nie są satelity.
  12. A weź to zestackuj bez żadnego odrzucania, albo wrzuć tu kawałek tego wideo z ptaszyskiem, to ja to zrobię. Bo chciałbym zobaczyć jaki ślad z tego wyjdzie.
  13. Wszyscy to znamy - dziadygi zerżnęły pomysł od Bartka i nawet nie podziękowały
  14. No to musisz mieć tam ustawianie na 1/2/3 gwiazdy itp. (lewy górny róg - Alignment). Jest też narzędzie, które pokazuje właściwe położenie Polaris w lunetce (Utility > Advanced > Polar scope), a nawet narzędzie do ustawiania na biegun bez jego widoczności albo do korekcji zgrubnego ustawienia lunetą (Utility > Advanced > Polar alignment) - działa po wyrównaniu na dwie lub trzy gwiazdy.
  15. Nie ma jakiejś ogólnej zasady, prawa danego przez bogów czy naturę, że klin paralaktyczny musi być od iluś tam do iluś stopni. Zależy jaki klin i na ile konstrukcja pozwala. Spora część niemieckich montaży paralaktycznych też ma regulację szerokości geograficznej nie w pełnym zakresie (np. HEQ5, o ile dobrze kojarzę, ma 10 - 65 stopni). Montaż widłowy bez klina jest montażem azymutalnym, więc nie ustawia się go na odpowiednią szerokość geograficzną, a z klinem zachowuje się tak samo jak każdy inny montaż paralaktyczny, ale jego plusem w stosunku do innych konstrukcji jest to, że nie musi robić flipa przy przejściu przez południk, bo nic z niczym nie będzie kolidować.
  16. Słyszałeś kiedyś o takim wynalazku jak klin paralaktyczny? Nie? Chodź za mną, oprowadzę Cię. Popatrz na swój montaż. Tam na dole są takie śrubki, jak kręcisz jedną parą, to obraca się lewo-prawo, jest też taka, która zmienia jego nachylanie. No i widzisz, te śrubki i żelastwo w którym siedzą, to jest właśnie klin paralaktyczny - przeważnie jest zintegrowany z głowicą, ale bywają też jako osobne elementy. Widzisz, dowiedziałeś się czegoś nowego, zupełnie za darmo - i po co była ta złośliwość? Ten sarkastyczny ton wypowiedzi?
  17. Do obserwatorium, na stałe, to bym pomyślał nad jakimś montażem widłowym czy o podobnej konstrukcji - bo taki nie potrzebuje robić flipa. Ale jakie są sensowne i w rozsądnych cenach, to nie mam pojęcia.
  18. Masz zwykłą wersję aplikacji, czy pro? Bo ta zwykła jest biedniejsza i części rzeczy w niej nie ma.
  19. A lunetę masz w ogóle wyjustowaną? Bo ją trzeba zgrać z osią montażu, po zamontowaniu to nie wiadomo na co ona konkretnie patrzy.
  20. Już nie chciało mi się z tego robić gifa, bo wystarczy otworzyć oba obrazki w osobnych kartach przeglądarki i między nimi się przełączać - więc już to widziałem. Zdefiniuj "stworzył". Jak na tradycyjnie obrabianym zdjęciu przesadzisz z odszumianiem i wyostrzaniem, to też "stworzysz" coś, czego nie ma. Bo ja bym raczej użył słowa "zgadł" - tylko to jest taki, jak mówią w Ameryce, educated guess. Generalnie na tym polega deknwolucja, że trzeba zgadnąć PSF i zrobić tak, żeby zrobić sobie obraz sprzed zadziałania tegoż PSFa (przynajmniej ta "zwykła"). BXT nie zgaduje, tylko oblicza PSF na podstawie obrazu gwiazd (bo obraz gwiazdy jest w zasadzie obrazem PSF w tym miejscu), i robi to lokalnie w różnych miejscach obrazu, a nie, jak przeważnie, dla całego obrazu i na tym polega jego ogromna przewaga nad zwykłą dekonwolucją (i dlatego może skorygować, do pewnego stopnia przynajmniej, np. aberrację chromatyczną czy problemy z guidingiem). Ale nawet jak się zna PSF, to i tak tak naprawdę jest nieskończenie wiele możliwych obrazów, które takim PSFem potraktowane dadzą nam to, co nam się zarejestrowało, więc ostatecznie jest to i tak w jakimś tam stopniu zgadywanie (tutaj robi to wyuczona do tego celu sztuczna sieć neuronowa). A wracając do tego zdjęcia - to jest jakaś zgadywanka, ale nie taka po prostu na ślepo, tylko jednak wydaje mi się, że na podstawie danych, które się faktycznie zarejestrowały; po prostu kontrast tych bardzo drobnych szczegółów jest już tak niski, że nie da się ich sensownie wyciągnąć zwykłymi metodami. Tutaj Sławek po prostu pozwolił eksterminatorowi na za wiele, ale jakby trochę skręcić parametry, to byłoby git. Te struktury wyglądają może nienaturalnie, ale są tam gdzie powinny być i mają taki kształt jak trzeba, więc - moim zdaniem - jest to efekt faktycznego przetworzenia prawdziwych danych istniejących w zarejestrowanym materiale, a nie tworzenia czegoś z dupy. Zaryzykuję powtórzenie się, ale wg mnie taki efekt wynika ze zbyt mocnego wyostrzenia i nieoptymalnych parametrów samej dekonwolucji. Podobnie wyglądają obrazki potraktowane za mocno "zwykłą" dekonwolucją i wyostrzaniem (choć to jest jednak na trochę innym poziomie). Oczywiście może też być tak, że sieć jest w stanie rozpoznać obiekt i po prostu znając dobrze jego strukturę dorysować co trzeba i gdzie trzeba - nie mamy chyba wglądu w bebechy algorytmu i sieci neuronowej, więc tak naprawdę nie wiemy co konkretnie robi. Tylko wtedy sens miałoby, żeby robiła to bezbłędnie i nie generowała artefaktów, więc wydaje mi się, że BXT naprawdę robi to, co autorzy mówią, że robi i że nie ma tu bajkopisarstwa, tylko trzeba uważać na parametry procesu.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.