Skocz do zawartości

WielkiAtraktor

Społeczność Astropolis
  • Postów

    1 674
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    8

Treść opublikowana przez WielkiAtraktor

  1. Byłem mile zaskoczony 2 lata temu, że API dające dostęp do zapisywania RAWów przez aparat w Androidzie jest ot tak dostępne i np. darmowym programem OpenCamera można pocykać. Niech jeszcze ktoś wypuści "AstroPhone" ze ściągalnym obiektywikiem i najlepiej pierścieniem C/CS-mount w pleckach - można by coś planetarnego w małym ROI i z binningiem pokręcić.
  2. Nie zaszła pomyłka? Chameleon 3 z ICX445 (1/3") mieści całą tarczę z ogniskowej 350 mm. Surowa klatka z mojego: Lunt 35 (f = 400 mm) faktycznie nie mieścił.
  3. Kol. Rusłan przetłumaczył interfejs na jęz. rosyjski i ukraiński: Nowa wersja 0.6.2 do pobrania z https://github.com/GreatAttractor/imppg/releases
  4. D-ERF 90 mm: 385 € (albo Lunta 100 mm — 506 €, ale nie ręczę za jego płaskość P-V), do tego koszt zrobienia u kogoś złączki i ew. celi na D-ERF. Niektórzy dają mniejszy ERF wewnątrz tuby i są zadowoleni (acz jest ryzyko, że grzanie powietrza w środku pogorszy jakoś obrazu).
  5. Zakończenie kilka lat temu produkcji Lunta 35 zasmuciło słoneczników. Ale oto następca: Lunt 40, już od $299 (!) z filtrem blokującym B500.

     

    https://luntsolarsystems.com/shop/solar-products/hydrogen-alpha/40mm-telescopes/lunt-40mm-dedicated-hydrogen-alpha-solar-telescope/

    1. Pokaż poprzednie komentarze  4 więcej
    2. AdamK

      AdamK

      Może mi ktoś wytłumaczy o co chodzi: "all at an impressive 4.0mm Image Size! "

      O co chodzi? To znaczy, że Słońce będzie miało wymiar 4mm w okularze...?

      Co tu jest takiego imponującego?

    3. WielkiAtraktor

      WielkiAtraktor

      Chodzi o rozmiar obrazu w płaszczyźnie ogniskowej (a dokładniej to będzie 2 * f * tg(0.5°/2) ≈ 3,49 mm). Też nie wiem, po co akurat o tym wspominają (daliby obiektyw z f = 500 mm, to obraz byłby trochę większy, i vice versa...).

       

      Grunt to pamiętać o tym, że filtr blokujący B400 ma na tyle przelotu, by zmieścić akurat całą tarczę z ogniskowej 400 mm (czyli mało/brak miejsca na duże protuberancje, jakbyśmy np. chcieli focić całość naraz), B500 - będzie miał pewien zapas wokoło, B600 - jeszcze większy zapas (no i mniejsze niż B600 będą winietować z popularnymi sensorami 1/3").

    4. WielkiAtraktor

      WielkiAtraktor

      Na CN pojawiło się więcej szczegółow. Będzie dostępny moduł double-stack. Dla przypomnienia, wyniki Wojtka z Luntem 35 DS sprzed lat, link.

  6. Niezupełnie, trzeba też wziąć pod uwagę rozszerzenie się Wszechświata od czasu emisji tego obserwowanego światła (link). Daje to promień ok. 46 miliardów lat świetlnych.
  7. Ad. 13. Celne pytanie. Znajdujemy się w obrębie dysku Drogi Mlecznej, który jest dość cienki, więc możemy bez problemu obserwować dalsze obiekty patrząc „w górę” i „w dół” dysku. Za to w jego płaszczyźnie jest gorzej, i np. mapy rozkładu odległych galaktyk mają siłą rzeczy w tych kierunkach przerwę, np. tu:
  8. Ad. 3. Nigdy nie było tak, że „całe życie na planecie wyginęło”. Do tego epizodów masowego wymierania było 5 (wymarcie dinozaurów to najświeższy), zob. listę np. tutaj. Ad. 9. Sam sobie odpowiedziałeś. Ad. 10. Dzięki spektroskopii. Łapiemy światło teleskopem, przepuszczamy przez pryzmat albo rzucamy na siatkę dyfrakcyjną i dokładnie mierzymy znane (z laboratoriów tu na Ziemi) linie widmowe. Dzięki temu można określić m.in. następujące cechy źródła: - skład chemiczny i izotopowy, stopień zjonizowania, wzbudzenia - temperaturę - ciśnienie - natężenie pola magnetycznego Ad. 11. Można zmierzyć np. takim aparatem.
  9. To i ja się wypowiem, żeby rozjaśnić kwestię kolorów. Jeśli mamy 2 sensory tego samego "nadmodelu", które różnią się tylko obecnością maski Bayera lub nie (np. ww. ICX424AQ i ICX424AL), to liczba i odstęp ("rozmiar") pikseli są takie same (np. tu 659×494). „To jakim cudem wersja kolorowa daje mi obrazek RGB 659×494, skoro tylko połowa pikseli jest zielona, a niebieskich i czerwonych tylko 1/4?” I tu właśnie następuje omawiana utrata ostrości obrazu (mniej lub bardziej dotkliwa w zależności od zastosowania): trzeba coś zinterpolować. W najprostszym przypadku: - dla piksela „zielonego” na sensorze: jego wynikowe G to wprost jego wartość, jego R to średnia dwu sąsiadów w pionie (albo poziomie, zależy od układu maski), jego B to średnia dwu sąsiadów w poziomie - dla piksela „czerwonego”: jego R to wprost jego wartość, jego G to średnia czterech sąsiadów po bokach, jego B to średnia czterech sąsiadów po przekątnej (albo odwrotnie) - dla piksela „niebieskiego”: podobnie jak dla „czerwonego”, tylko sąsiedzi na odwyrtkę (Łatwo to sobie zwizualizować, patrząc na rysunek tutaj). Oczywiście można próbować sprytniej, wykrywając lokalne gradienty, krawędzie itd. (np. w programie RawTherapee znajdziemy kilka różnych algorytmów tego tzw. demozaikowania/„debayeryzacji”), tyle że zajmie to więcej czasu. Tu krótki artykuł na ten temat z bardziej złożoną interpolacją niż opisałem, i obrazkami wynikowymi.
  10. Na wyjazdy mam (stary) statyw od Bressera MON-2. Dość krótkie nogi, po odkręceniu mieszczą się bez problemu po przekątnej w standardowej walizie.
  11. 1,21 GW! Zasadniczo mogłoby - np. wysysamy bateryjki do zera, by naładować bank kondensatorów, i potem zap! ― 30-watowy błysk przez ułamek sekundy, jak przy eksperymentach z inercyjnym utrzymaniem plazmy do fuzji.
  12. A tak, macie rację. Przyspieszanie czasu: strona obliczeniowa robi się skomplikowana (czy mój schemat całkowania jest stabilny? na ile stabilny, jak zacznę zmieniać krok czasowy? czy wyniki nie rozjadą się kompletnie?). Oparcie się o gotowy engine: te obliczenia będą gdzieś w jego najgłębszych bebechach, a my tu chcemy grę pisać, nie rozgryzać/przerabiać czyjś zawiły kod. Co do podwójnej planety — brzmi jak cykl powieściowy Rocheworld! (O wyprawie załogowej do planety podwójnej, gdzie składniki okrążają się wewnątrz powierzchni Rocheʼa i są zdeformowane, do tego z wymianą atmosfery i wody).
  13. Od dawna wiele dobrego słyszę o KSP, muszę kiedyś w końcu zagrać. Ale zgadzam się z Behlurem, to faktycznie jest dziwne: Symulacja wpływu n ciał na rakietę jest znacznie prostsza niż „dzielenie na strefy wpływów” i sklejanie osobnych krzywych stożkowych - po prostu sumuje się w pętli (w schemacie "leap-frog" czy choćby trywialnym „Eulerem”) siły i tyle, użycie CPU znikome Musieli mieć jakiś inny powód (albo ktoś po prostu przekombinował).
  14. Racja, gdy używam ciemnej tuby, profilaktycznie owijam jakąś odbijającą folią (jak polecał Riklaunim), żeby niepotrzebnie się nie grzało, gdy akurat nie celuje w Słońce.
  15. To akurat bez związku, w końcu słonecznicy celują dużymi aperturami prosto w Słońce i udaje im się zebrać dobry materiał. Po prostu był kiepski seeing Oj tam, nie trzeba za dnia... jeśli przeszkadza komu jasność, wystarczy przecież nakręcić filtr ND na okular.
  16. Jak najbardziej polecam używany, w końcu to nie samochód ani nawet telewizor, żeby się w kilka lat zużył Od podziecięcego powrotu do astronomii praktycznej (od 2011 r.) prawie wszystkie (oprócz dwu małych achromatów i Lunta) teleskopy mam z giełd forumowych, od 100 po 300 mm apertury.
  17. Wszystko to wynika z przytoczonych wzorów. Weź pod uwagę, że ludzkie oko ma ok. 20 mm ogniskowej, siatkówka ok. 32 mm średnicy (upraszczam nieco, bo dodatkowo jest zakrzywiona), więc podlinkowana mgławica (ok. 30'x30') zajmuje znikomą część pola widzenia oka nieuzbrojonego (stąd przydatność tego 100-krotnego powiększenia w „wizualu”). Za to przy astrofoto podanym tam sprzętem, czyli kamerą z sensorem IMX290 (zaledwie ~6,5 mm przekątnej) i z ogniskową 420 mm nic dziwnego, że nagle wypełnia całe pole widzenia.
  18. Proponuję opublikowanie wyników również na CN w dziale planetarnym (i tamten starszy wątek demonstrujący obróbkę na dokładkę).
  19. Znalazłem coś więcej tutaj: Counts and Sizes of Galaxies in the Hubble Deep Field South (jest też HDF-N). Z Fig. 1: 22m-29m (wyrażone w układzie AB I814; górny panel, czarne kółka), 20,5m-28m (w AB F160W; dolny panel, białe kółka). Nie wiem, jak się to ma do wartości wizualnych/łapanych przez telefon
  20. Tutaj piszą: gdzie rzeczone 4 pasma (filtrów) to F300W, F450W, F606W i F814W.
  21. Zerknij na mapę zanieczyszczenia światłem. Gdy gdzieś klikniesz, wyświetli dokładne dane. Z doświadczenia wiem, że np. okolice Zawoi są wystarczająco ciemne (czyli szukasz czegoś z „Bortle class <=4”).
  22. Nie trzeba, zamawiasz w ich sklepie online i w kilka dni przysyłają z Kanady (przynajmniej kilka lat temu tak było).
  23. Pędem ściągaj najnowszą wersję ImPPG! Działa o wiele szybciej, wszystko (oprócz wyrównania klatek do animacji) jest liczone na GPU. Lepiej uściślić, bo "Chameleon 3" to cała rodzina kamerek. Chodzi o tę z sensorem ICX445 mono, model CM3-U3-13S2M-CS.
  24. Notabene z RPi można używać też kamerek po USB (ZWO, PointGrey, webcams). Sprawdziłem tak swoje Chameleona i Firefly z darmowym programem PlanetaryImager.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.