Skocz do zawartości

Krzysztof z Bagien

Społeczność Astropolis
  • Postów

    3 179
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    5

Treść opublikowana przez Krzysztof z Bagien

  1. Takie pytanie mi się w głowie pojawiło - właściwie to dlaczego kamery mono są droższe od kolorowych?

    1. Pokaż poprzednie komentarze  6 więcej
    2. Krzysztof z Bagien

      Krzysztof z Bagien

      No właśnie mam taką niczym niepopartą pewność, że głównym składnikiem wyższej ceny jest "bo można" :D

    3. MaciejW

      MaciejW

      Ciekawe jak się robi mikrosoczewki na pixelach, jestem w stanie sobie wyobrazić, że trzeba ogarnąć proces na nowo bez maski bayera pod mikrosoczewkami. Znacznie mniejszy popyt też robi swoje. Ktoś musi zapłacić za uruchomienie linii, niesprzedane chipy, wystawienie produktu na sprzedaż

    4. diver

      diver

      Kamery OSC są dla szerokiej gawiedzi, a mono dla koneserów-fachowców, więc muszą być droższe. ;)

  2. A ja bym zrobił z w stylu tych pierwszych monochromatycznych zdjęć z JWST, czyli czerwono-żółty gradient (albo w wersji bardziej bajeranckiej czarny-czerwony-żółty-biały) zamiast skali szarości. Bardzo mi się taka forma przedstawiania obrazów mono spodobała a i często jest też czytelniejsza.
  3. A ja tak patrzę i patrzę, że gdzie niby te kropki, bo ja żadnych nie widzę - ślepy jestem, czy co? Fajnie to wygląda, trochę jak wejście w nadprzestrzeń w Gwiezdnych Wojnach
  4. Krzysztof z Bagien

    C14

    I ryzyko, że przyjdzie z potłuczonym korektorem, tak jak mój
  5. A żeby jeszcze rozwinąć temat - masz tam te takie dwie śrubki blokujące, jak są poluzowane to możesz np. schować pręt do transportu i wtedy będzie się też kręcił jak chcesz, bo jest luźny. A jak je dokręcisz, to obraca się razem z osią.
  6. Jak miałem maka, to jedną z pierwszych inwestycji był zewnętrzny wyciąg z Dreamfocuserem - jedne z najlepiej wydanych pieniędzy ever
  7. Jak zależy Ci na śledzeniu obiektu, to przy montażu paralaktycznym wystarczy od biedy napęd w jednej osi - więc można to ogarnąć po taniości. W przypadku azymutalnego to już niestety trzeba mieć zmechanizowane obie osie i do tego goto, bo prędkość w obu osiach ciągle się zmienia - więc to jest droższa opcja, ale też wygodniejsza (przynajmniej wg mnie). Pytanie - ile chcesz kasy na to wydać.
  8. Dlaczego? Jeżeli masz komputer umiejący wifi, to możesz podłączyć się bezpośrednio do sieci tworzonej przez montaż (czy tam ten jego dynks od wifi), odpalasz aplikację SynScan na kompie (generalnie obsługa jest taka sama jak na telefonie) i w niej łączysz się z montażem, i potem w dowolnym programie wybierasz sobie "SynScan telescope" i włala! Tylko musisz zainstalować sterownik ASCOM ze strony SW.
  9. Ja bym to widział tak: Jaki procent klatek zestackowałeś?
  10. Nie powiedziałbym, że ja się liczę jako mądra głowa, ale zapodaj stacka, albo jeszcze lepiej surówkę - to zobaczymy co się da zrobić.
  11. Spróbuj go sformatować np. za pomocą Partition Mastera, umie i może zrobić więcej niż to narzędzie wbudowane w system: https://pl.easeus.com/partition-manager/partition-master-free.html Może jakoś odżyje.
  12. Nic się nie pozmieniało, to działa tak jak piszesz - wyżej położone suwaczki odpowiadają za drobniejsze detale. Ja też zawsze zaczynam od samej góry; ewentualnie czasem, jak np. obrabiam obraz po drizzlowaniu, zmieniam ustawienie "initial layer" na wyższe.
  13. W sensie w obecnej wersji? Jeżeli tak, to u mnie nie działa. No tak.
  14. Zamiast takiego korytka trzeba było zrobić po prostu dwie płaskie, prostopadłe do siebie powierzchnie i pod kątem 45 stopni w stosunku do podstawy - coś jak pryzma pomiarowa.
  15. To jeszcze jedno pytanie, bo mi się przypomniało w związku z dyskusją na temat obróbki Jowisza: w jaki sposób ImPPG zamienia obraz kolorowy na skalę szarości? Po prostu uśrednia wszystkie trzy kanały?
  16. ImPPG obecnie umie przetwarzać tylko obrazy monochromatyczne, więc jak chcesz nim wyostrzać kolorowe, to musisz rozłożyć na poszczególne kanały i każdy kanał obrabiać osobno. Ale zające ćwierkają, że @WielkiAtraktorpracuje nad nową wersją, która będzie umiała się zająć obrazem kolorowym.
  17. Takie to trochę od dupy strony. Możesz spróbować zrobić platesolva np. w SharpCapie, bo on robi to odwrotnie - czyli jak już wie o ile montaż źle pojechał, to przestawia go o wartość błędu, żeby celował tam gdzie powinien i wtedy aktualizuje współrzędne tak, żeby się zgadzały z rzeczywistością.
  18. Plusem sterowania z pilota SynScan jest to, że masz fizyczne przyciski i nie musisz na niego patrzeć np. podczas centrowania obiektu w okularze, bo strzałki czujesz pod palcem - przy dotykowym ekranie nie ma tak dobrze. Szczerze mówiąc uważam, że tak tylko do wizuala to jednak pilot jest sporo wygodniejszy, pomimo dość upierdliwego mechanizmu wyszukiwania obiektów (chociaż jak znasz np. numer z katalogu Messiera to jest to akurat całkiem spoko). A jak zamierzasz sterować montażem z kompa (i przez wifi) to w sumie akurat to, że dają adapter jest na plus, a pilot wtedy i tak jest niepotrzebny. Cytat z instrukcji od AZ-EQ5, ale w AZ-EQ6 działa to tak samo: The AZ-EQ5 GT mount is equipped with auxiliary encoders on both the R.A. axis and Dec. axis. Therefore, the mount can keep track of its current position even when a user unlocks the clutches and rotates the mount in R.A. axis and Dec. axis manually. With this feature, a user can manually operate the mount anytime without worrying about losing the mount’s alignment status. When the user wants to operate the mount with the SynScan hand control again, no alignment is required and all that is needed to be done is to re-lock the clutches. This feature can be enabled or disabled on the SynScan hand controller Montaż ma dodatkowe enkodery na obu osiach i jak są włączone, to wtedy po ustawieniu i ewentualnym rozsprzęgleniu i przestawieniu ręcznym będzie z umiarkowaną dokładnością wiedział, w które miejsce patrzy - to są co prawda enkodery inkrementalne nie absolutne, ale skoro są, to montaż zawsze wie o ile się dana oś obróciła, bez względu na to czy to za pomocą silnika czy ręcznie. Wadą jest ta ich umiarkowana dokładność (a AZ-EQ5 jest to ok. 4,2' - 5144 zliczenia na obrót osi) - po prostu enkoder jak jest włączony, to montaż interesuje tylko pozycja obliczona na podstawie zliczeń enkodera, a nie ta na podstawie kroków silnika. Druga opcja jest dokładniejsza, więc np. do astrofoto lepiej te enkodery wyłączyć, ale wtedy jak się coś przestawi ręcznie, to montaż o tym nie wie, bo nie ma skąd.
  19. Nie mówię, że nie - ale do pewnego stopnia to raczej nie będzie robić specjalnej różnicy.
  20. Moim zdaniem każda nowa z małym pikselem będzie git. 678 ma piksel 2μm, to w zasadzie nawet barlow nie będzie Ci potrzebny (zresztą w cassegrainach z ruchomym lustrem można go sobie podarować, jak dołożysz zewnętrzny wyciąg albo przedłużki to możesz wydłużyć ogniskową nawet o kilkadziesiąt procent).
  21. A jest naturalny? Kolorystyka dość mocno odbiega od tego, jak człowiek to widzi. Np. WCP w podczerwieni jest bardzo jasna, a w świetle widzialnym niekoniecznie, bo tylko w kanale czerwonym - i na twoim obrazku z powodu użycia IR jako luminancji jest jasnopomarańczowa, a powinna być, jak sama nazwa wskazuje, czerwona.
  22. Ten sensor ma ciągle 50% sprawności przy 850nm, więc z filtrem 742nm będzie spoko jeśli chodzi o FPSy - tylko obraz będzie wpadać w czerwień i trzeba to będzie skorygować w postprodukcji. Metan też powinieneś spokojnie dać radę rejestrować, ale tutaj już niestety dłuższe czasy i/lub wysoki gain są koniecznością niezależnie od kamery. A, z używaniem podczerwieni jako luminancji to jest różnie - np. w przypadku Marsa powinno być spoko, ale taki Jowisz będzie wyglądał nienaturalnie. Zresztą, tak jak teraz Jowisz jest wysoko, to w świetle widzialnym złapiesz i tak więcej szczegółów, bo wpływ atmosfery jest już stosunkowo niewielki i lepszy seeing w IR nie kompensuje spadku zdolności rozdzielczej związanego z większą długością fali.
  23. A potem przyszła żona, zdjęła Ci z głowy durszlak i zgasiła światło
  24. 662 wg mnie nie jest jakoś specjalnie lepsza od 462. Będzie pewnie trochę bardziej czuła w świetle widzialnym no i dodatkowo nie ma amp glow (ale to przy planetach bez różnicy), za to 462 jest trochę tańsza. 585, tak stricte do planet, to moim zdaniem nie warto ze względu na cenę - ale z drugiej strony nie jest aż tak dużo droższa, a większa matryca też się może przydać. Myślę, że różnice są na tyle nieduże, że na co byś się nie zdecydował, to będzie spoko. A tą zasadą "5x piksel = F teleskopu" to aż tak strasznie się nie przejmuj, to nie jest tak, że jak nie trafisz idealnie, to będzie tragedia. To taka bardziej ogólna, zgrubna wskazówka. Edit: ewentualnie, jeżeli Ci się nie spieszy, to możesz poczekać, aż kamery Player One będą dostępne w Teleskopach (bo pewnie wkrótce będą) - bo to będzie mniej-więcej to samo, tylko powinno być nieco taniej.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.