Skocz do zawartości

Behlur_Olderys

Moderator
  • Postów

    5 165
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez Behlur_Olderys

  1. Sugerowałem się mapką lightpollutionmap.info zalinkowaną na forum, z której wynika, że ratio w okolicach Turbacza to ok 0.5, a w okolicach Ustrzyk Górnych bliżej 0.05. oczywiście nie upieram się, te przykłady bardziej miały obrazować wpływ LP na SNR, a nie rzeczywisty rozkład zaświetlenia w Polsce
  2. Szary dym z kaplicy stykowej oznacza, że umarł sterownik.

    RIP A4988 ;(

     

    PS dobrze że nie silnik, dobrze że to tylko 8 zł :)

    1. Pokaż poprzednie komentarze  12 więcej
    2. Behlur_Olderys

      Behlur_Olderys

      Robiłem to kilka dni wcześniej i wszystko działało . Myślę że to jednak coś z tym przewijaniem. Ostatni raz! ;)

    3. antwito

      antwito

      W drukarce jak za szybko ruszyłem ręcznie głowicą, to aż się wyświetlacz zaświecił :) Teraz jedynie staram się to robić powoli. Z resztą jakieś zabezpieczenia tam muszą być

  3. A nie można od biedy położyć MAKa na głowicy kulowej i przykręcić śrubą/drutem do barierki balkonowej? Wiem, kombinuję jak koń pod górkę, ale wydaje się, że MAK naprawdę łączy duże powiększenie potrzebne do planet, małą światlosiłę ułatwiającą obserwacje przy dużym zaświetleniu nieba, i kompaktowość niezbędną na balkonie.
  4. Używany MAK 127 pewnie można dostać na giełdzie za 800zł, wydaje się to strzałem w dziesiątkę, jeśli interesuje Cię US z balkonu w mieście.
  5. Yavin IV wg infografiki ma ok. 10 000km średnicy, a jego macierzysta planeta Yavin Prime - ok. 200 000km, więc w dużym przybliżeniu 20x większa. Pytanie brzmi: czy przy takich założeniach można zrobić zdjęcie załączone w pierwszym poście? Problem polega na tym, że mniejsza planeta jest ukazana na tle większej (a więc obiektywnie jest dalej od 'aparatu'), a proporcje na zdjęciu to ok. 1:75, zamiast 1:20. Wydaje się, że jest to fizycznie niemożliwe. Perspektywa może zmniejszyć te proporcje na rzecz bliższego obiektu, (np. sprawić, że Yavin IV będzie się wydawał tylko 5x mniejszy zamiast 20x mniejszy) ale nie na odwrót. Wynika to z tego, że pole widzenia jest stożkiem z czubkiem w obiektywie, a brzegi stożka zawsze się rozchodzą, a nie zwężają. A zatem Yavin IV (niebieski) może być na "prawdziwym zdjęciu" dowolnie większy od Yavina Prime (czerwony), może też być mniejszy od niego, ale maksymalnie 20x, nie może być nigdy większy, niż 20x, np 75x - ergo, zdjęcie z pierwszego posta jest niefizyczne. Czy panowie szuu i JaLe zgadzają się co do tych spostrzeżeń? Czy można zakopać topór wojenny, oszczędzić lata wojny i miliony istnień?
  6. "w dzień nie szukaj gwiazd, one nocą są"

    Błyskotliwy przebój lata :)

    1. Pokaż poprzednie komentarze  3 więcej
    2. McGoris

      McGoris

      Wtedy jak zapomniałem że ta "piosenka" jeszcze istnieje :P

       

    3. sidiouss

      sidiouss

      TOBOM MNOM KIEDY WSZYSCY ŚPIOM! :D

    4. WielkiAtraktor

      WielkiAtraktor

      Nie dotyczy Betelgezy, jeśli pierdyknie latem.

  7. Pytanie więc brzmi: z jakiego punktu widzenia będzie patrzył odbiorca
  8. Jak to osobne tematy? Jeśli dwa piksele mają różne wartości kanałów ale paleta przypisze im ten sam, albo bardzo zbliżony kolor, to właśnie zgubiłeś detal. A odróżnianie odcieni jest trudniejsze lub łatwiejsze w zależności od koloru, więc paleta w zdjęciach narrowband powinna mieć bardzo duży wpływ na detal lub jego brak. Rejestracja to nie to samo, co wizualizacja.
  9. A czy gamma to nie jest coś, co powinno się zrobić już po ściągnięciu klatek? Nawiązuje do posta Jona Rista z CN w tym temacie: https://www.cloudynights.com/topic/566801-asi-cameras-and-sharpcap-gain-gamma-brightness-and-wcb-on-dsos/ Wydaje mi się to spójne z tym, co mówił MateuszW. Cytat JR: Color balance should also not be done with the driver (I don't think there is even an option). The color of your data as you get it out of the camera will almost always be off, if not wildly off. That is normal. Proper color comes from proper color correction in your image processing workflow, and should always be done on the integration, not the individual subs.
  10. Bardzo ostre, bardzo szczegółowe. Świetne zdjęcie!
  11. Klatki nie muszą być identyczne. Wystarczy, że piksele mają zbliżone wartości (np. kawałek tła zawsze będzie miał wartości z przedziału 0-10% nasycenia). Wtedy do bezstratnego zakodowania takiego sygnału trzeba dużo mniej miejsca, bo zmienność odbywa się w mniejszym zakresie dynamicznym (np. tylko na 3-4 bitach zamiast na całych 8). Po drugie, jeśli kawałek tła (np. pasek z brzegu) jest na każdej klatce ciemny a tło jest w miarę jednolite, to również przestrzennie sygnał może być bezstratnie zredukowany, tak jakby zdjęcie miało de facto mniej pikseli, bo zamiast każdej wartości możesz tylko pamiętać różnice pomiędzy sąsiadami, a ta różnica mieści się na mniejszej liczbie bitów, niż rzeczywista głębia koloru. To dwa najprostsze mechanizmy bezstratnej kompresji - różnicowanie w domenie czasowej i przestrzennej. Nie jest to żaden "rocket science". Jestem programistą z zawodu i wykształcenia. To oczywiście żaden argument, ale mam doświadczenie praktyczne z operowania informacją cyfrową, redukcją danych i optymalizacją. Więc przykro mi, jeśli mówisz coś takiego.
  12. Ok, racja. Czyli mówisz o czymś takim, że pojedyncze adc mają niedopasowane charakterystyki, ale tylko dla niskich zakresów sygnału. Nic, z czym dithering nie powinien sobie poradzić, prawda?
  13. Dokładnie. Będziesz miał np. 2e- szumu odczytu, 4e- sygnału i 2e- szumu fotonowego. Jedna klatka nic nie da, bo szum fotonowy będzie na tym samym poziomie, co odczytu. Więcej klatek to po prostu coraz to jaśniejszy flat Zakładam, że ten magiczny szum "wzorzysty" jest odmianą szumu odczytu wynikającą z jego przestrzennej niejednorodności trwałej w czasie. Ale jeśli tak jest, to bias by go "wydał". Dodatkowy słaby sygnał nie powinien nic zmienić... To jest jakaś magia... Czy tylko w Polsce występuje ten szum, za granicą też jest poruszany ten problem? A poza tym (prawdopodobnie eliminownym przez umiejętny dithering) "wzorkiem" nie widzę minusów dla CMOSów, za to widzę problemy typowych CCD w robieniu np. 1000klatek po 1s w dużej skali : Szum odczytu ( najczęściej większy dla CCD w porównaniu do CMOS na dużym gainie) Szybkość ściągania klatek (najczęściej wolniejsze są CCD od CMOS) Wielkość piksela (najczęściej CMOSy mają mniejsze piksele, co pozwala używać jaśniejszego sprzętu do tej samej skali). Wszystko to razem oczywiście nie sprawia, że się nie da. Ale CMOSy po prostu wydają się do tego lepsze. HAMAL, jeszcze raz Cię zapytam: zgadzasz się z tym? Czy jednak magiczny " wzorek" przebija wszystko inne?
  14. Wystarczy, że dithering będzie przesuwał o podobny rząd wielkości. Ile to jest Twoim zdaniem, 10pikseli, więcej? Ogólnie wielokrotny dithering powinien wprowadzać do obrazu swoisty szum przestrzenny, który można scharakteryzować rozkładem Gaussa, o ile jest robiony losowo, albo przynajmniej pseudolosowo. Ta losowość gwarantuje, że dowolny "wzór" matrycy powinien się uśrednić, jeśli jego zmienność przestrzenna będzie w podobnym rzędzie wielkości co dithering, w przeciwieństwie do obrazu obiektu, który z założenia nie zmienia swojego położenia przy ditheringu (to obiekt jest układem odniesienia) A poza tym: co masz na myśli mówiąc "trwały"? Mówimy o sygnale cyfrowym, nie ma mniej czy bardziej trwałych zer i jedynek.
  15. Te same obawy możesz mieć do zwykłego stackowania, bo przecież szum fotonowy też zmniejsza się (statystycznie) na drodze tego samego mechanizmu. Tam też rozkład Gaussa gwarantuje Ci pierwiastkowy przyrost szumu wobec liniowego przyrostu sygnału. I jakoś nikt nie ma wątpliwości, że stackowanie redukuje szum fotonowy (temporalny - zmienność w czasie) sygnału. Tak samo, na tej samej zasadzie dithering powinien eliminować szum przestrzenny. Zasada jest ta sama
  16. Dithering robiący losowe przemieszczenia kadru powinien eliminować ten efekt proporcjonalnie do pierwiastka z liczby przemieszczeń. Czyli np. robienie 1000 zdjęć przesuwając kadr co 10te zdjęcie (100korekt) efekt powinien zmniejszyć się 10-krotnie. Każdy rozkład w końcu zaczyna być rozkładem Gaussa ciekawe tylko, ile korekt stosuje się realnie zbierając materiał?
  17. Jak to co właśnie powiedziałeś ma się do tego: Przypominam: pierwsze zdjęcie to stack 300x7 (2100s) a drugie to 68x20s (1360s). [Notabene: Do 2100s trzeba dodać 300x czas ściągnięcia klatki z CCD. Ile to jest? 5s? W każdym razie trochę.] Do meritum: Nie widzę, żeby zebranie 1000klatek zamiast 300 dokonało jakiejś spektakularnej poprawy dla 1.go zdjęcia (piękne gładkie tło???).
  18. Jeszcze raz: czym te objawy się różnią od szumu w tamtej fotce z CCD?
  19. Biorąc pod uwagę, że klatki w takim aviku mało się między sobą różnią to wcale nie dziwne, myślę że 17x mniejszy plik to wcale nie tak dużo dla bezstratnej kompresji praktycznie statycznego obrazu.
  20. Czy efekt z którym teraz walczycie to jakiś inny szum niż ten na fotce z CCD?
  21. Piękne, kolorowe gwiazdki i urzekająca niebieskawa drobinka z prawej strony
  22. A co robi? Postaw jakąś ściśle sformułowaną tezę to podyskutujemy
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.