Skocz do zawartości

Behlur_Olderys

Moderator
  • Postów

    5 148
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez Behlur_Olderys

  1. Dla uściślenia: Przez wielkość mamy oczywiście na myśli powierzchnię przekroju. A zatem załóżmy, że foton ma powierzchnię przekroju prostopadłą do kierunku ruchu równą d [m^2] (być może ta powierzchnia jest bardzo mała, np. 10^-30m^2). Gwiazda emituje N fotonów na sekundę w losowych kierunkach. To znaczy, że gdyby otoczyć całą gwiazdę detektorem sferycznym, to taki detektor zliczałby N fotonów na sekundę. Warto zauważyć, że skoro otaczałby całą gwiazdę, to łapałby wszystkie N fotonów na sekundę nawet, gdyby miał bardzo duży promień, np. równy odległości gwiazdy do Ziemi. Jeśli detektor otaczający gwiazdę miałby promień równy odległości R gwiazda - Ziemia, to miałby powierzchnię czynną A = 4*pi*R^2[m^2]. Skoro detektor o powierzchni czynnej A metrów kwadratowych łapie N fotonów na sekundę, to wycinek tego detektora o powierzchni czynnej p złapie N*p/A fotonów na sekundę (z proporcji) Jak widać, ilość fotonów na sekundę łapana przez taki detektor maleje wraz z kwadratem odległości od źródła. Dlatego przy stałej wartości p równej np. powierzchni siatkówki naszego oka, albo zwierciadła teleskopu, im dalej do gwiazdy tym mniej fotonów łapiemy i tym ciemniejsza się wydaje. Wracając do pytania: teoretycznie, można ustalić p = d i mamy wtedy detektor o powierzchni czynnej równej powierzchni fotonu (o ile taka istnieje oczywiście). Taki detektor będzie łapał N*d/A fotonów na sekundę. Biorąc pod uwagę, że zakładamy foton o niezerowej powierzchni d to nawet detektor o geometrycznej powierzchni równej zero (punkt) będzie miał powierzchnię czynną równą d, bo taką powierzchnię ma zbiór punktowych detektorów które wyłapią ten sam foton. Zatem detektor o zerowej powierzchni będzie łapał N*d/A fotonów na sekundę (zakładając, że fotony mają powierzchnię d) Podobnie w drugą stronę: jeśli foton miałby zerową powierzchnię, ale detektor miał niezerową powierzchnię d, to taki detektor będzie też miał czynną powierzchnię d i wyłapie N*d/A fotonów na sekundę. Jeśli i foton, i detektor są punktami, to taki detektor nigdy nie złapie żadnego fotonu, bo powierzchnia czynna detektora będzie równa 0. Ostatnia najbardziej skomplikowana możliwość: Jeżeli detektor ma geometryczną powierzchnię d, i taką samą powierzchnię będzie miał przekrój fotonu, to wtedy powierzchnia czynna będzie równa 4*d, o ile zakładamy że i foton, i detektor mają przekrój kolisty
  2. Dla rozluźnienia klimatu - jak upiec dobrą pizzę kierując się fizyką! 

    https://arxiv.org/ftp/arxiv/papers/1806/1806.08790.pdf

    1. Adam_Jesion

      Adam_Jesion

      Nie linkuj do tego skorumpowanego, niewiarygodnego źródła :P

    2. Paether

      Paether

      Hmmmm, zerknijmy co VixrA ma w tym temacie do powiedzenia:

       

      if-earth-isnt-flat-then-why-is-pizza-fla

  3. Chodzi mi o to, że kierunek emisji każdego pojedynczego fotonu jest losowy, więc unikalny. Jeśli losujesz liczby z ciągłego przedziału, to szansa na trafienie tej samej liczby dwa razy równa jest zero.
  4. Statystycznie rzecz biorąc po tej prostej nigdy nie przeleci więcej, niż jeden foton
  5. Przypominam tylko, że nawet punktowe źródło światła rozsiewa fotony na wszystkie strony w sposób zasadniczo losowy, więc nie lecą one "gęsiego" tylko jakby takim rozproszonym, bezładnym tłumem
  6. Przepraszam, widzę teraz mój błąd. To LP jest 10x mniejsze, a nie niebo ciemniejsze 10x . Raz po raz padam ofiarą własnych skrótów myśliwych i braku precyzji, do której przecież przykładam taką wagę
  7. No to dobrze rozumowałem. Jeśli jasność nieba (czyli "gołe niebo" + LP) jest 1.5x większa niż naturalna (czyli samo "gołe niebo") to znaczy LP = 0.5x naturalna jasność w Gorcach, 0.05x naturalna jasność w Bieszczadach. Czyli 10x mniejsze LP w Bieszczadach, QED
  8. Sugerowałem się mapką lightpollutionmap.info zalinkowaną na forum, z której wynika, że ratio w okolicach Turbacza to ok 0.5, a w okolicach Ustrzyk Górnych bliżej 0.05. oczywiście nie upieram się, te przykłady bardziej miały obrazować wpływ LP na SNR, a nie rzeczywisty rozkład zaświetlenia w Polsce
  9. Szary dym z kaplicy stykowej oznacza, że umarł sterownik.

    RIP A4988 ;(

     

    PS dobrze że nie silnik, dobrze że to tylko 8 zł :)

    1. Pokaż poprzednie komentarze  12 więcej
    2. Behlur_Olderys

      Behlur_Olderys

      Robiłem to kilka dni wcześniej i wszystko działało . Myślę że to jednak coś z tym przewijaniem. Ostatni raz! ;)

    3. antwito

      antwito

      W drukarce jak za szybko ruszyłem ręcznie głowicą, to aż się wyświetlacz zaświecił :) Teraz jedynie staram się to robić powoli. Z resztą jakieś zabezpieczenia tam muszą być

  10. A nie można od biedy położyć MAKa na głowicy kulowej i przykręcić śrubą/drutem do barierki balkonowej? Wiem, kombinuję jak koń pod górkę, ale wydaje się, że MAK naprawdę łączy duże powiększenie potrzebne do planet, małą światlosiłę ułatwiającą obserwacje przy dużym zaświetleniu nieba, i kompaktowość niezbędną na balkonie.
  11. Używany MAK 127 pewnie można dostać na giełdzie za 800zł, wydaje się to strzałem w dziesiątkę, jeśli interesuje Cię US z balkonu w mieście.
  12. Yavin IV wg infografiki ma ok. 10 000km średnicy, a jego macierzysta planeta Yavin Prime - ok. 200 000km, więc w dużym przybliżeniu 20x większa. Pytanie brzmi: czy przy takich założeniach można zrobić zdjęcie załączone w pierwszym poście? Problem polega na tym, że mniejsza planeta jest ukazana na tle większej (a więc obiektywnie jest dalej od 'aparatu'), a proporcje na zdjęciu to ok. 1:75, zamiast 1:20. Wydaje się, że jest to fizycznie niemożliwe. Perspektywa może zmniejszyć te proporcje na rzecz bliższego obiektu, (np. sprawić, że Yavin IV będzie się wydawał tylko 5x mniejszy zamiast 20x mniejszy) ale nie na odwrót. Wynika to z tego, że pole widzenia jest stożkiem z czubkiem w obiektywie, a brzegi stożka zawsze się rozchodzą, a nie zwężają. A zatem Yavin IV (niebieski) może być na "prawdziwym zdjęciu" dowolnie większy od Yavina Prime (czerwony), może też być mniejszy od niego, ale maksymalnie 20x, nie może być nigdy większy, niż 20x, np 75x - ergo, zdjęcie z pierwszego posta jest niefizyczne. Czy panowie szuu i JaLe zgadzają się co do tych spostrzeżeń? Czy można zakopać topór wojenny, oszczędzić lata wojny i miliony istnień?
  13. "w dzień nie szukaj gwiazd, one nocą są"

    Błyskotliwy przebój lata :)

    1. Pokaż poprzednie komentarze  3 więcej
    2. McGoris

      McGoris

      Wtedy jak zapomniałem że ta "piosenka" jeszcze istnieje :P

       

    3. sidiouss

      sidiouss

      TOBOM MNOM KIEDY WSZYSCY ŚPIOM! :D

    4. WielkiAtraktor

      WielkiAtraktor

      Nie dotyczy Betelgezy, jeśli pierdyknie latem.

  14. Pytanie więc brzmi: z jakiego punktu widzenia będzie patrzył odbiorca
  15. Jak to osobne tematy? Jeśli dwa piksele mają różne wartości kanałów ale paleta przypisze im ten sam, albo bardzo zbliżony kolor, to właśnie zgubiłeś detal. A odróżnianie odcieni jest trudniejsze lub łatwiejsze w zależności od koloru, więc paleta w zdjęciach narrowband powinna mieć bardzo duży wpływ na detal lub jego brak. Rejestracja to nie to samo, co wizualizacja.
  16. A czy gamma to nie jest coś, co powinno się zrobić już po ściągnięciu klatek? Nawiązuje do posta Jona Rista z CN w tym temacie: https://www.cloudynights.com/topic/566801-asi-cameras-and-sharpcap-gain-gamma-brightness-and-wcb-on-dsos/ Wydaje mi się to spójne z tym, co mówił MateuszW. Cytat JR: Color balance should also not be done with the driver (I don't think there is even an option). The color of your data as you get it out of the camera will almost always be off, if not wildly off. That is normal. Proper color comes from proper color correction in your image processing workflow, and should always be done on the integration, not the individual subs.
  17. Bardzo ostre, bardzo szczegółowe. Świetne zdjęcie!
  18. Klatki nie muszą być identyczne. Wystarczy, że piksele mają zbliżone wartości (np. kawałek tła zawsze będzie miał wartości z przedziału 0-10% nasycenia). Wtedy do bezstratnego zakodowania takiego sygnału trzeba dużo mniej miejsca, bo zmienność odbywa się w mniejszym zakresie dynamicznym (np. tylko na 3-4 bitach zamiast na całych 8). Po drugie, jeśli kawałek tła (np. pasek z brzegu) jest na każdej klatce ciemny a tło jest w miarę jednolite, to również przestrzennie sygnał może być bezstratnie zredukowany, tak jakby zdjęcie miało de facto mniej pikseli, bo zamiast każdej wartości możesz tylko pamiętać różnice pomiędzy sąsiadami, a ta różnica mieści się na mniejszej liczbie bitów, niż rzeczywista głębia koloru. To dwa najprostsze mechanizmy bezstratnej kompresji - różnicowanie w domenie czasowej i przestrzennej. Nie jest to żaden "rocket science". Jestem programistą z zawodu i wykształcenia. To oczywiście żaden argument, ale mam doświadczenie praktyczne z operowania informacją cyfrową, redukcją danych i optymalizacją. Więc przykro mi, jeśli mówisz coś takiego.
  19. Ok, racja. Czyli mówisz o czymś takim, że pojedyncze adc mają niedopasowane charakterystyki, ale tylko dla niskich zakresów sygnału. Nic, z czym dithering nie powinien sobie poradzić, prawda?
  20. Dokładnie. Będziesz miał np. 2e- szumu odczytu, 4e- sygnału i 2e- szumu fotonowego. Jedna klatka nic nie da, bo szum fotonowy będzie na tym samym poziomie, co odczytu. Więcej klatek to po prostu coraz to jaśniejszy flat Zakładam, że ten magiczny szum "wzorzysty" jest odmianą szumu odczytu wynikającą z jego przestrzennej niejednorodności trwałej w czasie. Ale jeśli tak jest, to bias by go "wydał". Dodatkowy słaby sygnał nie powinien nic zmienić... To jest jakaś magia... Czy tylko w Polsce występuje ten szum, za granicą też jest poruszany ten problem? A poza tym (prawdopodobnie eliminownym przez umiejętny dithering) "wzorkiem" nie widzę minusów dla CMOSów, za to widzę problemy typowych CCD w robieniu np. 1000klatek po 1s w dużej skali : Szum odczytu ( najczęściej większy dla CCD w porównaniu do CMOS na dużym gainie) Szybkość ściągania klatek (najczęściej wolniejsze są CCD od CMOS) Wielkość piksela (najczęściej CMOSy mają mniejsze piksele, co pozwala używać jaśniejszego sprzętu do tej samej skali). Wszystko to razem oczywiście nie sprawia, że się nie da. Ale CMOSy po prostu wydają się do tego lepsze. HAMAL, jeszcze raz Cię zapytam: zgadzasz się z tym? Czy jednak magiczny " wzorek" przebija wszystko inne?
  21. Wystarczy, że dithering będzie przesuwał o podobny rząd wielkości. Ile to jest Twoim zdaniem, 10pikseli, więcej? Ogólnie wielokrotny dithering powinien wprowadzać do obrazu swoisty szum przestrzenny, który można scharakteryzować rozkładem Gaussa, o ile jest robiony losowo, albo przynajmniej pseudolosowo. Ta losowość gwarantuje, że dowolny "wzór" matrycy powinien się uśrednić, jeśli jego zmienność przestrzenna będzie w podobnym rzędzie wielkości co dithering, w przeciwieństwie do obrazu obiektu, który z założenia nie zmienia swojego położenia przy ditheringu (to obiekt jest układem odniesienia) A poza tym: co masz na myśli mówiąc "trwały"? Mówimy o sygnale cyfrowym, nie ma mniej czy bardziej trwałych zer i jedynek.
  22. Te same obawy możesz mieć do zwykłego stackowania, bo przecież szum fotonowy też zmniejsza się (statystycznie) na drodze tego samego mechanizmu. Tam też rozkład Gaussa gwarantuje Ci pierwiastkowy przyrost szumu wobec liniowego przyrostu sygnału. I jakoś nikt nie ma wątpliwości, że stackowanie redukuje szum fotonowy (temporalny - zmienność w czasie) sygnału. Tak samo, na tej samej zasadzie dithering powinien eliminować szum przestrzenny. Zasada jest ta sama
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.