Skocz do zawartości

Magnitudo


Exartis

Rekomendowane odpowiedzi

Astroccd,

 

Okazuje się że nie kontrast jest przyczyną, jeśli do noktowizora założysz obiektyw Helios 58/2 żeby mieć powiększenie 1x, zobaczysz wszystkie gwiazdki 8 mag naraz i to z centrum miasta, jeśli natomiast przymkniesz obiektyw do średnicy ludzkiego oka, zasięg gwiazdowy ograniczy ci szum kwantowy tła nieba.

 

Co ma znaczyć zdanie z obiektywem Helios 58/2 i powiększeniem 1x - jak obliczyłeś to powiększenie?

Druga sprawa to jest to, że przecież noktowizor działa jeszcze inaczej - jednym z najważniejszych układów noktowizora jest wzmacniacz obrazu, który wzmacnia strumień światła kilkaset czy kilka tysięcy razy - nic dziwnego, że widzisz przez niego gwiazdy o jasności 8 mag z miasta. Spoza miasta dostrzegłbyś pewnie jeszcze więcej.

Jeśli przymkniesz obiektyw noktowizora, to oczywiście zmniejszasz strumień światła, który otrzymuje on od gwiazd - jesteś pewien, że to co nazywasz "szumem kwantowym tła nieba" to nie są jakieś szumy samego sprzętu (np. wzmacniacza obrazu)? Przecież zmniejszając średnicę obiektywu w równym stopniu zmniejszasz ilość światła dochodzącą do sprzętu od gwiazd, co od tła nieba, w związku czym gdyby problemem był tu tylko szum generowany przez tło nieba, gwiazdy powinny być nadal tak samo dobrze widoczne.

Może źle się wyraziłem pisząc, że problemem jest kontrast. Generalnie chodziło mi o to, że w mieście wpływ atmosfery na zasięg to nie tylko kwestia ekstynkcji atmosferycznej (czyli osłabienia natężenia światła obserwowanych obiektów), ale także jaśniejszego tła nieba. Z doświadczenia wiem, że w czyste bezksiężycowe noce zasięg w mieście waha się znacznie bardziej niż w bardzo dużej odległości od niego. Wiele razy zauważyłem to odjeżdżając 20 - 30 km od Krosna. Jeśli niebo było bezchmurne i nie było mgły, poza miastem zasięg chyba za każdym razem miałem w granicach 7.0m - 7.5m, podczas gdy w Krośnie wahał się w tym czasie w zakresie mniej więcej 6.0m - 7.2m.

 

 

Odnośnie integracji 0.3s w oku polecam obejrzeć animację satelity z integracją 0.3s http://www33.zippysh...10649/file.html trzeba kliknąć download i pobrać animację, na pewno integracja w stylu klatka 1+2+3+4 potem 5+6+7+8 potem 9+10+11+12 w oku nie występuje bo byśmy widzieli ruch satelity skokowo, co najwyżej może być uśrednianie 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 wtedy animacja będzie płynna, ale będzie występować smużenie, obserwując w nocy nie widzę smużenia, mam kamerkę telewizji przemysłowej w której można włączyć integrację np.: 0.3 s lub uśrednianie więc mam porównanie jak by to kiepsko wyglądało.

 

Pisząc o integracji miałem na myśli coś zbliżone do tego, co nazwałeś uśrednianiem (choć dla mnie uśrednianie byłoby gdyby ta suma 1+2+3+4 była następnie dzielona przez 4). Tak naprawdę integracja tego sygnału nie będzie polegać na żadnym dodawaniu "klatek". Oko działa w sposób ciągły, sygnały generowane przez siatkówkę też są ciągłe i mają pewien czas trwania (dla oka zaadaptowanego do ciemności ten czas trwania to właśnie coś rzędu 300 ms). Oczywiście w czasie trwania sygnał taki zmienia swoją siłę - najpierw szybko rośnie, osiągając dość szybko maksimum, później powoli opada. Jeśli przed jego końcem pojawi się nowy sygnał, wypadkowo będziemy mieli sygnał silniejszy - to właśnie nazywałem integracją. Jeśli już mamy to opisywać jakimś wzorem, to raczej należałoby tu użyć całki po czasie zamiast dyskretnej sumy.

 

Kwestii tej integracji (słabych sygnałów przez w pełni zaadaptowane do ciemności pręciki) nie wymyśliłem sam, ale znalazłem ją w wynikach prac naukowych ludzi, którzy temu zagadnieniu poświęcili wiele czasu (z angielskiego nazywają to "integration time"). Dla odmiany czopki integrują (składają/sumują) sygnały mniej więcej 10 razy szybciej. Tak więc "smużenia" moglibyśmy się ewentualnie spodziewać dla obiektów raczej słabych (myślę, że słabszych od około 2 mag).

Nie jestem pewien, jak się ma sprawa z tym zjawiskiem. Jak dla mnie, to dla szybkich obiektów (meteory) być może ono istnieje. Słabe meteory zdecydowanie wyglądają jak "kreski" nie wiem jednak, jaka część tego zjawiska wynika z faktu, że zjawisko meteoru to świecenie atomów atmosfery (które pewnie mogą świecić jeszcze przez jakiś czas po przelocie "kamyka" - nie mam tu na myśli śladu po przelocie), a jaka jest efektem integracji światła na siatkówce oka.

Co do satelitów, to być może pewnym problemem z wystąpieniem "smużenia" może być fakt, że oko ma silną skłonność do podążania za tym co ruchome, a satelity poruszają się na tyle powoli, że da się je śledzić. Z drugiej strony takiego efektu można by się spodziewać na gwiazdach, jeśli powoli przesuwamy wzrok.

Myślę, że tak naprawdę podstawowy problem tego rozumowania (o "smużeniu") tkwi ponownie w zbyt bliskim porównywaniu wzroku i urządzeń elektronicznych. Jak na razie dyskutowaliśmy tu tylko o siatkówce, a przecież najważniejszym elementem w procesie widzenia jest chyba mózg, który to wszystko analizuje. To co widzimy to nie jest "suchy odczyt z detektora", ale efekt po silnym "image processingu". Być może w trakcie tego przetwarzania obrazu usuwane są smugi - tego nie wiem.

Zdecydowanie bardziej od domysłów popartych porównaniami do elektronicznych detektorów przemawiają do mnie wyniki wieloletnich badań nad wzrokiem, które jednoznacznie wskazują, że w procesie widzenia zachodzi integracja sygnału, a czas tej integracji dla oka zaadaptowanego do ciemności jest rzędu 300 ms.

 

Odnośnie zarzutu że za bardzo przyrównuje oko do elektroniki, otóż istnieje coś takiego interpretacja wad obrazu i wtedy mnie nie interesuje skąd obraz pochodzi bo może pochodzić z kliszy fotograficznej, jeśli ktoś podaje że sprawność kwantowa kliszy wynosi 1% to jest to interpretacja wad obrazu i oznacza dla mnie jedno, szumy na całym obrazie będą 10x większe, a dynamika będzie rosła w tempie 3db na każde podwojenie jasności. Natomiast jeśli ktoś pomylił sprawność kwantową z innymi wadami jak ziarno fotograficzne to może oznaczać że dynamika będzie rosła 6db na każde podwojenie jasności. Może śmieszne jest podawanie rozmiaru ziarna fotograficznego jako szum odczytu w elektronach, jednak szum odczytu to ważny parametr obrazu.

 

Ale przecież w oku nie mamy czegoś takiego jak szum odczytu, więc jak to można porównać?

 

Jeśli już koniecznie chcesz porównywać oko z CCD, to w jednej z prac znalazłem taką tabelkę:

 

 

 

Dlatego noktowizor nie ma integracji i doskonale się spisuje, oko też nie ma integracji na pewno nie 0.3s może ma 0.02s uśredniania na podobieństwo luminoforu.

 

Czy masz cokolwiek na potwierdzenie tezy, że oko (oczywiście po pełnej adaptacji do ciemności) nie ma czasu integracji rzędu 0.3 s, czy tylko są to Twoje domysły?

 

Najsłabszy punkt możliwy do zaobserwowania w ciemnym pokoju okiem po całkowitej adaptacji do ciemności przez ponad godzinę, przypomina niestabilne światło świecy na wietrze, mimo iż pochodzi od stabilnej diody, odbijającej się od klosza żyrandola, dlatego nie ma szans zaobserwowania pulsów 3Hz.

 

Nigdy nie zauważyłem, żeby było tak jak piszesz (o tym niestabilnym świetle świecy na wietrze).

 

Cały czas z zamkniętymi oczyma po całkowitej adaptacji do ciemności lata mi jakis szum przed oczyma, jest tak szybki jak z TV 1/50s.

 

Taki szum to ja widzę kiedy nie mam oczu zaadaptowanych do ciemności. Zresztą jest on dość słaby i na tyle niewyraźnie zaznaczony, że nie podjąłbym się oceniać jego częstotliwości (może jest to 50 Hz, a może 10 Hz). Szczerze powiem, że nie zwróciłem nigdy uwagi na te szumy gdy miałem wzrok w pełni zaadaptowany do ciemności.

Odnośnik do komentarza
Udostępnij na innych stronach

Co ma znaczyć zdanie z obiektywem Helios 58/2 i powiększeniem 1x - jak obliczyłeś to powiększenie?

Normalnie przez noktowizor patrzysz jak przez lunetę, jeśli otworzysz drugie oko to widzisz że obiekty są tej samej wielkości.

Druga sprawa to jest to, że przecież noktowizor działa jeszcze inaczej - jednym z najważniejszych układów noktowizora jest wzmacniacz obrazu, który wzmacnia strumień światła kilkaset czy kilka tysięcy razy - nic dziwnego, że widzisz przez niego gwiazdy o jasności 8 mag z miasta. Spoza miasta dostrzegłbyś pewnie jeszcze więcej.

Tak podają w katalogach że wzmacnia wiele tysięcy razy, bo jeden foton padający na sensor wybija tysiące fotonów z luminoforu na ekranie, ale te fotony z ekranu rozbiegają się w promieniu 180 stopni do oka trafi niewiele. Kiedyś podłączyłem kamerę z tyłu noktowizora i udało się podnieść jasność obrazu tylko 10x, okazało się że powierzchnia obiektywu noktowizora była 10x większa od powierzchni obiektywu kamery, po przymknięciu średnicy obiektywu noktowizora do rozmiaru średnicy obiektywu kamery obraz był tak samo jasny jak ze samej kamery bez noktowizora. To stary ruski noktowizor pierwszej generacji, bez własnego oświetlacza terenu mało użyteczny. Taki samo czuły jak oko, więc kupiłem trzecie oko, po co mi trzecie oko? Bo do swojego nie założę soczewki o światłosile 1:1, bo nie musi się przyzwyczajać godzinę do ciemności od razu jest gotowy.

Jeśli przymkniesz obiektyw noktowizora, to oczywiście zmniejszasz strumień światła, który otrzymuje on od gwiazd - jesteś pewien, że to co nazywasz "szumem kwantowym tła nieba" to nie są jakieś szumy samego sprzętu (np. wzmacniacza obrazu)?

Nie bo na CCD jest tak samo, spokojnie sobie fotografuję z miasta gwiazdki 8 mag, bez obróbki, wyostrzania, rozciągania histogramu, przy ogniskowej 8 mm na kompakcie, daje to pole widzenia 49 stopni, przy rozdzielczości 1024x768 masz ok. 3' na piksel.

Przecież zmniejszając średnicę obiektywu w równym stopniu zmniejszasz ilość światła dochodzącą do sprzętu od gwiazd, co od tła nieba, w związku czym gdyby problemem był tu tylko szum generowany przez tło nieba, gwiazdy powinny być nadal tak samo dobrze widoczne.

Jeśli np.: masz tło naświetlone do 100 elektronów, to szum średni będzie 10, żeby zobaczyć gwiazdę musi ona mieć co najmniej 5x większą jasność od szumu średniego czyli 50. Zmniejszając ilość światła 10x, tło naświetlisz do 10 elektronów co da szum 3.3, a gwiazda będzie miała jasność 5, a więc będzie niemożliwa do wyłowienia z szumu tła, gdybyś usunął light pollution to zobaczysz gwiazdę na czystym tle. A więc przymykając obiektyw zmniejszasz ilość światła od gwiazdy liniowo proporcjonalnie do powierzchni obiektywu, natomiast poziom szumu od tła zmniejsza się z pierwiastkiem kwadratowym zmniejszania powierzchni obiektywu. Zmniejszając powierzchnię obiektywu 10x musisz jednocześnie wyjechać za miasto tam gdzie light pollution będzie 10x mniejsze żeby uzyskać taki sam zasięg.

Czy masz cokolwiek na potwierdzenie tezy, że oko (oczywiście po pełnej adaptacji do ciemności) nie ma czasu integracji rzędu 0.3 s, czy tylko są to Twoje domysły?

No przecież cały post na to poświęciłem, czy muszę np.: szukać potwierdzenia tezy że przy zoomie cyfrowym szum bardziej mi dokucza, mimo że pomiar "odchylenia standardowego" nie wykazuje wzrostu szumu. Jeśli robisz binnowanie softwaerowe 2x2 to pomniejszasz rozmiar obrazu i masz poprawę, ale czy robiąc to samo bez pomniejszania uzyskasz poprawę? Tak samo ze strumieniem fotonów w przestrzeni 3D, nie tylko płaska powierzchnia ekranu na który pada foton się liczy, ale też droga po jakiej pędzą fotony. Uśredniając fotony musisz skrócić drogę (zwiększyć prędkość) bo inaczej nie zobaczysz poprawy, a więc po co w oku mała by być integracja 0.3s skoro nic ona by nie dała bo nie skracasz drogi.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli każda kolejna próbka to odcinek czasu, integrację możemy rozumieć jako usunięcie z widma szumu wysokich częstotliwości, otrzymamy efekt smużenia np.: satelity.

 

1.jpg

 

Szum losowy jest biały, zawiera po tyle samo mocy dla liniowo rozłożonych częstotliwości. Ponieważ to czas biegnie liniowo, częstotliwości ułożą się logarytmicznie, a więc szum biały stanie się błękitny, w którym moc rośnie wraz z częstotliwością.

 

Okazuje się że szum błękitny postrzegamy jako biały, mózg uwypukla niskie częstotliwości, szum odtwarzany z mniejszą prędkością bardziej dokucza. Jeśli przyjąć że niskie częstotliwości to integracja wysokich, widzimy jednocześnie obraz zintegrowany i nie zintegrowany. Nie potrzebujemy go integrować bo już jest zintegrowany, nie ma efektu smużenia bo zawiera też sygnał bez integracji.

 

Możliwe że przy odtwarzaniu animacji z odstępami między klatkami powyżej 0.3s mózg postrzega obrazek jako stały, więc nie ma znaczenia czy odstępy wynoszą 10s czy 1s, dokuczliwość szumu jest taka sama. Zmienia się zatem charakterystyka postrzegania szumu jako białego i nie ma już auto integracji mózgowej, potrzebujemy prawdziwej.

 

Eksperyment z łapaniem fotonów, znajdźmy najsłabszy świecący punkt widoczny przez 100% czasu po pełnbej adaptacji do ciemności, zamknijmy oczy i otwórzmy na możliwie najkrótrzy czas jaki to możliwe, nie zobaczymy punktu, bo prawdopodobnie nie było fotonu, po iluś próbach udaje się go zobaczyć co by sugerowało złapanie fotonu. Można by powtórzyć eksperyment z migawką lustrzanki analogowej, znając precyzyjnie czas otwarcia migawki, liczbę prób i jasność gwiazdy, obliczyć ile fotonów odbiera oko na jednostkę czasu.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak podają w katalogach że wzmacnia wiele tysięcy razy, bo jeden foton padający na sensor wybija tysiące fotonów z luminoforu na ekranie, ale te fotony z ekranu rozbiegają się w promieniu 180 stopni do oka trafi niewiele.

 

Może i niewiele trafi do oka, ale ciągle będzie to pewnie więcej niż bez użycia noktowizora - przecież ideą noktowizora jest, żeby oko otrzymało więcej światła w otoczeniu o niskim natężeniu oświetlenia.

 

Taki samo czuły jak oko, więc kupiłem trzecie oko, po co mi trzecie oko? Bo do swojego nie założę soczewki o światłosile 1:1, bo nie musi się przyzwyczajać godzinę do ciemności od razu jest gotowy.

 

Nie mów, że kupiłeś go specjalnie po to, żeby obserwować nocne niebo :icon_biggrin:

 

Jeśli np.: masz tło naświetlone do 100 elektronów, to szum średni będzie 10, żeby zobaczyć gwiazdę musi ona mieć co najmniej 5x większą jasność od szumu średniego czyli 50. Zmniejszając ilość światła 10x, tło naświetlisz do 10 elektronów co da szum 3.3, a gwiazda będzie miała jasność 5, a więc będzie niemożliwa do wyłowienia z szumu tła, gdybyś usunął light pollution to zobaczysz gwiazdę na czystym tle. A więc przymykając obiektyw zmniejszasz ilość światła od gwiazdy liniowo proporcjonalnie do powierzchni obiektywu, natomiast poziom szumu od tła zmniejsza się z pierwiastkiem kwadratowym zmniejszania powierzchni obiektywu. Zmniejszając powierzchnię obiektywu 10x musisz jednocześnie wyjechać za miasto tam gdzie light pollution będzie 10x mniejsze żeby uzyskać taki sam zasięg.

 

Tak, masz rację. Jednak nie jest to potwierdzeniem, że zasięg oka jest ograniczony szumem tła nieba. Można to dość łatwo policzyć: bardzo ciemne niebo ma jasność powierzchniową mniej więcej 12 mag/(')2. Z kolei patrząc metodą zbieramy światło pręcikami, które są połączone z neuronami pęczkami po mniej więcej 100 na jeden neuron. Pole widzenia takie grupki neuronów ma rozmiar mniej więcej 10' (być może jest to nawet więcej, gdzieś czytałem, że takie "pola" w oku mają rozmiary dochodzące do pół stopnia, ale nie mogę teraz znaleźć źródła) - zatem sumaryczna jasność tła nieba "obserwowanego przez 1 neuron" to około 7 mag. Jak już liczyłem wcześniej, obiekt o jasności 7 mag jest równoważny strumieniowi około 300 fotonów na sekundę, czyli około 100 fotonów na 1/3 s (czyli czas w jakim sygnał jest integrowany w naszym układzie wzrokowym). Jeśli nie chcesz przyjąć tej informacji jako faktu, to przeczytaj tu:

 

http://www.ncbi.nlm....276/pdf/251.pdf

 

w jaki sposób to zmierzono i pokaż mi lukę w tych badaniach. Poniżej znajduje się rysunek z tej pracy, na którym na osi x zaznaczone jest natężenie oświetlenia mierzone w jednostkach nazywanych fotonami (przy czym 1 foton odpowiada natężeniu oświetlenia siatkówki równemu 1 kandeli na metr kwadratowy otrzymanemu przez źrenicę o średnicy milimetra i nie ma to związku z fotonem - cząsteczką), na osi y krytyczna częstotliwość, poniżej której źródło światła oscylujące sinusoidalnie było odbierane przez obserwatora jako źródło świecące światłem ciągłym. O szczegółach tego testu możesz poczytać w linkowanym wyżej tekście. Żeby uprościć sprawę, napiszę tu jeszcze tylko, że "mrugające źródło światła" miało średnicę 2 stopni i otoczone było 10-stopniowym obszarem o stałej jasności.

 

G1.jpg

 

Po tej dygresji wróćmy więc do kwestii zasięgu gołego oka i szumu tła nieba. Jak napisałem powyżej, bardzo ciemne niebo będzie dawało ~100 fotonów w ciągu 1/3 sekundy na obszar, z którego sygnał będzie zbierany przez 1 neuron. Szum fotonowy tego tła nieba będzie zatem wynosił około 10 fotonów na 1/3 sekundy dla tego samego obszaru. Z kolei strumień od gwiazdy o jasności 7 mag to około 100 fotonów na 1/3 sekundy, czyli jest on jakieś 10 razy większy od szumu tła nieba. Jeśli założymy, że gwiazda jest widoczna, kiedy "wybija się" 5 razy ponad szum, to okaże się, że możemy dostrzec gwiazdę o jasności rzędu 7.7 mag.

 

 

No przecież cały post na to poświęciłem, czy muszę np.: szukać potwierdzenia tezy że przy zoomie cyfrowym szum bardziej mi dokucza, mimo że pomiar "odchylenia standardowego" nie wykazuje wzrostu szumu. Jeśli robisz binnowanie softwaerowe 2x2 to pomniejszasz rozmiar obrazu i masz poprawę, ale czy robiąc to samo bez pomniejszania uzyskasz poprawę?

Tak samo ze strumieniem fotonów w przestrzeni 3D, nie tylko płaska powierzchnia ekranu na który pada foton się liczy, ale też droga po jakiej pędzą fotony. Uśredniając fotony musisz skrócić drogę (zwiększyć prędkość) bo inaczej nie zobaczysz poprawy, a więc po co w oku mała by być integracja 0.3s skoro nic ona by nie dała bo nie skracasz drogi.

 

Nie do końca zrozumiałem, co chciałeś przekazać tym wywodem... Co do tej analogii binowania do 3D, to chyba miało być na odwrót (?) Skoro binowanie to zbieranie z większego obszaru do mniejszego, to tak samo "binowanie w trzecim wymiarze" byłoby zbieraniem z większej drogi, a nie mniejszej...

Napiszę jeszcze raz - przy bardzo niskim oświetleniu sygnał w naszym układzie wzrokowym jest integrowany przez stosunkowo długi czas (rzędu 300 ms) - tak wykazują badania przeprowadzone jeszcze na początku XX wieku. Jeśli potrafisz znaleźć jakieś badania temu przeczące (lub przeprowadzić swoje), to proszę pokaż je nam. Bo stwierdzenia "o dokuczliwym szumie" i o noktowizorze zdecydowanie do mnie nie przemawiają...

Co więcej tak długi czas integracji sygnału w porównaniu z innymi właściwościami są w doskonałej zgodzie z empirycznie wyznaczonym granicznym zasięgiem gołego oka po ciemnym niebiem (rzędu 7.5 - 8.0 mag).

 

Jeśli przyjąć że niskie częstotliwości to integracja wysokich, widzimy jednocześnie obraz zintegrowany i nie zintegrowany. Nie potrzebujemy go integrować bo już jest zintegrowany, nie ma efektu smużenia bo zawiera też sygnał bez integracji.

 

Ale przecież częstotliwość, to cecha sygnału, a integracja to "właściwość" oka... Co rozumiesz przez stwierdzenie, że oko nie integruje obrazu? Że widzi pojedyncze fotony i na każdy z nich odpowiada nieskończenie krótkim impulsem? Foton wywołuje reakcję chemiczną, która skutkuje wytworzeniem się sygnału elektrycznego, który nie jest nieskończenie krótki. Jeśli w czasie jego trwania nastąpi detekcja kolejnego fotonu, to nowy sygnał nie będzie przecież czekał w kolejce aż stary się skończy, tylko zsumuje się z nim - to właśnie jest integracja. Im dłużej taki sygnał trwa, tym dłuższy jest czas integracji. Co więcej, aby sygnał miał szansę zostać zinterpretowany przez mózg, musi jeszcze przejść przez filtr, który wygasza wszystkie sygnały, które były efektem absorpcji mniej niż 5-7 fotonów. O tym, jak to zbadano, możesz przeczytać tu:

 

http://www.cns.nyu.e...laerPirenne.pdf

 

Możliwe że przy odtwarzaniu animacji z odstępami między klatkami powyżej 0.3s mózg postrzega obrazek jako stały, więc nie ma znaczenia czy odstępy wynoszą 10s czy 1s, dokuczliwość szumu jest taka sama. Zmienia się zatem charakterystyka postrzegania szumu jako białego i nie ma już auto integracji mózgowej, potrzebujemy prawdziwej.

 

Nie mogę rozgryźć, co chciałeś przez to powiedzieć...

 

Eksperyment z łapaniem fotonów, znajdźmy najsłabszy świecący punkt widoczny przez 100% czasu po pełnbej adaptacji do ciemności, zamknijmy oczy i otwórzmy na możliwie najkrótrzy czas jaki to możliwe, nie zobaczymy punktu, bo prawdopodobnie nie było fotonu, po iluś próbach udaje się go zobaczyć co by sugerowało złapanie fotonu. Można by powtórzyć eksperyment z migawką lustrzanki analogowej, znając precyzyjnie czas otwarcia migawki, liczbę prób i jasność gwiazdy, obliczyć ile fotonów odbiera oko na jednostkę czasu.

 

To z zamykaniem oczu i szybkim otwieraniem to żart, prawda? Przecież:

 

Po pierwsze bezpośrednio po otworzeniu oczu "nie masz ustawionej ostrości".

Po drugie, jak chcesz mierzyć czas otwarcia oczu? Pomijając trudności zmierzenia czasu, kiedy oko będzie całkowicie otwarte, trzebaby jeszcze mierzyć jakoś prędkość powiek, bo w trakcie zamykania i otwierania też coś mogłoby wpaść (na pewno nie zamkniemy i nie otworzymy oczu w taki sposób jak się to dzieje z migawką). Nie wiem też, jak chciałbyś połączyć "obserwacje wizualne" fotonów z eksperymentem z użyciem lustrzanki.

Po trzecie, przeczytaj ten artykuł (podlinkowany kilkanaście linii wyżej):

 

http://www.cns.nyu.e...laerPirenne.pdf

 

Tam masz eksperyment, przy pomocy którego ustalono, że aby dostrzec "błysk", na Twoje oko musi paść ~100 fotonów, z ktorych 5-7 zostanie zaabsorbowanych.

Edytowane przez Piotrek Guzik
Odnośnik do komentarza
Udostępnij na innych stronach

Może i niewiele trafi do oka, ale ciągle będzie to pewnie więcej niż bez użycia noktowizora - przecież ideą noktowizora jest, żeby oko otrzymało więcej światła w otoczeniu o niskim natężeniu oświetlenia.

A czy podkręcając czułość softwaerowo na obrazku z lustrzanki jesteś w stanie zwiększyć ilość widocznych gwiazd, podkręcasz czułość, podkręcasz szumy i widzisz tyle samo gwiazd.

 

Z góry zakładasz że rozwiązanie problemu jest tylko jedno, może te testy w PDFach są prawdziwe, ale taki sam wynik otrzymasz w inny sposób, Ziemia krąży wokół Słońca, Słońce wokół Ziemi, wyniki pomiarów będą takie same. Nie widzisz pulsów 3Hz bo integracja wynosi 3Hz, nie widzisz pulsów 3Hz bo jeden foton przypada na 3Hz. Są to 2 różne rozwiązania tego samego problemu.

 

Nie rozumiesz ani słowa z tego co napisałem o szumie błękitnym i z góry zakładasz że nie mam racji.

 

Poprawka, niskie częstotliwości nie są stackiem wysokich, to pojedynczy foton zawiera odrobinę niskich częstotliwości, dlatego możemy wyciąć wysokie częstotliwości i nie pozbędziemy się fotonu, przy dwóch fotonach w większej odległości czasowej te niskie częstotliwości się sumują. Jeśli nasz mózg promuje niskie częstotliwości zamienia szum błękitny na biały widzimy te sumy fotonów.

 

Po co zatem mamy stackować, stackowanie to całkowite wycinanie wysokich częstotliwości, ogranicza nam rozdzielczość czasową do pojedynczych przedziałów np.: 0.3s i powoduje smużenie satelitów.

 

Całkowite wycinanie wysokich częstotliwości nie poprawia jakości niskich częstotliwości.

 

Szum odtwarzany z 2x mniejszą prędkością odczuwamy jako 3db silniejszy. Stack 2 klatek poprawia stosunek sygnał szum o 3db, ale zmniejsza prędkość 2x więc odczuwamy go jako 3db silniejszy czyli taki sam, stack nic nie daje.

 

Jeśli np.: stackujesz dane z noktowizora przez godzinę by otrzymać jedną fotkę, to jest to odpowiednik przyspieszenia czasu, nieskończoną ilość razy, bowiem godzinę integracji widzisz natychmiast.

 

Niestety niektórzy mylą stack pojedynczej fotki ze stackiem w czasie rzeczywistym.

 

Być może zakładasz że oko ma szumy odczytu, jeśli kamera CCD ma szumy odczytu to integracja 2x poprawia stosunek sygnał szum o 6db i wtedy taka integracja ma sens, niestety jest to integracja sekund typu 1+2+3+4 potem 5+6+7+8 potem 9+10+11+12, satelita wtedy porusza się skokowo, takiej integracji w oku na pewno nie ma. Inny rodzaj integracji czyli uśredniania klatek 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 nie poprawi stosunku sygnał szum o 6db na 2 uśrednione klatki tylko o 3db, a ponieważ szum odtwarzany z 2x mniejszą prędkością postrzegamy jako 3db większy nic ta integracja nam nie da.

 

Czemu postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy bo jest zintegrowany w naszym mózgu, ale w sprytny sposób że każdą klatkę widzimy osobno, po co zatem ma być integracja prymitywna na siatkówce.

 

Integracja typu klatka 1+2+3+4 prowadzi do wzrostu szumów odczytu, jeśli przykładowo widzisz nieruchomy punkt bo jego fotony się dodały, nie zobaczysz go w ruchu, bo się nie dodadzą i szum odczytu je zagłuszy. Odnoszę wrażenie że ruch dla oka w ciemności nie ma żadnego znaczenia, oczywiście umiarkowany ruch. Może to być dowód na brak szumów odczytu lub brak integracji. Czasem jakiś prosty eksperyment może dowieść czegoś bez wnikania w budowę oka.

 

Odnoszę wrażenie że ze wszystkich informacji wybierasz tylko te które pasują dokładnie do zmierzonego przez ciebie zasięgu 7.6 mag, temat cię nie interesuje tylko bronisz swojego zdania, czy dyskutował byś gdyby ktoś inny wyznaczył te 7.6 mag, a nie ty?

 

Co do lustrzanki analogowej, otwierasz klapę na film, zdejmujesz obiektyw i masz super precyzyjną migawkę.

Odnośnik do komentarza
Udostępnij na innych stronach

Może i niewiele trafi do oka, ale ciągle będzie to pewnie więcej niż bez użycia noktowizora - przecież ideą noktowizora jest, żeby oko otrzymało więcej światła w otoczeniu o niskim natężeniu oświetlenia.

A czy podkręcając czułość softwaerowo na obrazku z lustrzanki jesteś w stanie zwiększyć ilość widocznych gwiazd, podkręcasz czułość, podkręcasz szumy i widzisz tyle samo gwiazd.

Niestety błędna analogia - jeśli oko wyłapuje jeden foton na sto, to zwielokrotnienie ilości fotonów noktowizorem zwiększy prawdopodobieństwo ich detekcji. Jeden foton gołym okiem - 1% prawdopodobieństwa, a za noktowizorem z 1 fotonu mamy ich wiele więcej (przy widzeniu fotopowym - czopkami).

 

Z góry zakładasz że rozwiązanie problemu jest tylko jedno, może te testy w PDFach są prawdziwe, ale taki sam wynik otrzymasz w inny sposób, Ziemia krąży wokół Słońca, Słońce wokół Ziemi, wyniki pomiarów będą takie same. Nie widzisz pulsów 3Hz bo integracja wynosi 3Hz, nie widzisz pulsów 3Hz bo jeden foton przypada na 3Hz. Są to 2 różne rozwiązania tego samego problemu.

Niczego to nie dowodzi.

 

Nie rozumiesz ani słowa z tego co napisałem o szumie błękitnym i z góry zakładasz że nie mam racji.

 

Poprawka, niskie częstotliwości nie są stackiem wysokich, to pojedynczy foton zawiera odrobinę niskich częstotliwości, dlatego możemy wyciąć wysokie częstotliwości i nie pozbędziemy się fotonu, przy dwóch fotonach w większej odległości czasowej te niskie częstotliwości się sumują. Jeśli nasz mózg promuje niskie częstotliwości zamienia szum błękitny na biały widzimy te sumy fotonów.

"pojedynczy foton zawiera odrobinę niskich częstotliwości"?? I naprawdę się dziwisz, że ktoś nie rozumie Twojej argumentacji? Przyznaję się bez bicia, że idea błękitnego szumu też jest dla mnie kompletnie niezrozumiała... czyżby chodziło o efekt Dopplera w oku, kiedy szum błękitny postrzegamy jako biały? (jak pisałeś wcześniej) Czy może o efekt Purkiniego? Ale ten ostatni wynika z odpowiedzi spektralnej pręcików.

 

Po co zatem mamy stackować, stackowanie to całkowite wycinanie wysokich częstotliwości, ogranicza nam rozdzielczość czasową do pojedynczych przedziałów np.: 0.3s i powoduje smużenie satelitów.

 

Całkowite wycinanie wysokich częstotliwości nie poprawia jakości niskich częstotliwości.

 

Szum odtwarzany z 2x mniejszą prędkością odczuwamy jako 3db silniejszy. Stack 2 klatek poprawia stosunek sygnał szum o 3db, ale zmniejsza prędkość 2x więc odczuwamy go jako 3db silniejszy czyli taki sam, stack nic nie daje.

Nie wiem dlaczego tak się uparłeś na te satelity - są to obiekty stosunkowo jasne i łatwe do obserwacji. Satelitę obserwujesz czopkami, które mają krótki czas integracji. Czas integracji pręcików jest dłuższy, ale też ich czułość jest około 100x większa, niż czopków. Poza tym pomijasz zupełnie wpływ mózgu na obserwacje, a tego nie można pominąć. Zaobserwuj przez teleskop słabą mgławicę (której nie widzisz patrząc na nią centralnie) albo galaktykę i zacznij obracać teleskop z prędkością 16 albo 32x i spróbuj ocenić jak bardzo płynnie ona się porusza, czy jesteś pewien jej pozycji w każdym momencie, albo może to mózg interpoluje całość obrazu?

 

Jeśli np.: stackujesz dane z noktowizora przez godzinę by otrzymać jedną fotkę, to jest to odpowiednik przyspieszenia czasu, nieskończoną ilość razy, bowiem godzinę integracji widzisz natychmiast.

Twierdzenie, że integracja obrazu to odpowiednik przyspieszenia czasu to zdecydowane nadużycie/skrót myślowy/uproszczenie/błędna analogia. Być może dlatego tak trudno zrozumieć Twoje argumentacje.

 

Być może zakładasz że oko ma szumy odczytu, (...)

Badania dowodzą że ma, powstają one zarówno w samej warstwie percepcyjnej jak i obecne są odpowiedniki "szumu odczytu". Te ostatnie wynikają z faktu, że oko z mózgiem połączone jest wieloma neuronami, z których każdy przewodzi sygnał w nieco inny sposób.

 

jeśli kamera CCD ma szumy odczytu to integracja 2x poprawia stosunek sygnał szum o 6db i wtedy taka integracja ma sens, niestety jest to integracja sekund typu 1+2+3+4 potem 5+6+7+8 potem 9+10+11+12, satelita wtedy porusza się skokowo, takiej integracji w oku na pewno nie ma.

Ponieważ już kilka razy kategorycznie to stwierdzasz, prosiłbym o jakiś dowód na to (który jednocześnie obali dostępne wyniki badań), albo na wycofanie się z tego stanowiska..

 

Czemu postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy bo jest zintegrowany w naszym mózgu, ale w sprytny sposób że każdą klatkę widzimy osobno, po co zatem ma być integracja prymitywna na siatkówce.

Integracja typu klatka 1+2+3+4 prowadzi do wzrostu szumów odczytu, jeśli przykładowo widzisz nieruchomy punkt bo jego fotony się dodały, nie zobaczysz go w ruchu, bo się nie dodadzą i szum odczytu je zagłuszy. Odnoszę wrażenie że ruch dla oka w ciemności nie ma żadnego znaczenia, oczywiście umiarkowany ruch. Może to być dowód na brak szumów odczytu lub brak integracji. Czasem jakiś prosty eksperyment może dowieść czegoś bez wnikania w budowę oka.

Święte słowa - wykonaj opisany przeze mnie kilka linijek eksperyment z poruszającym się teleskopem i odpowiednio słabym obiektem.

Odnośnik do komentarza
Udostępnij na innych stronach

Niestety błędna analogia - jeśli oko wyłapuje jeden foton na sto, to zwielokrotnienie ilości fotonów noktowizorem zwiększy prawdopodobieństwo ich detekcji. Jeden foton gołym okiem - 1% prawdopodobieństwa, a za noktowizorem z 1 fotonu mamy ich wiele więcej (przy widzeniu fotopowym - czopkami).

Ogólnie noktowizory nie mają wysokiej sprawności kwantowej 100% jak CCD tylko może 10%, korzystają głównie na braku szumów odczytu. Stare ruskie noktowizory pierwszej lub nawet zerowej kategorii miały kiepską sprawność kwantową. Pręciki w ciemności widzą wąski zakres fal pomiędzy kolorem zielonym, a niebieskim, a mimo to zasięg gwiazdowy jest podobny do noktowizora łapiącego kolory niebieski, zielony, czerwony i podczerwony. Można przypuszczać że zakładając na noktowizor wąski filtr podobny do czułości pręcików zupełnie go oślepimy.

 

Posiadając Newtona 150/900, wyobrażałem sobie noktowizor jako okular, ogniskujesz obraz z teleskopu na detektorze i oglądasz z tyłu na ekranie. Był to bardzo długoogniskowy okular bo powiększenie bardzo małe odpowiednik ogniskowej 43,5 mm. Mój najdłuższy prawdziwy okular jaki posiadałem miał 20 mm więc obraz był ciemniejszy, ale niewiele, dam sobie głowę uciąć że gdybym ten noktowizor podłączył do teleskopu o ogniskowej 2x większej i takiej samej średnicy żeby powiększenie było identyczne to obraz był by tak samo jasny.

 

Ideologia noktowizora pierwszej i zerowej kategorii to własny oświetlacz terenu podczerwienią.

 

Poza tym nie można założyć prawdziwego okularu 43.5mm do obiektywu 100/2 bo źrenica wyjściowa będzie miała 21.8 mm, a noktowizor można, obraz pojaśnieje i będzie wykorzystywana cała powierzchnia obiektywu.

 

Odnośnie integracji wydaje mi się że nasz mózg tak działa że jeśli na ekranie mamy krążki o różnej średnicy to ten o większej średnicy będzie się wydawał jaśniejszy, tak rysowane są gwiazdy w komputerowych planetariach, to samo dotyczy czasu, krążek zapalany na 1/10s będzie się wydawał jaśniejszy od tego świecącego przez 1/20s, nie dotyczy to tylko wzroku tylko wszystkich zmysłów, można dzwonić do drzwi przez 1/20s i 1/10s można się ukłuć w palec przez 1/20s i 1/10s. Zawsze ten dłużej trwający bodziec będzie wydawał się intensywniejszy.

 

Czy jest zatem sens uśredniać wartości z dwóch próbek czasowych by potem odtwarzać je 2x wolniej, skoro nasz mózg już to zrobił.

 

Tak samo z płaskim obrazkiem, jeśli ustawimy obok siebie 4 kwadraty o boku 2x2 pikseli, żeby powstał jeden o boku 4x4 to czy jest sens binnować obraz 4x4 i skalować spowrotem do oryginalnego rozmiaru, skoro nasz mózg już to zrobił.

Edytowane przez astroccd
Odnośnik do komentarza
Udostępnij na innych stronach

Co do Bielska Białej i okolic, to fajna miejscowka wydaje sie byc Sopotnia Wielka. Osobiscie nigdy tam nie bylem,ale wnoszac po ich www oraz po rozmowie telefonicznej, to jest to dosc ciemne miejsce, gdzie spotykaja sie ludzie z astropasja. Jest tez mozliwosc przenocowania. Na Szyndzielni moze byc problem ze znalezieniem punktu, gdzie drzewa nie przeslaniaja nieba. Co do teleskopu - apertutra rzadzi - im wiekszy teleskop tym lepiej. I kropka.

 

 

http://www.polaris.org.pl/index.php?option=com_content&view=category&id=77&Itemid=72

Edytowane przez Kot789
Odnośnik do komentarza
Udostępnij na innych stronach

Z góry zakładasz że rozwiązanie problemu jest tylko jedno, może te testy w PDFach są prawdziwe, ale taki sam wynik otrzymasz w inny sposób, Ziemia krąży wokół Słońca, Słońce wokół Ziemi, wyniki pomiarów będą takie same. Nie widzisz pulsów 3Hz bo integracja wynosi 3Hz, nie widzisz pulsów 3Hz bo jeden foton przypada na 3Hz. Są to 2 różne rozwiązania tego samego problemu.

 

Przeczytaj proszę te dwa pdf-y... W jednym z nich wyznaczono te częstotliwości graniczne, w drugim wykazano, że mózg rejestruje "błysk" pod warunkiem, że zostanie zaabsorbowanych 5-7 fotonów. Co do tego czasu integracji, to te częstotliwości graniczne nie są jedyną przesłanką na to, że tak właśnie jest. Nie znalazłem żadnej publikacji, w której wykazano by, że w oku nie ma integracji czasowej. Różne źródła podają czas integracji dla pręcików z przedziału 100 ms - 500 ms. Przy czym jeśli w treści pojawia się stwierdzenie o adaptacji do ciemności wartości te zaczynają się od 200 ms. Znalazłem kilka prac, w których mierzono bezpośrednio (po podpięciu pod elektrodę) sygnały generowane przez pręciki różnych zwierząt po absorpcji pojedynczych fotonów. Czas trwania takich impulsów wahał się w zależności od zwierzęcia i warunków od 100 ms do około 5 s, przy czym te duże wartości (sekundy) dotyczyły pręcików żab w niskiej temperaturze. Pręciki ssaków w temperaturze rzędu 37 stopni Celsjusza pod wpływem absorpcji pojedynczego fotonu generowały impulsy o czasie trwania w granicach mniej więcej 100 ms - 600 ms.

 

Oko nie działa tak jak CCD. Absorpcja fotonu nie oznacza wybicia pojedynczego elektronu, który płynie potem do mózgu - gdyby tak było, to rzeczywiście nie byłoby integracji sygnałów w oku. W rzeczywistości absorpcja fotonu przez rodopsynę uruchamia cały proces chemiczny, w wyniku którego następuje przepływ całkiem dużego (w porównaniu do jednego elektronu) prądu. Prąd ten płynie przez pewien czas - jeśli w tym czasie nastąpi absorpcja kolejnego fotonu, sygnał zostanie wzmocniony - na tym właśnie polega ta integracja.

 

Nie rozumiesz ani słowa z tego co napisałem o szumie błękitnym i z góry zakładasz że nie mam racji.

 

To że nie odpisałem na Twoje wywody o szumie nie oznacza, że nic nie zrozumiałem. Nie chciałem tylko zaczynać kolejnej dyskusji, zwłaszcza że to co pisałeś, nie do końca trzyma się kupy :(

 

Szum losowy jest biały, zawiera po tyle samo mocy dla liniowo rozłożonych częstotliwości. Ponieważ to czas biegnie liniowo, częstotliwości ułożą się logarytmicznie, a więc szum biały stanie się błękitny, w którym moc rośnie wraz z częstotliwością.

 

Szum biały, tak jak napisałeś, oznacza że gęstość mocy tego szumu nie zależy od częstotliwości - tu nie ma mowy o czasie! Szum błękitny to z kolei taki szum, w którym wyższym częstotliwościom odpowiada większa gęstość mocy. Szum biały i błękitny to dwa oddzielne zjawiska. Jedno nie może zamienić się w drugie tylko dlatego, że rozważasz je w innej dziedzinie.

 

pojedynczy foton zawiera odrobinę niskich częstotliwości

 

A to, co ma znaczyć?

 

Niestety niektórzy mylą stack pojedynczej fotki ze stackiem w czasie rzeczywistym.

 

Co to jest "stack w czasie rzeczywistym"? Domyślam się, że masz na myśli coś na kształt sumowanie vs. całkowanie? Jeśli tak, to to co nazywasz "stackiem w czasie rzeczywistym" ja nazywam właśnie integracją.

 

Czemu postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy bo jest zintegrowany w naszym mózgu, ale w sprytny sposób że każdą klatkę widzimy osobno, po co zatem ma być integracja prymitywna na siatkówce.

 

Przecież nie widzimy żadnych klatek obrazu. Sygnały, które otrzymuje mózg są analogowe, a nie cyfrowe...

Czy możesz podać jakieś źródło, gdzie mógłbym poczytać o tym, że "postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy". Nie twierdzę, że tak nie jest - po prostu chciałem coś znaleźć na ten temat, ale nie udaje mi się.

 

Odnoszę wrażenie że ze wszystkich informacji wybierasz tylko te które pasują dokładnie do zmierzonego przez ciebie zasięgu 7.6 mag, temat cię nie interesuje tylko bronisz swojego zdania, czy dyskutował byś gdyby ktoś inny wyznaczył te 7.6 mag, a nie ty?

 

Wielu obserwatorów obserwujących w naprawdę ciemnych miejscach osiąga zasięg większy od 7 mag.Ty sugerowałeś, że obiekty słabsze od 6 mag możemy dostrzec tylko niejako przez przypadek ("my łapiemy te najjaśniejsze momenty i możemy się nabrać że widzieliśmy naprawdę słabą gwiazdkę"). Nie twierdzę, że zasięg gołego oka to 7.6 mag. Może jest to 7.5 mag, może 8.0 mag.

 

Co do lustrzanki analogowej, otwierasz klapę na film, zdejmujesz obiektyw i masz super precyzyjną migawkę.

 

Nie zrozumialem pierwotnie Twojego posta - teraz już wiem co miałeś na myśli. Sam pomysł wygląda na ciekawy. Pozostaje pytanie, czy jeden foton wystarczy, aby zobaczyć ten punkt, czy może potrzebna jest absorpcja kilku fotonów (tak jak wskazują na to badania).

 

Odnośnie integracji wydaje mi się że nasz mózg tak działa że jeśli na ekranie mamy krążki o różnej średnicy to ten o większej średnicy będzie się wydawał jaśniejszy, tak rysowane są gwiazdy w komputerowych planetariach, to samo dotyczy czasu, krążek zapalany na 1/10s będzie się wydawał jaśniejszy od tego świecącego przez 1/20s, nie dotyczy to tylko wzroku tylko wszystkich zmysłów, można dzwonić do drzwi przez 1/20s i 1/10s można się ukłuć w palec przez 1/20s i 1/10s. Zawsze ten dłużej trwający bodziec będzie wydawał się intensywniejszy.

 

Jeśli dłużej trwający bodziec (o stałej intensywności) daje silniejsze wrażenie, to właśnie znaczy, że mamy do czynienia z integracją. Zauważ, że ta zależność (dłużej trwający bodziec -> silniejsze wrażenie) będzie spełniona tylko dla krótkich czasów (krótszych od czasu integracji). Rzeczywiście, jeśli stałe słabe źródło światła zaświecisz na 1/20 s, to wyda Ci się ono słabsze niż gdy czas świecenia wyniesie 1/10 s, jednak jeśli włączysz je na 5 s, to będzie ono tak samo jasne jak wtedy, gdy będzie się świecić przez 50 s (w przeciwnym razie, im dłużej patrzylibyśmy na gwiazdy, tym jaśniejsze by się nam wydawały...).

 

Czy jest zatem sens uśredniać wartości z dwóch próbek czasowych by potem odtwarzać je 2x wolniej, skoro nasz mózg już to zrobił.

 

O jakich "próbkach czasowych" piszesz? Przecież czas jest ciągły (przynajmniej w granicach, w których potrafimy go mierzyć - obecnie najkrótszy zmierzony odcinek czasu to około 10-17 sekundy). Oko również nie próbkuje czasu

 

Jeszcze dwa słowa w kwestii tej integracji w oku. Piszesz o integracji, piszesz cały czas: "integracja sekund typu 1+2+3+4", "uśredniania klatek 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6" itp. Integracja w oku to nie dodawanie żadnych klatek, sekund itp. tylko sumowanie sygnałów będących efektem absorpcji kolejnych fotonów. W rzeczywistości wzór taki (dla oka zaadaptowanego do ciemności i słabego źródła światła) byłby blizszy czemuś takiemu:

 

S(t) = f(t - t1) + f(t - t2) + f(t - t3) + ...

 

gdzie

 

S(t) - sygnał w momencie t

ti - moment absorpcji i-tego fotonu

f(t) - funkcją będąca charakterystyką impulsowa pręcika - pokazuje, jak zmienia się w czasie sygnał generowano w wyniku absorpcji fotonu. Funkcja ta dla dużych wartości t (większych od około 300 ms) przyjmuje wartość 0, stąd jeśli absorpcja fotonu nastąpiła dawniej niż około 300 ms temu, to "nie ma już po nim śladu".

 

Pozdrawiam

Piotrek Guzik

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Przecież nie widzimy żadnych klatek obrazu. Sygnały, które otrzymuje mózg są analogowe, a nie cyfrowe...

Czy możesz podać jakieś źródło, gdzie mógłbym poczytać o tym, że "postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy". Nie twierdzę, że tak nie jest - po prostu chciałem coś znaleźć na ten temat, ale nie udaje mi się.

 

To moja własna obserwacja, podobna do tej że szum na zoomie cyfrowym odczuwamy jako 6db większy. Audiofile używają szumu różowego żeby słyszeć wszystkie częstotliwości równo, ale to dotyczy chyba tylko słuchu, odnośnie wzroku wystarczy generować szum biały i będziemy widzieć "równo" zarówno w sensie osi czasu jak i płaskiej powierzchni x i y.

 

Integracja pamięciowa.

 

Postawmy komuś na plecach 10 palców razem, a potem dotykajmy każdym palcem osobno nie ma to znaczenia i tak odgadniemy figurę bo pamiętamy poprzednie palce.

 

Nieintegrowalność szumów, jako że zawierają części zintegrowane, integracja jako zabieg kosmetyczny.

 

Częstotliwość:

 

Przyjmijmy że jeśli obiekt przesuwa się z prędkością jednego piksela na klatkę to ma częstotliwość najwyższą. Gdy porusza się 2x wolniej i pozostaje w tym samym miejscu na 2 klatkach częstotliwość 2x mniejsza. Gdy porusza się 3x wolniej i pozostaje w tym samym miejscu na 3 klatkach częstotliwość 3x mniejsza. Gdy nie porusza się wcale i pozostaje w tym samym miejscu na wszystkich klatkach częstotliwość najmniejsza.

 

Można sobie wyobrazić oś czasu dla jednego piksela jako długą linię na której obiekt poruszający się szybko zostawił 1 ślad, a ten poruszający się 2x wolniej 2 ślady obok siebie, ten poruszający 3x wolniej 3 ślady, ten bez ruchu cały czas zostawia ślad.

 

Otóż obiekt o danej prędkości czyli częstotliwości oddziaływuje tylko z szumem o takiej samej częstotliwości. Szum o innej częstotliwości nie oddziaływuje na obiekt.

 

Przykład jeśli mamy nieruchomy punkt i mamy nieruchome hot piksele to nie wiemy gdzie jest punkt. Jeśli mamy ruchomy punkt i nieruchome hot piksele to wiemy gdzie jest punkt. Jeśli mamy nie ruchomy punkt i ruchome hot piksele też wiemy gdzie jest punkt. Jeśli mamy ruchomy punkt i ruchome hot piksele każdy w innym kierunku to nie wiemy gdzie jest punkt. Jeśli punkt porusza się z inną prędkością niż hot piksele to wiemy gdzie jest punkt.

 

Nie jest to zasługa tylko pracy mózgu bowiem komputer przy użyciu filtrów o różnych częstotliwościach też będzie wiedział gdzie jest punkt.

 

Wzór który mówi o tym że punkt musi być 5x jaśniejszy od średniego szumu statystycznego by można było go odróżnić od szumu jest tylko prawdziwy dla pojedynczej fotki.

 

W animacjach w osi czasu, częstotliwość nieruchomego punktu jest najniższa i może zostać on zagłuszony tylko poprzez nieruchomy szum o najniższej częstotliwości, szumy o wysokich częstotliwościach nie zagłuszają nieruchomego punktu nie oddziaływują z nim, szum statystyczny zawiera odrobinę bardzo niskich częstotliwości, dlatego uda nam się w końcu zagłuszyć nieruchomy punkt, ale poziom szumu średniego na pojedynczej klatce musi być o wiele wyższy.

 

Przykład z płaskim nie animowanym obrazkiem (w osi x i y, nie czasu), pojedynczy punkt musi być 5x jaśniejszy od szumu średniego, aby można go było odróżnić od szumu, nie dotyczy to jednak dużych obiektów np.: 100x100 pikseli, jako że składają się z niskich częstotliwości nie oddziaływują one z wysokimi częstotliwościami, dopiero niskie częstotliwości mogą zagłuszyć duży obiekt, ponieważ szum statystyczny dla niskiej częstotliwości (obszaru 100x100) jest 100x mniejszy to poziom szumu średniego możemy zwiększyć 100x i dopiero wtedy zagłuszymy duży obiekt.

 

Wysokie częstotliwości nie oddziaływują z niskimi, możemy obrazek pojechać filtrem dolnoprzepustowym gaus o średnicy 100 pikseli żeby pozbyć się brzydkich pikseli, wygładzić go, ale to tylko zabieg kosmetyczny, upiększający, nie wnosi informacji.

 

Przykład: jeśli ze szumu statystycznego wytniemy najniższe częstotliwości (w osi x i y) nigdy nie uda nam się zagłuszyć dużego obiektu np.: 100x100 pikseli, szum będzie wtedy oscylował według sinusa od wartości ujemnych do dodatnich, przypominając coś na wzór śladu maski bayera, maskę bayera można traktować jako częstotliwość najwyższą nie zagłusza ona niskich częstotliwości.

 

Szum statystyczny jest zbiorem sinusoid o wszystkich częstotliwościach i jednakowych amplitudach, przyczym częstotliwości układaja się liniowo np.: zakres 1-2 Hz jest równoznaczny z 1001-1002 Hz. Jeśli ułożymy częstotliwości logarytmicznie zakres 1-2 Hz będzie równoznaczny z 1000-2000 Hz, szum taki będzie rosnąć o 3db z każdym podwojeniem częstotliwości.

 

Wracając do animacji i nieruchomego punktu, pozbawiając szum statystyczny niskich częstotliwości w osi czasu nigdy nie zagłuszymy nieruchomego punktu bowiem szumy będą oscylować wokół sinusa, zawsze będzie można odróżnić nasz punkt.

 

Integracja jest zabiegiem czysto kosmetycznym, upiększającym, wycinamy wysokie częstotliwości obraz wygląda ładniej, ale pamiętajmy że usuwamy szumy które i tak nie oddziaływały na nieruchomy punkt bo miały inną wyższą częstotliwość więc nic nie zyskujemy poprzez integrację nie zwiększamy zasięgu.

 

Pamiętajmy że każdy szum statystyczny składa się ze wszystkich częstotliwości, niskie częstotliwości zawierają zintegrowany obraz dlatego nie musimy obrazu integrować bo już jest zintegrowany.

 

Dawno już zauważyłem że w kamerze przemysłowej po włączeniu uśredniania typu 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 nie przybywa gwiazd, mimo że obraz robi się gładki, oto rozwiazanie problemu, uśrednianie to zabieg kosmetyczny i upiększający nie wnosi informacji, kamerka wywaliła tylko to co i tak nie było w stanie popsuć zasięgu czyli szum o wysokich częstotliwościach. Dla astronoma mogła by tego nie wywalać bo i tak zasięg nie rośnie, dla lepszej kompresji może sobie wywalać.

 

Częstotliwość:

 

Jak to się dzieje że pojedynczy piksel zawiera niskie częstotliwości, a mimo to widzimy go jako pojedynczy punkt. Jeśli pojedynczy punkt pojedziemy filtrem dolnoprzepustowym o rozmiare 2x1 to otrzymamy obraz nizszej częstotliwości z jednego piksela zrobią się dwa, jest to dowód że pojedynczy piksel zawiera niższe częstotliwości, ale czemu ich nie widzimy, otórz aby pojedynczy piksel miał reprezentować tylko wysoką częstotliwość musiał by mieć brata negatywa, na szarym tle obok białego piksela musimy postawić czarny piksel wtedy mamy wysoką częstotliwość, jeśli pojedziemy go filtrem dolnoprzepustowym o rozmiarze 2x1 zupełnie zniknie jest to dowód że nie zawiera niskich częstotliwości.

 

Nasz pojedynczy piksel to suma częstotliwości niskich i wysokich, częstotliwości wysokie to nasz biały piksel ze swoim czarnym braciszkiem, częstotliwości niskie to nasze dwa białe piksele, jeśli zsumujemy oba obrazy otrzymamy pojedynczy piksel.

 

Tym samym dwa bardzo odległe od siebie piksele mogą być połączone bardzo niskimi częstotliwosciami. A tylko dla tego je widzimy obobno że nasz monitor ma idealnie liniowa charakterystykę czestotliwości, jeśli coś się zepsuje lub wstawimy jakiś filtr, mozemy zobaczyć że dwa punkty są zintegrowane.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 8 miesięcy temu...
Oko nie działa tak jak CCD. Absorpcja fotonu nie oznacza wybicia pojedynczego elektronu, który płynie potem do mózgu - gdyby tak było, to rzeczywiście nie byłoby integracji sygnałów w oku. W rzeczywistości absorpcja fotonu przez rodopsynę uruchamia cały proces chemiczny, w wyniku którego następuje przepływ całkiem dużego (w porównaniu do jednego elektronu) prądu. Prąd ten płynie przez pewien czas - jeśli w tym czasie nastąpi absorpcja kolejnego fotonu, sygnał zostanie wzmocniony - na tym właśnie polega ta integracja.

 

W oku jest 12 warstw komórek nerwowych, wyspecjalizowanych w różnych zadaniach, w tym w wykrywaniu ruchu. Do mózgu przesyłane są informacje osobno sam obraz, informacje o kolorach, osobno informacje o wykrytym ruchu. Mózg później te informacje integruje (ponownie!), np. jeden z regionów mózgu jest wyspecjalizowany w rozpoznawaniu i nakładaniu kolorów na obraz, jeśli ten rejon mózgu jest np. lekko uszkodzony lub słabo wykształcony to kolory na obrazie będziemy widzieć bardziej jako pojedyncze plamy, a brakujące części obrazu mózg sobie sam wypełni kolorami. Przy wykryciu ruchu z kolei inny region mózgu wstawia w to miejsce jeden z ostatnio zarejestrowanych obiektów w okolicy który taki właśnie ruch mógłby wykonać, albo nawet tylko znany obraz podobny do tego co oko zarejestrowało, stąd często pojawiają nam się "zjawy" które po krótkim czasie okazuje się że tam jest zupełnie co innego.

 

Faktycznie cały obraz składany jest w mózgu, w miarę treningu poprawia się zdolność do rozróżniania danego rodzaju obiektów. Jeśli obserwujemy gwiazdy często to z czasem nasz mózg coraz lepiej rozpoznaje gwiazdy, i mimo że wcale nie poprawiła się czułość oka to widzimy znacznie więcej i słabszych gwiazd. Zresztą, neurony w oku też się uczą - niektóre warstwy są połączone bardzo podobnie do tych neuronów w korze mózgowej.

 

Poza samą soczewką, działaniem źrenicy jak przesłona i siatkówką, widzenie ma niewiele wspólnego z kamerą/aparatem fotograficznym. Więcej ma wspólnego z komputerowym przetwarzaniem obrazu za pomocą kilku instrumentów

 

A cienie ludzkie oko dużo lepiej rozróżnia, ponieważ prawdopodobnie przesyła nie tylko informacje o jasności w danym miejscu, ale też i kontrast (różnicę w jasności) od sąsiedniego obszaru (taka zdolność oka jest zresztą niezbędna do rozpoznawania ruchu). Wstępne rozpoznawanie poruszających się obiektów jest już w samym oku z oczywistego powodu - trzeba jak najszybciej takie zdarzenia wychwycić ponieważ może to być zagrożenie/zdobycz

 

 

---Edit---

 

Aha, co do tego potrząsania lornetką przy którym widzimy więcej gwiazd. Wtedy te gwiazdy się na siatkówce poruszają, to jest dodatkowy impuls przesłany z oka do mózgu, poza tym rozpoznawanie ruchu ma najwyższy "priorytet" - to dostosowanie ewolucyjne do rozpoznania potencjalnego zagrożenia (drapieżnika).

Edytowane przez CzarnyZajaczek
  • Lubię 5
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.