Skocz do zawartości

astroccd

Społeczność Astropolis
  • Postów

    341
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez astroccd

  1. Porównaj sobie emCCD do Noktowizorów kat IV, jeśli emCCD poprzez mnożnik elektronów schodzi z szumami odczytu grubo poniżej 1e, np. do: 0.1e, a mimo to jest porównywalna do noktowizorów zaledwie III+, to noktowizory kat IV są jeszcze lepsze. Zapoznaj się jak działa lampa, elektron wybity z metalu jest przyspieszany w polu magnetycznym, szumy termicze powstają, ale przy czasach ekspozycji 1/50s są pomijalne, nawet nie chłodzona kamerka CCD ma prąd ciemny setki razy mniejszy od tła nieba miejskiego. A szumy odczytu to nie są szumy termiczne, chłodzenie tutaj nic nie daje, poprostu nie potrafimy zmierzyć pojedyńczego elektronu gdyż tranzystory za bardzo szumią, no ale zawsze można przyspieszyć taki elektron w polu magnetycznym. Mylenie prądu ciemnego z hot pikselami, prąd cienmy bardzo mało jest dokuczliwy naświetla matrycę gładko jak light pollution, natomiast błędy produkcji CCD skutkują powstawaniem hot-pikseli, które to mylone są z prądem ciemnym, często po resecie CCD układ hot pikseli się zmienia nie dając szansy na odjęcie darka, jest to jednak przypadłość tylko CCD i innych CMOSów zbudowanych w oparciu o piksel, lamp nie dotyczy.
  2. Te super czułe kamery przemysłowe Super HAD II wciąż prawdopodobnie mają sumy odczytu na poziomie 10e. Jeśli ktoś myśli że szumy odczytu 1e są bardzo małe to się myli, to tylko średnia, w pikach osiąga wartości tak duże że można zarejestrować dopiero gwiazdy 5x jaśniejsze od szumu średniego czyli 5e. Jeśli kamera ma średnie szumy odczytu 10e to zarejestruje gwiazdy o jasności 50e. Natomiast kamera lampowa nie posiada szumów odczytu może zarejestrować gwiazdę 1e, czyli 50x słabszą od CCD. Inna sprawa to pomiar sprawności kwantowej, jeśli wierzyć że foton powstaje dopiero w matrycy jako wybity elektron, to mogłaby powstać kamerka o sprawności ponad 100%. Jakby po goglować to znajdzie się kamerka która przekroczyła 100%. Osobiście wierzę w elektrino coś jak powietrze przenoszące fale dźwiękową, głośnik odda moc do mikrofonu poprzez skok ciśnienia, tak samo elektron w metalu zostanie wybity w tym miejscu gdzie nastąpił skok ciśnienia elektrino odpowiedzialnego za pole magnetyczne - elektryczne. Błędem jest twierdzenie że że tam gdzie został wybity elektron był też foton, tam właśnie go nie ma, mogło by to tłumaczyć zjawisko przejścia fotonu przez 2 otworki jednocześnie i wytworzenie prążków interferencyjnych.
  3. W Maximie jest to możliwe, zamieniłem kiedyś zwykły kolorowy JPG w RAW z maską bayera. Trzeba przygotować specjalne obrazki z dziurami i odjąć je od poszczególnych obrazków RGB. kwiatki_mozaika_RGB.zip
  4. Tak ostatnio zafascynowałem się starymi kamerkami lampowymi Vidicon jeszcze z przed wynalezienia CCD, gdyż nie mają hot-pikseli, okazuje się że do dziś lampy mają się dobrze, filmik ukazujący lampową kamerkę 50x czulszą od CCD: Czy przypadkiem CCD nie upowszechniło się bo było mniejsze?
  5. Polecam zabawy z MaximDL-em tam przy debayeryzacji jest przycisk "High Quality", po jego włączeniu program widzi pełny szczegół jak z kamerki mono, po wyłączeniu działa tylko prosta interpolacja kolorów dająca straty rozdzielczości. Żaden aparat już nie używa algorytmu prostej interpolacji, co wcale nie znaczy że mamy pełną rozdziałkę bo siedzi tam filter AntyAliasingowy. Po przeróbce na mono można w ogóle nie debayeryzować RAWów, ale w niektórych aparatach jest większy gain dla klatek R i B. Dlatego taki RAW dalej wygląda jak by zeszedł z maski bayera mimo że jej tam nie ma. Można to wyrównać flatem, kiedyś miałem napisać program do ręcznego wyrównywania igiełek w RAW-ie, skoro Księżyc jest szary to nawet bez przeróbki na mono można by go ustrzelić w pełnej rozdziałce. Do usunięcia igiełek RAWu wystarczył by filtr grzebieniowy, te igiełki występują na jednej konkretnej częstotliwości po jej usunięciu dziury między pikselami znikną, usunięcie jednej częstotliwości nie spowoduje że obraz zrobi się mniej ostry, takim filtrem grzebieniowym może być algorytm przesunięcia obrazu o 0.5 piksela w bok i w dół, straty jakości po takiej operacji są minimalne.
  6. Dokopałem się wreszcie do plików RAW http://stargazerslounge.com/topic/166334-debayering-a-dslrs-bayer-matrix/page__st__40?do=findComment&comment=1687709 Są tam 2 wersje fotek kolor i mono po zeskrobaniu filtrów. Zrobiłem fotometrię gwiazd i różnica jest minimalna 1.35x wzrostu czułości matrycy mono, być może wynika to z tego że nie założono IR blockera, jednak gwiazda o temperaturze 3000K nie chciała być jaśniejsza od innej o temperaturze 6000K co sugeruje że jednak go założono. Obie w katalogu miały podobne mV. Do pomiaru starałem się wybierać gwiazdy o temperaturze ok. 6000K, aby wyeliminować sytuację że gwiazda 3000K wali 10x mocniej w podczerwieni niż w wizualu. Test polegał na porównywaniu jasności tej samej gwiazdy na fotce kolor z fotką mono. Zrobiłem bin 2x2 i starałem się uważać, aby żadna gwiazda użyta do pomiarów nie była prześwietlona. W programie MaximDL zaznaczałem kwadracik 12x12 wokół gwiazdy, notowałem sumę ładunku, przesuwałem w bok i notowałem sumę jasności tła, odejmowałem jasność tła od jasności gwiazdy z tłem. Porównałem też jasność gwiazdy na matrycy mono w miejscu gdzie nie zeskrobano filtrów z matrycą kolor i wyszło że pogoda była lepsza gdy robiono fotkę kolor, gwiazdy były jaśniejsze o czynnik 1.2x. Co raptem podnosi zysk z przeróbki do 1.6x. Dla chętnych pomiarów podaję że najjaśniejsza gwiazda na fotce w prawym dolnym rogu ma współrzędne: RA: 0:48.35.40 Dec: -74*55'24" i są to okolice Małego Obłoku Magellana.
  7. Ale lustrzanka mogła dodać gammę, jeśli zdjęcie wyszło z lustrzanki jako JPG. Tak mi się wydaje że gdyby autor tylko rozkodował kolor bez dodawania gammy i gamma wynosiła 1 to bardziej by się światła przepaliły i bardziej cienie niedoświetliły. A to zdjęcie jest całkiem poprawne.
  8. Gamma to potęga do której podnosimy wartość jasności piksela. Foton odwzorowuje moc, dlatego najlepszym wyjściem dla zdjęcia RAW jest drukarka, 2x większa ilość fotonów na matrycy = 2x większa powierzchnia białej kropki rastra w drukarce. Te wartości są ze sobą kompatybilne. Natomiast zupełnie nie kompatybilne są wartość mocy odczytanej przez kamerkę i wartość napięcia jaka pojawia się na wyjściu karty graficznej. Podwojenie napięcia daje 4x większą moc promieniowania monitora wynika to z zasady superpozycji fali. Dlatego monitor podnosi do potęgi 2 wartości odczytane z kamerki. Jest to korekcja gamma 2, aby uzyskać korekcję 1 musimy nanieść na obrazek korekcję 0.5.
  9. Wystarczy że poprawił balans bieli, aby zdjęcie wyszło szare tam gdzie nie ma maski.
  10. Tam jest krzywa gamma która kompresuje różnice. Poza tym wszystko zależy od temperatury światła, IR blockera, np.: na stronie firmy Sony http://www.sony.net/Products/SC-HP/pro/image_senser/progressive_scan.html można porównać takie same matryce nabite filtrami RGB, CMYG i mono. Przykładowo dla ICX618: Mono: 1200mV @ F8 (5500mV bez IR blockera) RGB: 1000mV @ F5.6 (tylko G) CMYG: 1400mV @ F5.6 (średnia wszystkich filtrów) Sony używa niebieskiego IR blockera i żółtego światła 3200K co daje dziwne rezultaty bo matryca mono jest tylko 2x czulsza od RGB z IR blockerem i aż 11x czulsza bez IR blockera. Sam kiedyś testowałem filtry w lepszym świetle lampy błyskowej 5500K i z lepszym białym IR blockerem, dlatego założenie IR blockera dawało spadek ilości światła do 74%. Niestety filtry miałem słabe bo Kodak Wratten dlatego uzyskałem 10% transmisji dla R i G oraz 13% dla B. Na symulatorze CCD założenie filtra G daje potrzebę 6-cio krotnego wydłużenia czasu ekspozycji do uzyskania takiego samego rezultatu co bez filtra. Może ktoś by przetestował w realu ile procent tracą dobrej jakości filtry w porównaniu do braku filtrów.
  11. Losowy szum - losowy szum = szum większy o 1.41x. Twój aparat odejmując darki odejmuje hot piksele czyli jasne punkty, jednocześnie zwiększa się szum odczytu o czynnik 1.41x. Szum odczytu to losowy szum przy czasie ekspozycji 0s na każdej klatce inny więc nie odejmowalny. Hot piksele jasne punkty na każdej klatce takie same więc odejmowalne. Prąd ciemny to naświetlenie matrycy od ciepła sensora nie różni się niczym od naświetlenia światłem np.: light pollution, nie da się odjąć szumu generowanego przez light pollution ani prąd ciemny gdyż na każdej klatce jest inny. Obojętnie czy odejmujemy czy dodajemy 2 klatki z szumem losowym rośnie on o czynnik 1.41x, dlaego najlepszym sposobem na jego pozbycie jest dodawanie klatek light z obrazem obiektu. Dodanie 2 klatek light spowoduje wzrost sygnału 2x i wzrost szumu 1.41x, co poprawia stosunek sygnał szum 1.41x. Bez sensowne jest robienie darków kompaktem, który nie ma wyłaczonej redukcji szumów. Gdyż to co otrzymujesz to szum odczytu powiększony o czynnik 1.41x i szum prądu ciemnego powiększony o czynnik 1.41x, bez informacji o jasności prądu ciemnego. Do niczego są one nam nie przydatne gdyż układ tych szumów jest losowy i niepowtarzalny. Nie uda się taką klatką poprawić żadnej fotki co najwyżej zepsuć.
  12. Dowodem jest niezmienność w układzie inercjalnym, nie możesz wykryć że moc światła jest większa w jakimś kierunku, w którym podąża Ziemia, tak samo siła grawitacji jest taka sama dookoła Słońca i nie możesz powiedzieć że grawitacja zostaje w tyle, a Słońce pędzi. Nie wiem co próbował udowodnić Einstein że fala światła jest jednocześnie mechaniczna, czyli zostaje w tyle za źródłem światła, a brak wykrywalności różnicy mocy dookoła żarówki to tylko złudzenie, wynikające z różnych transformacji, niejednoczesności zdarzeń i innych głupot. Zwykły dowód z laserem skierowanym zawsze na ten sam punkt na ścianie jest dowodem na dodawanie prędkosci światła do prędkości lasera i Ziemi na zasadzie kuli karabinowej. I wogóle co ma prędkość światła lasera w bok do Ogólnej Teorii Względności, każdy widzi że machając kropką po ścianie nadaje światłu prędkość w bok wynoszącą prędkość ręki i smuga światła nie stoi w miejscu bo prędkość światła jest niezmienna.
  13. Animacja poniżej przedstawia błędny moim zdaniem obraz rozchodzenia się światła, przypominający falę mechaniczną. http://pl.wikipedia....=20070813150007 Był taki eksperyment pomiar prędkości światła w kuchence mikrofalowej http://www.pl.eu-hou...czy-prdko-wiata Skoro węzły pozostają nieruchome względem kuchenki to znaczy że prędkość fali dodaje się do prędkości kuchenki. Michelson-Morley nie mógł niczego wykryć bo pole magnetyczne nie ugina światła, mógł najwyżej wykryć pole elektryczne, powinien raczej używać pola elektrycznego jeśli chciał wykryć stały prąd pola magnetycznego, ale nawet jeśli by wykrył taki prąd to to odkrycie nie miało by żadnego znaczenia bowiem stałe pole magnetyczne nie ugina światła. Jedyne co wykrywano to szumy i ugięcia termiczno mechaniczne konstrukcji. http://didier.salon2...spojrzenie-cz-i Z tekstu wynika jasno że fizycy są uwikłani w polityczne zagrywki i jeden szuka na drugiego haka, niszczy lub pali dokumenty.
  14. Ogniskowany obiekt trafi dokładnie w oś optyczną, gdyż istnieje składowa prędkości fali w bok, która spowoduje że fala za nim zdąży pokonać dystans soczewka matryca ulegnie przesunięciu. Np.: fala stojąca w kuchence mikrofalowej. Fale stojące mogą powstawać również w ośrodkach poruszających się. Wówczas węzły pozostają nieruchome względem ośrodka. http://pl.wikipedia....my_o.C5.9Brodek Brak możliwości ugięcia promienia lasera w silnym polu magnetycznym, promień lasera można ugiąć w polu elektrycznym i odwrotnie fale elektronową można ugiąć w polu magnetycznym. Fala magnetyczna to dość specyficzna fala, fale nie oddziaływują ze sobą, nie może jedna fala popchnąć drugiej, mogą istnieć 2 fale o różnych prędkościach nałożone na siebie, mogą jednakowo dudnić na całej długości, co w przypadku dźwięku nie jest możliwe.
  15. Księżyca który schował się za Jowisza nie zobaczymy na tle Jowisza, mimo że faktycznie czoło fali światła od księżyca przyjdzie do nas pod pewnym kątem, jednak prubując się zogniskować w soczewce, soczewka ma odwrócony obraz, nie odwraca jednak prędkości fali, nasza fala ma składową prękości księżyca, dlatego obraz księżyca trafi dokładnie w oś optyczną na matrycy, czyli w krawędź Jowisza. Obrazując to kulą pistoletu, narysujmy linię na ulicy pod kątem 90 stopni do toru jazdy, jeśli chcemy strzelać z jadącego samochodu tak aby kula leciała wzdłuż linii to musimy ustawić lufę pod kątem innym niż 90 stopni do kierunku jazdy. Docierają do nas te fotony od księżyca Jowisza, które zostały wystrzelone pod kątem takim że po dodaniu ich składowej prędkości lecą dokładnie po osi optycznej naszego teleskopu. A więc teoria dodawania prędkości światła do prędkości obiektu nadal słuszna, nie powoduje rozpadania się obrazu obiektu gdy składniki obiektu poruszają się w różnych kierunkach. Istnieje mechanizm w soczewce przywracania obrazu ruchomego obiektu na swoje miejsce, mimo że fala ruchomego obiektu przychodzi przesunięta.
  16. I potwierdza moją teorię rozchodzenia się światła. Otóż dawniej pisząc program astronomiczny myślałem że aby dodać poprawkę na prędkość światła wystarczy wyliczyć pozycję np.: Jowisza po odjęciu jego odległości świetlnej, czyli przy 40 minutach odległości światła liczymy pozycję Jowisza na orbicie wokół Słońca na godz 21:00, gdy potrzebna jest nam informacja o pozycji z godziny 21:40. Tymczasem jest to błąd, prędkość światła dodaje się do prędkości obiektu, gdyby prędkość i kierunek Jowisza na orbicie była identyczna do Ziemskiej to nie będzie widać opóźnienia pozycji, gdyż obiekty będą nieruchome względem siebie. Jedyne opóźnienie jakie zobaczymy dotyczy zmiany jasności. Jest to problem tak zwanej plamki lasera na ścianie, która zawsze pokazuje tan sam punkt, nie zależnie jak się poruszamy razem z Ziemią. Prędkość światła w bok ta która wynosiła 0 m/s dodaje się do prędkości lasera i teraz wynosi tyle co prędkość Ziemi. Gdyby komuś udało się to zjawisko zaobserwować na Księżycach Jowisza, księżyc Jowisza chowający się za tarczę Jowisza, przestaje emitować swiatło, jednak przez 40 minut to światło podróżuje dodane do prędkości tego księżyca, jeśli więc zgaśnięcie księżyca zobaczymy po 40 minutach powinien on dla obserwatora z Ziemii wejść na tarczę Jowisza mimo że fizycznie znajduje się za tarczą. Każdy powie że to niemożliwe jak zatem wytłumaczyć problem plamki lasera na ścianie pokazującej zawsze ten sam punkt, jeśli nie przez dodawanie prędkości światła w bok 0 m/s do prędkości lasera? Wychodzi na to że do wyliczeń momentów zakryć Księżyców Jowisza trzeba by korzystać z przekształceń Lorenca, a nie prostego opóźnienia czasu zjawiska o odległość świetlną Jowisza.
  17. Ale na tym gwincie jest zaślepka, po co ma być dodatkowo taka sama w adapterze? Żeby ktoś miał problemy z podłączeniem? Lepiej niech kupi złączki 1,25"/M42x1 + M42x1/Sony Alpha http://astrokrak.pl/...filtrowym-.html http://astrokrak.pl/...sony-alfa-.html
  18. Jakoś moja przejściówka pozwalająca podłączyć obiektyw M42x1 do aparatu Olympus systemu 4/3 jest w jednym kawałku i nie znajdziesz takiej w dwuch.
  19. Obecnie produkuje się obiektywy uniwersalne popatrz na Allegro: http://allegro.pl/fa...2822686806.html http://allegro.pl/sa...2771581983.html pasują do wszystkich aparatów gdyż same nie posiadają gwintu, musisz dokupić do nich gwint. Celowo jest ta zaślepka żeby ktoś przypadkiem nie próbował, wkręcić M42x0.75 w M42x1, będzie się trzymać na 1/4 obrotu i jeszcze odpadnie obiektyw. Te 3 śruby co 120 stopni też są niebezpieczne, poluzowała mi się jedna i mało nie rozbiłem kamery.
  20. To jest zaślepka wstawiona w przejściówkę przy pomocy 3 śrub co 120 stopni, zazwyczaj zaślepki są na wyposażeniu obiektywów typu T2, dlatego przejściówka nie musi być wyposażona w zaślepke, przynajmniej moja nie była.
  21. Przejściówka Sony Alfa/T2 nie jest gwintowana, dlatego do noska T2/1.25" potrzebna jest zaślepka na gwint M42x0.75, nie będziesz miał skąd jej wziąść.
  22. Kiedyś jeden użytkownik przesłał mi zdjęcie z kamerki z popsutą elektroniką. Bardziej mi ten twój problem wygląda na efekt optyczny.
  23. Wydaje mi się że obraz matrycy odbija się w jakieś soczewce i wraca z powrotem ogniskując się na matrycy w wersji pomniejszonej stąd takie aliasy.
  24. Co prawda twoja kamerka to nie back-illuminated ale poczytaj: Andor wprowadza także do swoich kamer nową funkcjonalność w postaci tłumienia prążków interferencyjnych. Wybrane modele kamer dostępne są z tą opcją, pozwalającą tłumić prążki w zakresie bliskiej podczerwieni. Prążki interferencyjne powstają w kamerach z sensorami back-illuminated, gdy interferuje światło odbite od tyłu i przodu sensora. Dla aplikacji bliskiej podczerwieni, takich jak obrazowanie powyżej 750nm - na przykład obserwacje Kondensatu Bosego-Einsteina pokazują często prążki interferencyjne. Tłumienie tych prażków pozwala zwiększyć rozdzielczość obrazu. Firma e2v wprowadziła tą technikę do sensorów używanych w kamerach iXon Ultra 897, iXon3 897 oraz iXon3 888. http://www.elektroda...pic2230425.html
  25. Wygląda to jak jakiś Aliasing http://pl.wikipedia....nie_sygnaĹ�Ăłw) Może oglądasz obraz przeskalowany do 90%.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.