Skocz do zawartości

astroccd

Społeczność Astropolis
  • Postów

    341
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez astroccd

  1. Porównaj sobie emCCD do Noktowizorów kat IV, jeśli emCCD poprzez mnożnik elektronów schodzi z szumami odczytu grubo poniżej 1e, np. do: 0.1e, a mimo to jest porównywalna do noktowizorów zaledwie III+, to noktowizory kat IV są jeszcze lepsze.

     

    Zapoznaj się jak działa lampa, elektron wybity z metalu jest przyspieszany w polu magnetycznym, szumy termicze powstają, ale przy czasach ekspozycji 1/50s są pomijalne, nawet nie chłodzona kamerka CCD ma prąd ciemny setki razy mniejszy od tła nieba miejskiego. A szumy odczytu to nie są szumy termiczne, chłodzenie tutaj nic nie daje, poprostu nie potrafimy zmierzyć pojedyńczego elektronu gdyż tranzystory za bardzo szumią, no ale zawsze można przyspieszyć taki elektron w polu magnetycznym.

     

    Mylenie prądu ciemnego z hot pikselami, prąd cienmy bardzo mało jest dokuczliwy naświetla matrycę gładko jak light pollution, natomiast błędy produkcji CCD skutkują powstawaniem hot-pikseli, które to mylone są z prądem ciemnym, często po resecie CCD układ hot pikseli się zmienia nie dając szansy na odjęcie darka, jest to jednak przypadłość tylko CCD i innych CMOSów zbudowanych w oparciu o piksel, lamp nie dotyczy.

  2. Te super czułe kamery przemysłowe Super HAD II wciąż prawdopodobnie mają sumy odczytu na poziomie 10e.

     

    Jeśli ktoś myśli że szumy odczytu 1e są bardzo małe to się myli, to tylko średnia, w pikach osiąga wartości tak duże że można zarejestrować dopiero gwiazdy 5x jaśniejsze od szumu średniego czyli 5e. Jeśli kamera ma średnie szumy odczytu 10e to zarejestruje gwiazdy o jasności 50e. Natomiast kamera lampowa nie posiada szumów odczytu może zarejestrować gwiazdę 1e, czyli 50x słabszą od CCD.

     

    Inna sprawa to pomiar sprawności kwantowej, jeśli wierzyć że foton powstaje dopiero w matrycy jako wybity elektron, to mogłaby powstać kamerka o sprawności ponad 100%. Jakby po goglować to znajdzie się kamerka która przekroczyła 100%. Osobiście wierzę w elektrino coś jak powietrze przenoszące fale dźwiękową, głośnik odda moc do mikrofonu poprzez skok ciśnienia, tak samo elektron w metalu zostanie wybity w tym miejscu gdzie nastąpił skok ciśnienia elektrino odpowiedzialnego za pole magnetyczne - elektryczne. Błędem jest twierdzenie że że tam gdzie został wybity elektron był też foton, tam właśnie go nie ma, mogło by to tłumaczyć zjawisko przejścia fotonu przez 2 otworki jednocześnie i wytworzenie prążków interferencyjnych.

  3. Przydała by się funkcja wydobycia poszczególnych "planów" maski Bayera bez zmiany rozmiaru zdjęcia, byłyby to takie podziurkowane fotki (co czwarty piksel), a wtedy, zestackowanie nie podnosiłoby dynamiki, lecz pozwoliłoby właśnie zwiększyć rozdzielczość.

     

    W Maximie jest to możliwe, zamieniłem kiedyś zwykły kolorowy JPG w RAW z maską bayera. Trzeba przygotować specjalne obrazki z dziurami i odjąć je od poszczególnych obrazków RGB.

    kwiatki_mozaika_RGB.zip

  4. To jest w ogóle piękno świata analogowego, piękno elektroniki analogowej. Coś jak brzmienie wzmacniaczy lampowych, które jest tak trudne do podrobienia i ciężkie do opisania.

     

    Tak ostatnio zafascynowałem się starymi kamerkami lampowymi Vidicon jeszcze z przed wynalezienia CCD, gdyż nie mają hot-pikseli, okazuje się że do dziś lampy mają się dobrze, filmik ukazujący lampową kamerkę 50x czulszą od CCD:

     

     

    Czy przypadkiem CCD nie upowszechniło się bo było mniejsze?

  5. Polecam zabawy z MaximDL-em tam przy debayeryzacji jest przycisk "High Quality", po jego włączeniu program widzi pełny szczegół jak z kamerki mono, po wyłączeniu działa tylko prosta interpolacja kolorów dająca straty rozdzielczości.

     

    HighQuality.GIF

     

    LowQuality.GIF

    Żaden aparat już nie używa algorytmu prostej interpolacji, co wcale nie znaczy że mamy pełną rozdziałkę bo siedzi tam filter AntyAliasingowy.


    Po przeróbce na mono można w ogóle nie debayeryzować RAWów, ale w niektórych aparatach jest większy gain dla klatek R i B. Dlatego taki RAW dalej wygląda jak by zeszedł z maski bayera mimo że jej tam nie ma. Można to wyrównać flatem, kiedyś miałem napisać program do ręcznego wyrównywania igiełek w RAW-ie, skoro Księżyc jest szary to nawet bez przeróbki na mono można by go ustrzelić w pełnej rozdziałce.


    Do usunięcia igiełek RAWu wystarczył by filtr grzebieniowy, te igiełki występują na jednej konkretnej częstotliwości po jej usunięciu dziury między pikselami znikną, usunięcie jednej częstotliwości nie spowoduje że obraz zrobi się mniej ostry, takim filtrem grzebieniowym może być algorytm przesunięcia obrazu o 0.5 piksela w bok i w dół, straty jakości po takiej operacji są minimalne.

  6. Dokopałem się wreszcie do plików RAW http://stargazerslounge.com/topic/166334-debayering-a-dslrs-bayer-matrix/page__st__40?do=findComment&comment=1687709

     

    Są tam 2 wersje fotek kolor i mono po zeskrobaniu filtrów.

     

    Zrobiłem fotometrię gwiazd i różnica jest minimalna 1.35x wzrostu czułości matrycy mono, być może wynika to z tego że nie założono IR blockera, jednak gwiazda o temperaturze 3000K nie chciała być jaśniejsza od innej o temperaturze 6000K co sugeruje że jednak go założono. Obie w katalogu miały podobne mV.

     

    Do pomiaru starałem się wybierać gwiazdy o temperaturze ok. 6000K, aby wyeliminować sytuację że gwiazda 3000K wali 10x mocniej w podczerwieni niż w wizualu. Test polegał na porównywaniu jasności tej samej gwiazdy na fotce kolor z fotką mono. Zrobiłem bin 2x2 i starałem się uważać, aby żadna gwiazda użyta do pomiarów nie była prześwietlona. W programie MaximDL zaznaczałem kwadracik 12x12 wokół gwiazdy, notowałem sumę ładunku, przesuwałem w bok i notowałem sumę jasności tła, odejmowałem jasność tła od jasności gwiazdy z tłem.

     

    Porównałem też jasność gwiazdy na matrycy mono w miejscu gdzie nie zeskrobano filtrów z matrycą kolor i wyszło że pogoda była lepsza gdy robiono fotkę kolor, gwiazdy były jaśniejsze o czynnik 1.2x.

     

    Co raptem podnosi zysk z przeróbki do 1.6x.

     

    Dla chętnych pomiarów podaję że najjaśniejsza gwiazda na fotce w prawym dolnym rogu ma współrzędne:

     

    RA: 0:48.35.40

    Dec: -74*55'24"

     

    i są to okolice Małego Obłoku Magellana.

  7. Powtarzam po raz drugi. "Gamma correction" = 1, oznacza korekcje zdjęcia o tą wartość. Jak sam wiesz 'gamma to potęga do której podnosimy wartość jasności piksela' czyli w ogóle nie zmieniłem ich jasności poprzez zmiane tego parametru. Gamma jaka była taka jest.

     

    Ale lustrzanka mogła dodać gammę, jeśli zdjęcie wyszło z lustrzanki jako JPG.

     

    Tak mi się wydaje że gdyby autor tylko rozkodował kolor bez dodawania gammy i gamma wynosiła 1 to bardziej by się światła przepaliły i bardziej cienie niedoświetliły. A to zdjęcie jest całkiem poprawne.

  8. Parametr "gamma correction" oznacza zmianę gammy w stosunku do oryginalnego zdjęcia (1 = brak zmiany) a nie zmiane gammy obrazka z 2,2 na 1.

    A po drugie wytłumacz mi jak można jasność kompensować gammą? :)

     

    Gamma to potęga do której podnosimy wartość jasności piksela.

     

    Foton odwzorowuje moc, dlatego najlepszym wyjściem dla zdjęcia RAW jest drukarka, 2x większa ilość fotonów na matrycy = 2x większa powierzchnia białej kropki rastra w drukarce. Te wartości są ze sobą kompatybilne.

     

    Natomiast zupełnie nie kompatybilne są wartość mocy odczytanej przez kamerkę i wartość napięcia jaka pojawia się na wyjściu karty graficznej. Podwojenie napięcia daje 4x większą moc promieniowania monitora wynika to z zasady superpozycji fali. Dlatego monitor podnosi do potęgi 2 wartości odczytane z kamerki. Jest to korekcja gamma 2, aby uzyskać korekcję 1 musimy nanieść na obrazek korekcję 0.5.

  9. Tak sobie myslę, czy ten "debajerant" co tarł tym dremlem na sieci to nie robi jakiegoś wkrętu. Może się mylę, ale jak facet na jednym zdjęciu uzyskał jednocześnie obraz zdebajeryzowany (kolorowy) i czarno-biały? Przecież aby przerobić to do takiej postaci potrzebny jest osobny algorytm do różnych obszarów zdjęcia. Kawałek po staremu trzeba odbajerować a kawałek po nowemu nie ruszać. W aparacie siedzi algorytm przetwarzający z rawa który nie wie że nagle maski na kawałku matrycy już nie ma.

    Możliwe takie zdjęcie czy nie?

     

    Wystarczy że poprawił balans bieli, aby zdjęcie wyszło szare tam gdzie nie ma maski.

  10. Sprawdziłem to na szybko i wyszło tak:

    attachicon.gifeos_mono.jpg

    Czułość wzrosła nieco ponad 3x, czyli mniej wiecej tyle ile teoretycznie można się było spodziewać.

     

    Tam jest krzywa gamma która kompresuje różnice.

     

    Poza tym wszystko zależy od temperatury światła, IR blockera, np.: na stronie firmy Sony http://www.sony.net/Products/SC-HP/pro/image_senser/progressive_scan.html można porównać takie same matryce nabite filtrami RGB, CMYG i mono. Przykładowo dla ICX618:

     

    Mono: 1200mV @ F8 (5500mV bez IR blockera)

    RGB: 1000mV @ F5.6 (tylko G)

    CMYG: 1400mV @ F5.6 (średnia wszystkich filtrów)

     

    Sony używa niebieskiego IR blockera i żółtego światła 3200K co daje dziwne rezultaty bo matryca mono jest tylko 2x czulsza od RGB z IR blockerem i aż 11x czulsza bez IR blockera.

     

    Sam kiedyś testowałem filtry w lepszym świetle lampy błyskowej 5500K i z lepszym białym IR blockerem, dlatego założenie IR blockera dawało spadek ilości światła do 74%.

     

    Niestety filtry miałem słabe bo Kodak Wratten dlatego uzyskałem 10% transmisji dla R i G oraz 13% dla B.

     

    Na symulatorze CCD założenie filtra G daje potrzebę 6-cio krotnego wydłużenia czasu ekspozycji do uzyskania takiego samego rezultatu co bez filtra.

     

    Może ktoś by przetestował w realu ile procent tracą dobrej jakości filtry w porównaniu do braku filtrów.

  11. Coś takiego:

    light: zaszumiony sygnał - losowy szum = mniej zaszumiony sygnał

    dark: losowy szum - losowy szum = szum o mniejszym natężeniu

     

    Losowy szum - losowy szum = szum większy o 1.41x.

     

    Twój aparat odejmując darki odejmuje hot piksele czyli jasne punkty, jednocześnie zwiększa się szum odczytu o czynnik 1.41x.

     

    Szum odczytu to losowy szum przy czasie ekspozycji 0s na każdej klatce inny więc nie odejmowalny.

    Hot piksele jasne punkty na każdej klatce takie same więc odejmowalne.

    Prąd ciemny to naświetlenie matrycy od ciepła sensora nie różni się niczym od naświetlenia światłem np.: light pollution, nie da się odjąć szumu generowanego przez light pollution ani prąd ciemny gdyż na każdej klatce jest inny.

     

    Obojętnie czy odejmujemy czy dodajemy 2 klatki z szumem losowym rośnie on o czynnik 1.41x, dlaego najlepszym sposobem na jego pozbycie jest dodawanie klatek light z obrazem obiektu. Dodanie 2 klatek light spowoduje wzrost sygnału 2x i wzrost szumu 1.41x, co poprawia stosunek sygnał szum 1.41x.

     

    Bez sensowne jest robienie darków kompaktem, który nie ma wyłaczonej redukcji szumów. Gdyż to co otrzymujesz to szum odczytu powiększony o czynnik 1.41x i szum prądu ciemnego powiększony o czynnik 1.41x, bez informacji o jasności prądu ciemnego. Do niczego są one nam nie przydatne gdyż układ tych szumów jest losowy i niepowtarzalny. Nie uda się taką klatką poprawić żadnej fotki co najwyżej zepsuć.

  12. Jeśli przedstawisz jakiś DOWÓD na to, że Twoja teoria jest poprawna - tzn. pokażesz jakiś eksperyment, który może zostać wyjaśniony przez Twoją teorię, a którego wyników teoria względności nie wyjaśnia, okrasisz swój wywód jakimiś obliczeniami popartymi ogólnie znaną wiedzą (np. obliczysz, jaki powinien być wynik zgodnie z Twoją teorią, a jaki zgodnie z teorią względności i porównasz to z doświadczeniem), to oczywiście z miłą chęcią podejmę temat.

     

    W przeciwnym razie jest to mój ostatni post na ten temat w tym wątku.

     

    Dowodem jest niezmienność w układzie inercjalnym, nie możesz wykryć że moc światła jest większa w jakimś kierunku, w którym podąża Ziemia, tak samo siła grawitacji jest taka sama dookoła Słońca i nie możesz powiedzieć że grawitacja zostaje w tyle, a Słońce pędzi.

     

    Nie wiem co próbował udowodnić Einstein że fala światła jest jednocześnie mechaniczna, czyli zostaje w tyle za źródłem światła, a brak wykrywalności różnicy mocy dookoła żarówki to tylko złudzenie, wynikające z różnych transformacji, niejednoczesności zdarzeń i innych głupot.

     

    Zwykły dowód z laserem skierowanym zawsze na ten sam punkt na ścianie jest dowodem na dodawanie prędkosci światła do prędkości lasera i Ziemi na zasadzie kuli karabinowej.

     

    I wogóle co ma prędkość światła lasera w bok do Ogólnej Teorii Względności, każdy widzi że machając kropką po ścianie nadaje światłu prędkość w bok wynoszącą prędkość ręki i smuga światła nie stoi w miejscu bo prędkość światła jest niezmienna.

  13. Nie chodziło mi o to, żebyś na rysunku przedstawił to co wcześniej napisałeś, ale żebyś np. rozrysował bieg promieni. Albo w jakikolwiek inny sposób udowodnił, że jest tak jak piszesz...

     

    fala2.GIF

     

    Animacja poniżej przedstawia błędny moim zdaniem obraz rozchodzenia się światła, przypominający falę mechaniczną.

     

    http://pl.wikipedia....=20070813150007

     

    Na moje pytanie o eksperyment, który potwierdzałby Twoją teorię, odpisałeś "fala stojąca w kuchence mikrofalowej". Fala stojąca to nie jest eksperyment. Eksperymentem jest np. doświadczenie Michelsona-Morleya.

     

    Był taki eksperyment pomiar prędkości światła w kuchence mikrofalowej http://www.pl.eu-hou...czy-prdko-wiata

     

    Skoro węzły pozostają nieruchome względem kuchenki to znaczy że prędkość fali dodaje się do prędkości kuchenki.

     

    Michelson-Morley nie mógł niczego wykryć bo pole magnetyczne nie ugina światła, mógł najwyżej wykryć pole elektryczne, powinien raczej używać pola elektrycznego jeśli chciał wykryć stały prąd pola magnetycznego, ale nawet jeśli by wykrył taki prąd to to odkrycie nie miało by żadnego znaczenia bowiem stałe pole magnetyczne nie ugina światła.

     

    Jedyne co wykrywano to szumy i ugięcia termiczno mechaniczne konstrukcji.

    http://didier.salon2...spojrzenie-cz-i

     

    Z tekstu wynika jasno że fizycy są uwikłani w polityczne zagrywki i jeden szuka na drugiego haka, niszczy lub pali dokumenty.

  14. Spróbuj rozrysować jak to wygląda i wytłumacz co to za "mechanizm".

     

    fala.GIF

     

    Ogniskowany obiekt trafi dokładnie w oś optyczną, gdyż istnieje składowa prędkości fali w bok, która spowoduje że fala za nim zdąży pokonać dystans soczewka matryca ulegnie przesunięciu.

     

    Wypadałoby też pisać wyraźnie, że te wszystkie Twoje wywody są Twoją "prywatną teorią", której jak na razie (o ile się nie mylę) nie potwierdziłeś żadnym doświadczeniem.

    Zaproponuj choć jeden eksperyment, który mógłby wykazać, że to właśnie Ty masz rację, albo chociaż wskaż jakieś źródło, na podstawie którego wysnuwasz różne dziwne wnioski...

     

    Np.: fala stojąca w kuchence mikrofalowej.

     

    Fale stojące mogą powstawać również w ośrodkach poruszających się. Wówczas węzły pozostają nieruchome względem ośrodka.

    http://pl.wikipedia....my_o.C5.9Brodek

     

    Brak możliwości ugięcia promienia lasera w silnym polu magnetycznym, promień lasera można ugiąć w polu elektrycznym i odwrotnie fale elektronową można ugiąć w polu magnetycznym.

     

    Fala magnetyczna to dość specyficzna fala, fale nie oddziaływują ze sobą, nie może jedna fala popchnąć drugiej, mogą istnieć 2 fale o różnych prędkościach nałożone na siebie, mogą jednakowo dudnić na całej długości, co w przypadku dźwięku nie jest możliwe.

  15. Księżyca który schował się za Jowisza nie zobaczymy na tle Jowisza, mimo że faktycznie czoło fali światła od księżyca przyjdzie do nas pod pewnym kątem, jednak prubując się zogniskować w soczewce, soczewka ma odwrócony obraz, nie odwraca jednak prędkości fali, nasza fala ma składową prękości księżyca, dlatego obraz księżyca trafi dokładnie w oś optyczną na matrycy, czyli w krawędź Jowisza.

     

    Obrazując to kulą pistoletu, narysujmy linię na ulicy pod kątem 90 stopni do toru jazdy, jeśli chcemy strzelać z jadącego samochodu tak aby kula leciała wzdłuż linii to musimy ustawić lufę pod kątem innym niż 90 stopni do kierunku jazdy.

     

    Docierają do nas te fotony od księżyca Jowisza, które zostały wystrzelone pod kątem takim że po dodaniu ich składowej prędkości lecą dokładnie po osi optycznej naszego teleskopu.

     

    A więc teoria dodawania prędkości światła do prędkości obiektu nadal słuszna, nie powoduje rozpadania się obrazu obiektu gdy składniki obiektu poruszają się w różnych kierunkach. Istnieje mechanizm w soczewce przywracania obrazu ruchomego obiektu na swoje miejsce, mimo że fala ruchomego obiektu przychodzi przesunięta.

  16. co podważa wiarygodność całej pracy.

     

    I potwierdza moją teorię rozchodzenia się światła. Otóż dawniej pisząc program astronomiczny myślałem że aby dodać poprawkę na prędkość światła wystarczy wyliczyć pozycję np.: Jowisza po odjęciu jego odległości świetlnej, czyli przy 40 minutach odległości światła liczymy pozycję Jowisza na orbicie wokół Słońca na godz 21:00, gdy potrzebna jest nam informacja o pozycji z godziny 21:40.

     

    Tymczasem jest to błąd, prędkość światła dodaje się do prędkości obiektu, gdyby prędkość i kierunek Jowisza na orbicie była identyczna do Ziemskiej to nie będzie widać opóźnienia pozycji, gdyż obiekty będą nieruchome względem siebie.

     

    Jedyne opóźnienie jakie zobaczymy dotyczy zmiany jasności.

     

    Jest to problem tak zwanej plamki lasera na ścianie, która zawsze pokazuje tan sam punkt, nie zależnie jak się poruszamy razem z Ziemią.

     

    Prędkość światła w bok ta która wynosiła 0 m/s dodaje się do prędkości lasera i teraz wynosi tyle co prędkość Ziemi.

     

    Gdyby komuś udało się to zjawisko zaobserwować na Księżycach Jowisza, księżyc Jowisza chowający się za tarczę Jowisza, przestaje emitować swiatło, jednak przez 40 minut to światło podróżuje dodane do prędkości tego księżyca, jeśli więc zgaśnięcie księżyca zobaczymy po 40 minutach powinien on dla obserwatora z Ziemii wejść na tarczę Jowisza mimo że fizycznie znajduje się za tarczą.

     

    Każdy powie że to niemożliwe jak zatem wytłumaczyć problem plamki lasera na ścianie pokazującej zawsze ten sam punkt, jeśli nie przez dodawanie prędkości światła w bok 0 m/s do prędkości lasera?

     

    Wychodzi na to że do wyliczeń momentów zakryć Księżyców Jowisza trzeba by korzystać z przekształceń Lorenca, a nie prostego opóźnienia czasu zjawiska o odległość świetlną Jowisza.

  17. dlatego robi się ją z dwóch kawałków, bo zdecydowanie łatwiej i taniej w ten sposób produkować elementy, posiadające obrabiane powierzchnie na zewnętrznej jak i wewnętrznej stronie.

     

    Jakoś moja przejściówka pozwalająca podłączyć obiektyw M42x1 do aparatu Olympus systemu 4/3 jest w jednym kawałku i nie znajdziesz takiej w dwuch.

  18. Bzdura. Sama nazwa opisuje że jest to przejściówka z bagnetu obiektywu Sony Alfa na gwint T 2. Nie wprowadzaj ludzi w błąd astroccd....a tak przy okazji co to jest obiektyw typu T2 ? Żyję już sporo na tym świecie ale czegoś takiego nie spotkałem....ale chcę się zawsze nauczyć czegoś nowego :)

     

    Obecnie produkuje się obiektywy uniwersalne popatrz na Allegro:

    http://allegro.pl/fa...2822686806.html

    http://allegro.pl/sa...2771581983.html

    pasują do wszystkich aparatów gdyż same nie posiadają gwintu, musisz dokupić do nich gwint.

     

    Celowo jest ta zaślepka żeby ktoś przypadkiem nie próbował, wkręcić M42x0.75 w M42x1, będzie się trzymać na 1/4 obrotu i jeszcze odpadnie obiektyw.

     

    Te 3 śruby co 120 stopni też są niebezpieczne, poluzowała mi się jedna i mało nie rozbiłem kamery.

  19. Co prawda twoja kamerka to nie back-illuminated ale poczytaj:

     

    Andor wprowadza także do swoich kamer nową funkcjonalność w postaci tłumienia prążków interferencyjnych. Wybrane modele kamer dostępne są z tą opcją, pozwalającą tłumić prążki w zakresie bliskiej podczerwieni. Prążki interferencyjne powstają w kamerach z sensorami back-illuminated, gdy interferuje światło odbite od tyłu i przodu sensora. Dla aplikacji bliskiej podczerwieni, takich jak obrazowanie powyżej 750nm - na przykład obserwacje Kondensatu Bosego-Einsteina pokazują często prążki interferencyjne. Tłumienie tych prażków pozwala zwiększyć rozdzielczość obrazu. Firma e2v wprowadziła tą technikę do sensorów używanych w kamerach iXon Ultra 897, iXon3 897 oraz iXon3 888.

     

    http://www.elektroda...pic2230425.html

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.