Skocz do zawartości

MateuszW

Biznes
  • Postów

    9 964
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Odpowiedzi opublikowane przez MateuszW

  1. Wszelkie badania statystyczne mówią, że przy braku oświetlenia jest MNIEJ przestępstw! Niestety do opinii publicznej nigdy to nie dotrze i jak widać nawet na szczeblu władzy operuje się stereotypami i zabobonami, a nie faktami.

     

    A te wszystkie powyższe pisma ja bym tak streścił: "Nie można nic zmienić, bo wszystko jest zrobione zgodnie z jakimś tam przepisem i innym rozporządzeniem, więc jest zrobione dobrze". No i z czym tu dyskutować, skoro wszystko jest zrobione zgodnie z przepisami?

  2.  

    No właśnie o tą jasność/ciemność chodzi - jak kręcę kamerą mono to najpierw nagrywam szczegóły "plazmy" Słońca na tarczy bo one są znacznie jaśniejsze niż protuberancje na krawędzi. Później rejestruję jeszcze raz przy dłuższej ekspozycji żeby zarejestrować protki ale tarcza jest wtedy przepalona.

     

    Wszystko rejestruje się w tym samym pasmie 656,3nm ale przy różnych jasnościach. Zatem w kanale R będziemy mieli przepaloną (białą) tarczę Słońca i widoczne protuberancje a w kanale G tarczę nieprzepaloną z detalem (spikule, filamenty, itp...) ale bez widocznych protuberancji.

     

    Przynajmniej w teorii :P

    No tak, to ma sens :) Z tego typu przypadkiem miałem o tyle do czynienia, że kiedyś próbowałem robić Ha lustrzanką (nie polecam :) ). Wówczas ustawiłem za długi czas naświetlania tak, że w R się przepaliło. Ale w G i ciut w B zarejestrowała się tarcza o całkiem rozsądnej jasności i dało się to odratować po usunięciu R. Te kanały G i B strasznie mylą człowieka, bo bez patrzenia na histogram wydaje się, że jest ok (choć tak nieco dziwnie, mydlanie), a całe R jest przepalone...

  3.  

    Teraz pomyślałem, że fajnie może to się sprawdzić przy astrofoto Słońca w H-Alpha :) W zieleni będą rejestrować się szczegóły tarczy (jaśniejsze od protuberancji jakieś 2x) a w czerwieni słabsze protuberancje. Ponieważ R jest czulsze od G to powinno mniej więcej się to skompensować i po rozłączeniu kanałów będziemy mieli protki z kanału G i tarczę z G.

    Muszę to wypróbować w przyszłym tygodniu jak będzie trochę pogody :)

    No ale zara, chwila :) Jak założysz filtr Ha, to z tej tarczy nici. W G otrzymasz ten sam obraz, co w R, tylko ciemniejszy. Jeślibyś jakoś magicznie naniósł na piksele R miniaturowe filtry Ha, a focił przez folię, to może coś takiego by wyszło (znaczy się, trzeba by jeszcze piksele G zmienić na bardziej wąską charakterystykę i wyciąć z nich IR, bo tu ono psuje kontrast).

  4. Jeśli chodzi o kwestię interpolacji itp, to jest jeszcze jedna rzecz. Zasadniczo nagrywając kolor możemy wybrać, czy robić interpolację (debayeryzację) na etapie rejestracji, czy później. Debayeryzacja to z punktu widzenia np czerwonych pikseli nic innego, jak interpolacja dla sąsiednich pozycji, czyli drizzle 2x. Gdyby tak pominąć debayeryzację i wyeksportować 2x mniejszy obrazek (zawierający tyle pikseli, ile jest fizycznie tych czerwonych), to otrzymalibyśmy "czysty" obraz. Rozdzielczość byłaby mniejsza, ale żadne blurujące interpolacje by nie zaszły. Taką operacje ma np Maxim, może inny soft też. Pozostaje pytanie, czy to coś daje, bo rozdzielczość nam spadnie, (w sensie wielkość tarczy, a nie nawet szczegół), a nam na niej zależy (czasem dodatkowo stosujemy drizzle). Ale warto mieć po prostu na uwadze, że debayeryzacja to takie jakby drizzle 2x, które się wykonuje już na wstępie.

     

    Generalnie, może by wydzielić tą dyskusje do "dyskusji o astrofotografii"? :)

    • Lubię 1
  5.  

    Ok, czaję :)

    A czy wiesz może czy istnieje programowa możliwość wyłączenia pikseli zielonych i niebieskich już na etapie nagrywania. Pozwoliłoby to widzieć obraz nie tak bardzo rozmyty przez sygnał (szum, przecieki przez filtry) z tych dwóch nieużywanych kanałów - pytam oczywiście w przypadku nagrywania narrowband h-alpha lub podczerwieni.

    Mówisz tylko o podglądzie? Chyba się nie da, przynajmniej w FC.

     

     

     

    No właśnie niekoniecznie tak musi być, z chwilą tworzenia luminancji można balansem wzmocnić kolor czerwony osłabiając w chwili interpolacji RGB pozostałe. Polecam porobić próby z nocy w bardzo ciemny pokoju, pobawić się na ustawieniu MONO8 i poobserwować co się dzieje.

    Zasadniczo interpolacja każdego z kanałów RGB jest operacją niezależną, więc nie powinno mieć to znaczenia. Być może efekt, któy opisujesz w kolejnym poście wynika po prostu z tego, że podbiłeś po prostu kanał czerwony, czyli jakby zwiększyłeś sobie cyfrowo zakres dostępnego gainu. Ale z punktu widzenia kamery i rzeczywistego sygnału, to co robisz na kompie nie ma znaczenia (nie da się wydobyć informacji, których nie ma na wejściu).

     

    I tak i nie :) To co napisał Lukasz83 miało by sens gdyby obraz stał w miejscu z dokładnością do ćwierci pixela ale on nie stoi w miejscu, on lata jak głupi w zakresie 2-3 pixeli i dzięki temu potem stackując wieeele klatek można odzyskać to co czerwone a chowało nam się za zielonymi i niebieskimi pixelami :)

     

    Trochę też może pomóc Drizzle ale nie w sposób taki jak w HST bo tam robią foto w danym położeniu, następnie przesuwają obraz o PÓŁ pixela ^_^ i jada dalej, u nas to niewykonalne, no chyba za pixele zaczną mieć 1mm :)

    Hmm, trochę nie czaję jak to się ma do postu Łukasza (lub nie czaję postu Łukasza) :)

     

     

    Jeszcze jedna rzecz mnie zastanawia - jak spojrzymy na charakterystykę np.: 178MC to widać, że w podczerwieni te zielone piksele też chłoną fotony :)

    Co prawda z dwukrotnie mniejszą czułością ale zawsze - dodatkowo jest ich dwukrotnie więcej niż czerwonych więc może efekt końcowy pracy na kanałach zielonym i czerwonym będzie podobny...

    Tylko pewnie w zieleni będzie trzeba naświetlać dłużej ale za to rozdzielczość będzie większa (?)

     

    http://www.tavcso.hu/kepek/asi178-QE.jpg

    Na moje oko to trochę większa różnica, niż 2x. Ciekawe, co się dzieje dalej, bo wykres się kończy tam, gdzie zaczyna być ciekawy. Może faktycznie coś by się z tego wycisnęło. W ogóle, to wymyśliłem kolorową kamerę doskonałą - w zakresie widzialnym filtry miałyby charakterystykę, jak zwykła maska bayera, ale w IR nagle wszystkie skakałyby do prawi 100% transmisji. Wówczas, gdy damy filtr L, to odcinamy podczerwień i jest zwykłe RGB, a w IR pass otrzymujemy równoważnik kamery mono (każdy piksel rejestruje IR). Jakby producenci matryc na to poszli, to byłby hit :) W jakiś tam monitoringach to mogłoby się sprawdzić, więc może jest nadzieja na jakiś nakład... O ile udałoby się zrobić filtry o takiej charakterystyce dość tanio.

    • Lubię 1
  6.  

    Gdzieś czytałem, że na masce Bayera jest po 25% pikseli przypisanych do R i B

    oraz 50% przypisanych do G, oraz że w przypadku zbierania podczerwieni można zamienić miejscami "alokację" G i R tak żeby wykorzystać 50% matrycy a nie 25%.

    Tylko nie pisało jak to praktycznie wykonać w FC lub innym programie :(

    Tak, jest 25% R i B, a 50% G. Ale nic sie z tym nie da zrobic, bo to sa fizyczne filtry na pikselach. Zadna manipulacja programowa nie przestawi fizycznego filtra.
  7.  

    Z balansem kolorów postępować wtedy tak, jak wspomniał Hamal? Czerwony na maksa, a niebieski na minimum? Czy nie ma to znaczenia?

    Nie, nic nie trzeba robic. Po prostu usuwasz informacje o G i B, a pozostawiasz R w oryginale. Po rozdzieleniu kanalow masz juz pliki mono, gdzie nie ma juz zadnego balansu.

    To mozna zrobic w PSie lub Maximie. Co do innego softu, nie szukalem.

    • Lubię 1
  8. Powiedzcie Wy mi, bo w sumie nigdy się nad tym nie zastanawiałem, a że i tak w to nie idę to po co ma tracić czas na próby :) Robicie IRpass OSC nagrywając 8 bit? A jaki stosujecie wtedy balans kolorów? Bo nie ma pewności jak kamerka OSC tworzy luminancję mono gdy dostaje jedynie czerwony sygnał ale balans kolorów niebieskiego i zielonego nic nie wnoszących zakresów jest nadal na 50%. O ile niebieski można zjechać a czerwony podbić o tyle zielony jest nieruszalny.

    Nikt sie nie kwapi, to ja może odpowiem :) Najlepszą opcją jest rozdzielenie zdjecia kolor na 3 osobne mono - rozdzielenie kanalow. Wtedy bierzesz do obrobki czerwony, a reszte wywalasz. No i masz czysty czerwony (jako mono). Tak to sie powinno robić.
    • Lubię 1
  9. Przypomniałem sobie, że w drukarkach atramentowych jest enkoder w formie paska folii z prążkami o sporej rozdzielczości który ustala pozycję glowicy. Można wykorzystać go montując wzdłuż ramienia i liczyć wysów lub zwinąć w okrąg i liczyć kąt nożyc. Odczyt z paska porównać z zegarem licznikiem wzorcowym wysyłać korekty do silnika krokowego. Taki pasek można ze złomu razem z czytniki wyciągnąć lub zrobić własny metodą fotograficzną na kliszy.

    Tylko ten pasek jest znacznie mniej dokładny, niż potrzebujemy.

  10.  

    Mateuszu, no przecież jaki link, do czego, skoro ja to chcę samemu wszystko zrobić, DIY-style

    Fotodiodę czy tam fotorezystor mam. Mam też arduino... i to tyle :)

    Wkrótce spróbuję zmontować z jakichś luster i laserów interferometr... I zobaczymy, jak to wszystko wyjdzie ...

    A, to już wiem o czym mówimy - o pomyśle, a nie gotowym rozwiązaniu :) Myślałem, że takie czujniki na bazie interferometru są normalnie w sprzedaży, tak jak dalmierze laserowe na przykład. Coś mi się wydaje, że taki interferometr to nie jest trywialna sprawa :)

  11. Dokładne czujniki? 10bit przetwornik ADC to chyba coś, co można znaleźć w każdym arduino:) intensywność światła padającego na fotodiodę jest zależna od cos(lambda*2d) gdzie d jest mierzoną przez ramię interferometru odległością. Różnica pomiędzy max a min natężenia to pół cosinusa przekladające się na 170 nm dla światła czerwonego. W cosinusie najtrudniej zmierzyć okolice maximum dla argumentów 0, pi, 2pi itd, bo jest wtedy najbardziej płasko. Dokładny, powtarzalny pomiar tego kosinusa na 8bitach daje w najgorszym wypadku ok. 0.09rad rozdzielczości, co przekłada się na 5nm, co z kolei dla 20 cm ramienia daje dokładność w położeniu początkowym 0.05 arcsek. Spory margines błędu dla mojego wymarzonego +/- 1arcsek :)

    Problemem okazuje się zbyt *duża* dokładność pomiarowa. Dotknięcie, mocniejszy podmuch już się dadzą zmierzyć. Poza tym prędkość obrotowa Ziemi to 15 arcsek na sekundę, nasz miernik będzie więc generował sygnał bardzo gęsto, pewnie powyżej 100Hz. Zresztą na początku to samo "taktowanie" krokowca właśnie tą częstotliwością już powinno dać fantastyczne możliwości. Od biedy można wyobrazić sobie analogową pętlę sprzężenia zwrotnego założoną na zwykły silnik, nawet nie krokowiec, opartą o pomiar częstotliwości zmian prążków. Oczywiście, w dłuższej perspektywie najlepiej wycisnąc max z tego układu, a dokładny pomiar ilości pełnych okresów i jednocześnie przesunięcia w fazie w takich warunkach może być wyzwaniem, ale wciąż mógłbym się założyć, że będzie prościej, niż z DVD :)

    Oczywiście nie chodzi mi o dokładność ADC, bo z tym nie ma problemu :) Chodzi mi o to, czy ta sinusoida jest taka równiutka i daje realną dokładność na takim poziomie, jak rozmawiamy, czy to totalnie poszarpany sygnał. Generalnie nie myślałem, że takie czujniki oparte na interferometrze są dostępne w niskiej cenie i w małych rozmiarach. Podeślesz link? :)

     

    No faktycznie częstotliwość tej sinusoidy jest spora, choć te 100 Hz to nadal nic nawet dla Atmegi8 :)

  12. Jednym z pomysłów, jakie poważnie rozważam to pomiar odległości liniowej pomiędzy ramionami (czyli już na końcu drogi mechanicznej od silnika krokowego do aparatu) za pomocą prostego interferometru michelsona i fotodiody. Przy powtarzalności odczytu sygnału z diody na poziomie 8bitowego przetwornika uzyskuje się dokładność pomiaru odległości rzędu pojedynczych nanometrów, czyli dla ramienia 200mm są to setne części arcsek!

    O, też ciekawe. No ale czy te 8 bitów to efektywna wartość, czy tylko teoretyczna? Są tak dokładne czujniki w niskiej cenie? Jeśli tak, to proszę o link :)

  13. Ciekawe, też wpadłem na ten pomysł... Ale trzeba byłoby mieć dedykowaną nagrywarkę, bo sygnał na płycie zapisywany jest w bardzo skomplikowany sposób, i nie jest oczywiste, jaki będzie ostateczny rozkład rowków.

    Przy odrobinie pomysłowości możnaby stworzyć taki enkoder, ale jego dokładność - jak sam wspomniałeś - wcale nie jest aż tak ultradokładna, bo wynosi kilka sekund łuku, a pewnie trzebaby z rok dłubać, żeby dostać dobre, powtarzalne i użyteczne efekty.

    Przy okazji researchu dowiedziałem się, że ASA DDM 60 ma enkodery o rozdzielczości ok. 0.01 arcsek :)

    No właśnie, na płycie mamy 6,5", a w ASA 0,01 :) Tak prawie trzy rzędy wielkości. Oczywiście nam by starczyła dokładność rzędu 1/2 no może 1/3", żeby pociągnąć przeciętny teleskop. Do astrokoziołka z teleobiektywem płyta by starczyła :)

    No ale poza zapisaniem trzeba jeszcze odczytać. Nie odczytamy tego napędem DVD, bo tam płyta się kręci bez naszej kontroli. Potrzeba zrobić własną głowicę czytającą (nawet na bazie tej z napędu). Problem w tym, aby trafić w te wzorki. Napęd DVD ma specjalny układ kompensujący położenie, żeby się "utrzymać" na ścieżce "kropek" podczas obrotu płyty. A nie da się tego nagrać jako wachlarza, czyli takich jakby kresek zbiegających się w środku, bo odstępy między punktami są ustalone i to się nie zejdzie.

     

    A więc generalnie, pomysł ciekawy, możliwe efekty przeciętne i sporo trudności w realizacji.

    • Lubię 1
  14. powinno być te 25 klatek na sekundę czyli czas ekspozycji jest określony

    Niestety nie do końca. Oko nie naświetla zdjęć w klasycznym tego rozumieniu. Impulsy są transmitowane do mózgu "na żywo", tak jak padają fotony. Nie ma etapu gromadzenia sygnału (albo jest on inny).

     

    Oko tak bardzo nie szumi , jak ciemno to czerń

    Mi się właśnie wydaje, że szumi i to mocno :) Tylko jak się nad tym nie skupiamy, to tego nie widać (mózg nam odszumia jakby). Ale jak się w nocy skupię na tym szumie, to widzę go całkiem wyraźnie.

  15. Nie pamiętam dokładnie, ale V4 w AZ-EQ6 musiał być chyba podpięty przez montaż do kompa.. (nie bezpośrednio) Okablowanie masz w zestawie.

    Tak, bo inaczej nie wepnie się zasilania. Znaczy się kabel do PC bezpośrednio z pilota, ale równocześnie pilot podpięty do montażu.

  16. Taśma to zabezpieczenie, żeby teelskop nie odpadł od dovetaila ;-)

     

    Dam znać co będzie.

     

    Postanowiłem zrobić nowe konto na windzie i na nim od nowa konfigurować wszystko pod rc.

    Będą dwa: 1.ED 2.RC

    Czuje ze najlepszym rozwiązaniem byłby osobny komp po każdy setup, ale budżet mnie ogranicza.

    Generalnie możesz sobie w Maximie zapisać dwa profile i mieć ustawienia pod oba setupy na jednym użytkowniku. File/configurations.

  17. Dzięki za sugestie - zainstaluję PHD i zobaczę jak działa.

     

    A dlaczego FC nie jest dobry? Pisząc długie mam na myśli klatki 1-2 sekundowe.

    W porywach do 5 sekund :)

     

    EDIT:

    FC może guidować główną kamerą ale potrzebuję częstszego próbkowania co powiedzmy 100-200ms i częstszych korekt niż może wprowadzić główna kamera naświetlając klatki po 1-2 sekundy

    No tak, skoro myślisz o klatkach 1-2s, to warto zostać w FC :) Sam miałęm ten dylemat ostatnio, chyba 1 s ekspozycje chciałem. Niestety Maxim wprowadza jakieś 0,5s opóźnienia na sczytanie i zapisanie klatki, co jest tu sporym marnotrawstwem. FC zapisuje w locie. Niestety jak widać Maxim i pewnie inne softy typowo DSowe nie zostały przemyślane pod taką szybkość (bo na ogół tego nie potrzeba).

    Generalnie w FC są takie niewygody, jak brak przycinania histogramu na podglądzie, przez co trudniej kadrować itp (trzeba np zmienić ustawienia dla kadrowania). Do tego brak kontroli nad offsetem i zapis do nieco dziwnych fitsów.

     

    Tak, FC ma "pseudoguiding" główną kamerą, ale to nie jest właśnie guiding tak do końca. Przede wszystkim działa na zasadzie dyskretnych kroków, czyli "pyka" sobie ustalonej długości impulsy, aż osiągnie cel. Normalny guiding wylicza czas korekty i ją aplikuje, w efekcie dużo szybciej osiąga cel. Pod planety itp jest to ok, ale do DS jednak lepszy jest normalny guiding.

     

    Ale hola hola - po co Ci guiding? :) Skoro masz czasy max 5s, to on tylko wprowadzi dodatkowe błędy. W tak krótkim czasie każdy montaż prowadzi niczym ASA.

  18. No i wszystko się zgadza, zarejestrowałem się tu w 2013 roku, więc nie widziałem tych tematów :) Nie ulega wątpliwości, że temat jest rzadko poruszany (bo rzadko daje o sobie znać), stąd zapewne te komentarze, o których piszesz, jak i moje zdziwienie :)

  19. W FC nie da się dwóch kamer użyć. A po drugie w FC nie ma opcji do guidingu :) Myślę, że PHD będzie dobrym wyjściem pod guiding - darmowy i bogaty program. A najlepiej byłoby użyć jakiegoś softu dedykowanego do rejestracji DS, który spina guiding i główną kamerę razem, jak Maxim (ale są też darmowe programy tego typu). FC nie jest dobry do DSów z dłuższymi klatkami.

  20. A co do wzorków z mikrosoczewek, to każda matryca, która jest w nie wyposażona, takie patterny uwidocznia. Ich skala zależy od paru czynników - od filtrów (inaczej interferują), od teleskopu, od widma gwiazdy. W moim zestawie nie zauważyłem aż tak "ostrej" manifestacji.

    Ciekawa sprawa z tymi odblaskami, szczerze mówiąc od tych 4 lat, jak tu jestem, jeszcze nigdy nie słyszałem o tym problemie :) Generalnie praktycznie każda matryca ma mikrosoczewki, a coś nie słychać o powszechności tego problemu. U siebie w żadnej z kamer tego nie stwierdziłem. Co innego spajki od mikrosoczewek - ten problem jest znany i stosunkowo często spotykany na forum.

  21. Teraz z kompa to wygląda rewelacyjnie :) Szczegół nieziemski! Zastanawiają mnie w sumie dwie rzeczy - czy ta nierówność tła jest naturalna, bo tak wyglądają tam pyły, oraz czy mi się zdaje, czy jest tam minimalny ukośny pattern (taki, co się robi, jak kadr powoli dryfuje w czasie sesji)? Natomiast szumu jako takiego prawie zupełnie nie widzę, co mnie aż zastanawia, jakimi algorytmami to potraktowałeś :)

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.