Skocz do zawartości

MateuszW

Biznes
  • Postów

    9 964
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Odpowiedzi opublikowane przez MateuszW

  1. Mi również udało się zobaczyć kometę :) Obserwowałem we wtorek 13.01, kiedy to nagle większość kraju zrobiła się pogodna. Zaczęło się od zobaczenia koniunkcji Merkurego i Wenus na zachodzie ok godz 17 przez szybę autobusu podczas powrotu z uczelni :) Nie wiedziałem, że tego wieczoru miała być koniunkcja, dopiero dowiedziałem się, że to Merkury jest obok Wenus, a nie jakaś gwiazda po zaglądnięciu do Stellarium na telefonie :) Byli wtedy na jakiś 5 st nad horyzontem i szczęśliwym trafem znalazło się kilka dziur w zabudowie i drzewach, które pozwoliły na ich dostrzeżenie. To chyba moja druga obserwacja Merkurego, strasznie ciężko złapać skurczybyka :) Powyżej na dokładkę dostrzegłem Marsa. Od razu po powrocie do domu zacząłem się pakować i o 19 byłem na miejscówce. Pogoda wyśmienita, prawie bez wiatru, idealna przejrzystość. Najpierw oglądałem kometę w newtonie 200 mm. Przepiękna, wielka głowa z wyraźnym gwiazdopodobnym środkiem. Po chwili zobaczyłem również warkocz. Niestety nawet nagler 26 mm dawał za małe pole widzenia na ta kometę i nie dało się podziwiać jej pełnego piękna. Nie zarejestrowałem niestety koloru, pewnie dlatego, że moje niebo nie jest jakieś rewelacyjne (wieś blisko miasta). Jednak dzięki rewelacyjnej przejrzystości zasięg tej nocy był w okolicach 5,6 - 5,7 mag. Jak na ta miejscówkę, to bardzo dobrze (rewelacyjnie nawet). Nie obserowwałem za długo i przez to nie zaadoptowałem się należycie do ciemności, co też na pewno wpłynęło na widocznośc koloru. Spieszyłem się, zeby zrobić zdjęcia, co było moim głównym celem. apiąłem więc kamerę i włączyłem sesję, a sam oddałem się obserwacjom lornetkowym (przez 12x50) i gołym okiem.

    W lornetce kometa była równie piękna. Piękna głowa z bardzo wyraźnym warkoczem, którego widziałem jakieś 1,5st. Niestety i tu nie dostrzegłem koloru. Gołym okiem natomiast kometa była oczywista nawet na wprost, przypominała lekko zamazaną gwiazdę i tworzyła charakterystyczny trójkąt równoboczny wraz z dwoma sąsiednimi gwiazdami (kometa w lewym górnym rogu, jedna gwiazda z prawej i jedna z dołu), które były podobnej jasności (trójkąt zajmował jakieś niecałe 2 st). Oczywiście również z Hiadami i Plejadami kometa tworzyła trójkąt równoboczny, znacznie większy i również stojący "do góry nogami". Niesamowity widok. To moja pierwsza kometa widoczna gołym okiem i chyba najjaśniejsza kometa, jaką widziałem :)

    Niestety lub na szczęście niedługo po północy przyszły chmury, a ja zwinąłem sprzęt i udałem się do domu. Następnego dnia wstawałem ok 6.30, masakra :)

     

    Zdjęcie pojawi się niebawem, walczę z obróbką, lokowaniem i sami wiecie :P

  2. Właśnie liczy się 16777216 ^ (1600 * 900) :P Nie jestem pewien, czy kalkulator da sobie z tym radę, a raczej sądzę, że sobie nie da :P Odpaliłem linuksowy kalkulator, który chyba nie widzi ograniczeń na wielkość liczby, jedyne co, to może się skończyć RAM. Jak na razie w sensownym czasie (niecała minuta) policzył on wartość 16777216 ^ (160 * 900), czyli do potęgi 10x mniejszej. Nie będę wrzucał wyniku, bo by mnie zbanowali za spam :) , ale powiem, że wynik ma dokładnie 1 040 360 cyfr. Wynik wyrażenia z właściwą potęgą (jeśli dobrze myślę) będzie miał 10x więcej cyfr, czyli ok 10 mln, a więc będzie to liczba rzędu 10 ^ 10 000 000. Dla porównania liczba atomów we wszechświecie to ok 10 ^ 78, normalnie cyrk :P

     

    Na świecie żyje ok 7 185 970 000 ludzi. Załóżmy, że każdy z nich ma aparat i wykonuje średnio 10 000 zdjęć na rok. Myślę, że jest to wartość przeszacowana. Wynika z tego, że potrzeba by ok 10 ^ 9 999 986 lat, aby wykonać każde możliwe zdjęcie. Wiek wszechświata to tylko 1,4 * 10 ^ 10 lat, czyli dosłownie nic. Nie sadzę, żeby wszechświat istniał odpowiednio długo, więc pewnie nigdy nie będzie problemu powtarzających się zdjęć :P

     

    Edit: No i koniec - kalkulator został "unicestwiony" przez system :P

    • Lubię 1
  3. ale może to oznacza że nasz sprzęt jest za słaby żeby zrobić zdjęcie odpowiedniej jakości, więc robimy grafikę?

    i nic w tym złego, róbmy te grafiki, ale chodzi o nazywanie rzeczy które robimy tak żeby odbiorca wiedział co to jest.

     

    równocześnie obok ktoś dysponuje pięciometrowym teleskopem i robi po prostu zdjęcie bo nie musi niczego rekonstruować.

     

    rekonstrukcja może też wydawać nam się dobra, ale w rzeczywistości będzie fałszywa.

    na przykład dokładnie w momencie kiedy kometa była w miejscu, w którym twórca ulokował jej obraz na tle gwiazd, wystapiło jakieś jednorazowe nieprzewidywalne zjawisko - rozbłysk, meteor, cokolwiek.

    obraz tego czegoś pojawił się tylko na jednej klatce i został odrzucony jako zakłócenie.

    w efekcie rekonstrukcja zawiera to co jej twórca myślał że powinna zawierać, a nie to jak rzeczywiście wyglądał ten konkretny moment.

     

    w odróżnieniu od tej rekonstrukcji, zdjęcie od kolegi obok (tego który bawi sie pięciometrowym teleskopem) prawidłowo pokazuje co się wydarzyło.

    Masz rację, że powinno się wspominać o takich rzeczach przy publikacji zdjęcia. Mi osobiście brakowało napisu, że tyle i tyle klatek było dodatkowo na gwiazdy, bo było napisane tylko o czasach dla samej komety.

    Masz też rację, że rekonstrukcja może nie być doskonała i zawierać pewne różnice. No niestety musimy się godzić na pewne kompromisy, bo na lustro 5 metrów nas zwyczajnie nie stać :) A swoją drogą, to takie lustro musiałoby mieć jakąś zabójczo jasną światłosiłę, żeby dało się na zdjęciu z takiego lustra zmieścić sensowny fragment komety. Przy ogniskowej 1000 mm daje to f/0,2 :P

    Nie zgadzam się tylko z tym, że "gatunek" zdjęć komet, o którym mówimy jest grafiką, a nie zdjęciem, co argumentowałem poprzednio :)

     

    Trzeba dyskutować, warto dyskutować :)

     

    Jak byś Mateusz nazwał to ? Abstrahując od całości zagadnienia moralności astrofotografii. Zdjęcie? grafika? Grafika to to nie jest raczej, nikt niczego nie rysował.

    Ja bym to nazwał zwyczajnie fotomontażem i moim zdaniem jest to nawet bardzo wyraźny przykład fotomontażu :)

     

    Przykładowa fotografia, którą mogę wyświetlić na moim ekranie to 1600x900 pikseli wyświetlonych w jednym z ponad 16 milionów kolorów.

    Oznacza to, że mój ekran posiada pewną skończoną "przestrzeń" możliwych do wyświetlenia obrazów (1600 x 900 x 16.7mln).

    Tak, 16 milionów to przybliżenie liczby 2563, a tyle właśnie kolorów może mieć jeden piksel zdjęcia na monitorze, bo zapisuje się go za pomocą 3 bajtów (po jednym na R, G i B ). Mylisz się jednak, co do ilości możliwych do wyświetlenia różnych zdjęć, jest ich zdecydowanie więcej. Ty policzyłeś tak na prawdę, ile jest zdjęć, na których świeci się tylko jeden z 1600x900 pikseli w jednym z 16 mln kolorów, czyli jakby wybierasz piksel i nadajesz mu kolor, a resztę olewasz :) Aby obliczyć, ile jest tak na prawdę różnych zdjęć, należy obliczyć 16777216 ^ (1600 * 900). To jest znaaaaaaacznie większa liczba :P

    Ja sam kiedyś na ten temat wpadłem bez pomocy "z zewnątrz" i też mnie to zaciekawiło :) Ciekawe, ile lat by zajęło zrobienie tych wszystkich zdjęć i żeby zaczęły się one powtarzać :)

     

    (...)miliony lat w ciemnym kosmosie nie pójdą na marne(...)

    Akurat foton nie ma problemów z ciemnością :rofl:

    • Lubię 2
  4. aczkolwiek z drugiej strony, oni tam stosują jakieś ciekawe przetwarzanie obrazu... te ciemne smugi w odblaskach nie moga być przecież prawdziwe?

    Oni chyba stosują taką technikę, że robią dwa zdjęcia dość oddalone czasowo i odejmują je od siebie. Wtedy blask Plutona jest wygaszany i uwidaczniają się te słaby księżyce.

  5. To może tak. Dla mnie zdjęcie astronomiczne to obraz ukazujący rzeczywisty wygląd nieba w konkretnym miejscu i konkretnej chwili (stanie). Chwila ta może być nieraz bardzo długa (bo np DSy nie zmieniają swojego wyglądu z minuty na minutę, jak np planety), tak więc właściwszym określeniem będzie słowo "stan". Zdjęcie takie nie musi być wynikiem przeprowadzania tylko operacji globalnych na jednej surowej klatce. Zdjęcie można utworzyć z połączenia informacji zawartych na różnych klatkach. Jeśli chodzi o stackowanie, które jest "uznawane przez wszystkich", to jest to proces łączenia klatek, pokazujących obiekt w tym samym stanie, który trwa często bardzo długo. Dzięki temu zbieramy więcej informacji (tego samego typu) na temat jego struktury, bo pozbywamy się szumu itp. Można też zrobić inną rzecz. Można wykonać kilka serii klatek, z których każda będzie rejestrowała innego typu informacje. Tak się to dzieje np przy LRGB, gdzie każda seria rejestruje obiekt w innej barwie. Przy kamerach mono niemożliwe jest złapanie informacji o L, R, G i B równocześnie, tak więc zbieramy je po kolei i dopiero na kompie łączymy w całość. Korzystamy tu z tego, że obiekt nie zmienia się podczas wykonywania tych klatek, wiec ostateczne zdjęcie wiernie oddaje jego stan. Przy składaniu LRGB w zasadzie sklejamy lub, jak pisze szuu "lokujemy" 4 składowe obrazu na sobie i nikt się tego nie czepia! Przecież żadna pojedyncza klatka nie przedstawia kolorowego obiektu, więc zdjęcie jest fotomontażem? To by wynikało ze zdania niektórych.

     

    W przypadku spornego zdjęcia komety mamy taką samą sytuację. Najpierw zbieramy informację o komecie, a następnie oddzielnie o gwizdach i łączymy je w całość na kompie, ponieważ w przypadku długich klatek na skutek ruchu komety niemożliwe jest zebranie tych obu informacji jednocześnie. Korzystamy tutaj z faktu, że kometa przez te kilkadziesiąt minut nie zmienia istotnie swojego wyglądu. No dobrze, ale kometa się przesuwa, a więc kolejne klatki nie przedstawiają takiego samego stanu. Racja, ale ostateczne zdjęcie stanowi jakby "rekonstrukcję" wyglądu komety w jednym, konkretnym stanie, w którym faktycznie się kiedyś znajdowała. Nie jest to żadna fantazja autora, tylko rekonstrukcja faktycznego wyglądu obiektu w danym, istniejącym stanie, na podstawie zebranych oddzielnie informacji różnego typu w różnych stanach. Dlaczego musimy stosować rekonstrukcję? Bo nasz sprzęt nie jest na tyle doskonały, żeby uchwycić w takiej jakości obraz komety w tym jednym stanie.

     

    co można robić ze zdjęciem żeby jeszcze można było nazywać go zdjęciem?

    na przykład przed chwilą zrobiłem takie "zdjęcie" stosując promowaną ostatnio technikę lokowania... :flirt: (materiał z wikipedii)

    Twój przykład ewidentnie nie jest zdjęciem, bo nie przedstawia on realnego wyglądu nieba w żadnej chwili. Zdjęcie to obraz czegoś rzeczywistego, co faktycznie tak kiedyś wyglądało.

    • Lubię 2
  6. Na początku chciałbym podziękować Wesselowi za podzielenie się tą techniką robienia osobnych klatek na gwiazdy i kometę, bo dla mnie jest to pomysłowe rozwiązanie odwiecznego problemu komet. Niestety u mnie to nie ma zastosowania, bo nie jestem w stanie precyzyjnie prowadzić za kometa bez guidingu przez 5 minut.

     

    Metoda Wessela to przecież tak na prawdę rozszerzenie metody "zwykłej", czyli osobnego stackowania tych samych zdjęć na kometę i tło i łączenia w całość. Wessel poszedł krok dalej i zebrał osobne klatki, żeby pokonać kolejny problem (pojechanie pojedynczej klatki). Moim zdaniem metoda Wessela jest takim samym ingerowaniem w obraz, jak i zwykłe robienie dwóch stacków, bo w jednym i w drugim wypadku kometę "doklejamy" na gwiazdy. A przecież metoda dwóch stacków z jednego materiału jest stosowana przez bardzo dużo osób również w tym wątku i jakoś się nikt tego nie czepia.

     

    Moje zdanie odnośnie obróbki jest takie:

    Fotomontaż - dokładanie do obrazu elementów, których ma w rzeczywistości na fotografowanym obszarze lub zmiana wyglądu istniejących elementów na odmienny od rzeczywistości.

    Obróbka - przetworzenie zdjęcia w celu usunięcia wszelkiego rodzaju wad "technicznych", tak aby zdjęcie jak najbardziej oddawało rzeczywistość, którą fotograf chciał uchwycić w danym miejscu i danej chwili. Jest to również dostosowywanie obrazu do sposobu jego prezentacji (np wyświetlania na monitorze) tak, aby oddać jak najwięcej szczegółów/"cech" fotografowanego obszaru mając na uwadze ograniczone możliwości prezentacji (dynamika monitora itp).

     

    Inne definicje jak dla mnie są niekonsekwentne, albo wykazują niezrozumienie czym tak na prawdę jest "zdjęcie". Przykładowo (nieszczęsne) dokładanie spajków jest fotomontażem, bo tych spajków na oryginale fizycznie nie było (ani na zdjęciu ani na fizycznej gwieździe). W zasadzie, to można by uznać, że proces odwrotny, czyli usuwanie spajków (czego nikt nie robi) jest już obróbką, bo jest to usuwanie wady teleskopu jakim jest dyfrakcja na pająku. Spajki nie są fizyczna częścią gwiazd, więc tak na prawdę zafałszowują obraz, wiec są wadą instrumentu. Oczywiście spajki są raczej pożądanym elementem fotki, więc nikt się w to nie bawi, to tylko taka dygresja.

     

    Należy się zastanowić, czym jest tak na prawdę nieobrobione zdjęcie. Jest to tablica dwuwymiarowa o wymiarach takich, jak ilość pikseli w pionie i poziomie naszej matrycy wypełniona liczbami z określonego przedziału zależnego od ilości bitów, na których się zapisuje dany piksel. Pomijając kwestie kolorów mamy standardowo przetworniki 8 bitowe, 12, 14, 16 i pewnie jeszcze inne. To, jak te liczby przetworzyć, żeby wyświetlone na monitorze dały nam obraz zbliżony do oryginału (kawałka przestrzeni kosmicznej, który fotografujemy) jest właśnie obróbką. Tak na prawdę, fotografując niebo lustrzanką i wyświetlając "surowe" zdjęcie na komputerze jest ono już poddane obróbce. Nawet wyświetlając zdjęcie w formacie RAW widzimy je w formie obrobionej, bo przeglądarka obrazów przed wyświetleniem zdjęcia nadaje mu ustalony przez aparat lub nas balans bieli. Zdjęcie w 100% surowe możemy zobaczyć np w Maximie. W przypadku kamer dedykowanych pliki są już totalnie surowe i nie mają żadnych parametrów "domyślnych". Surowe zdjęcie z kamery wygląda tak:

    C2014 Q2 Lovejoy-001_L_90s_20C small.jpg

    Czy panowie "protestujący" chcieli by, żeby takie zdjęcia był publikowane na forum? :P Mamy tu dwie sprawy: usunięcie z obrazu wad, które pogarszają oddawanie przez zdjęcie rzeczywistości i dostosowanie go do wyświetlania na klasycznym monitorze. Druga kwestia wymaga niestety lekkiego zafałszowania rzeczywistości w postaci operowania na krzywych, maskach itp, aby "zmieścić" cały sygnał 16 bitowej dynamiki na marnych 8 bitach monitora nie przepalając jasnych obszarów, ani nie wycinając sygnału. Gdyby nasze monitory maiły dynamikę 16 bit i jasność ze 100x większą, to taka klatka wyświetlona na nim pokazała by piękny warkocz komety. Niestety monitor nie ma takiej dynamiki, jak nasze niebo. Stosowanie np DDP zafałszowuje stosunki jasności poszczególnych elementów, ale inaczej się po prostu nie da zmieścić dynamiki 16 bit na 8 bitach i trzeba pójść na kompromis.

     

    Do usuwania wad zalicza się:

    kalibracja (usuwanie winietowania, paprochów, hotpikseli itd),

    stackowanie (usuwanie szumów matrycy i innych losowych lub jednorazowych rzeczy, jak ślady satelitów, promieniowanie kosmiczne itp)

    wyostrzanie (usuwanie wpływu seeingu i ograniczonej ostrości obrazu dawanej przez tor optyczny)

    i wiele innych. W przypadku zdjęcia Wessela zastosowana technika ma na celu pokazanie prawdziwego obrazu komety w wybranej chwili. Ta technika pozwala na usunięcie ograniczeń sprzętowych, które uniemożliwiają zrobienie takiego zdjęcia "zwyczajnie". Aby nie stooswać tej techniki można by kupić 10 teleskopów z 4x większą światłosiłą, chłodzonymi ciekłym azotem kamerami i zrobić równocześnie po jednym zdjęciu z każdego o krótkim czasie ekspozycji (np 30s), tak aby żadne rozmazanie nie było widoczne. Wtedy po klasycznym zestackowaniu uzyskalibyśmy tej samej klasy zdjęcie. Dlaczego Wessel tak nie zrobił? Bo nie jest miliarderem :) Wessel zbierając po kilka klatek komety przez pewnien czas oraz osobnych klatek na gwiazdy pozyskał o nich tylko pewne informacje. Dopiero odpowiednie złożenie tego w całość dało zdjęcie, które przedstawia faktyczny wygląd komety w pewnej wybranej chwili. Uzyskał zdjęcie, które bardzo wiernie oddaje rzeczywistość, ale której to rzeczywistości nie da się uchwycić na pojedynczej fotografii. No bo, gdyby niebo (gwiazdy i kometa) było 100x jaśniejsze, to takie właśnie zdjęcie można by zrobić na jednej klatce.

     

    Podsumowując, dla mnie modyfikowanie zdjęć (nawet takie operacje, które całkowicie zmieniają ich wygląd, sklejanie różnych zdjęć ze sobą itp) nie jest fotomontażem, jeśli tylko ma to na celu pozbycie się wad i ograniczeń naszego sprzętu, dążąc do jak najwierniejszego oddania rzeczywistości. Co z tego, że kometa pochodzi z jednego zdjęcia, a gwiazdy z drugiego, skoro po sklejenie wychodzi z tego obraz rzeczywistości w pewnym momencie (ta kometa faktycznie tam była w jakiejś chwili).

    Równie dobrze można by się przyczepić, że składanie RGB jest fotomontażem, bo przecież jedna klatka nie jest kolorowa - to przecież doklejanie. Ale z uwagi na to, ze nasza kamera nie może równocześnie zarejestrować wszystkich kolorów, to ratujemy się zbieraniem materiału przez pewien czas, tak aby po połączeniu pokazać kolorowy obiekt, takim, jakim jest on w rzeczywistości.

     

    Robienie zdjęć w astro należy traktować jako zbieranie informacji. Niekiedy zbieramy informację o obiekcie przez kilka nocy, łapiąc wiele klatek przez ten czas. Niekiedy zbieramy oddzielnie informację o różnych kolorach obiektu, bo nie da się tego zrobić równocześnie. A Wessel po prostu oddzielnie zebrał informację o komecie i gwiazdach.

     

    Przepraszam, że ta długo, ale nie da się tego przedstawić w dwóch zdaniach.

    • Lubię 4
  7. Nie. Cale zdjęcie robiłem w jednej sesji. I niczego nie doklejałem do niczego. Jesli ty potafisz zrobić zdjęcia z dobrze widocznym warkoczem i bez poruszonych gwiazd to powinienes dostac Nobla.

    Chyba nie zrozumiałem którejś z Twoich wypowiedzi, bo doszedłem teraz do sprzeczności... Czyli wychodzi na to, że wykonałeś zdjęcie komety "normalnie", czyli naświetliłeś po prostu siedem 5 minutowych klatek (z prowadzeniem na kometę), które złożyłeś na kometę i na gwiazdy, a potem te dwa stacki połączyłeś w obróbce w jedno zdjęcie (+oczywiście kolor), dobrze teraz rozumiem?

    Jeśli tak, to wracam do mojego pierwotnego pytania. Finalne zdjęcie ma punktowe gwiazdy. Gwiazdy pochodzą z siedmiu 5 minutowych klatek. Każde ze zdjęć było prowadzone na kometę, a więc kometa na każdym zdjęciu była punktowa, a gwiazdy powinny być rozmazane (o tyle, ile wynosi ruch komety w ciągu 5 minut, czyli obecnie ok 30"). To jakim cudem te gwiazdy na finalnej fotce nie są łukami?

     

    Widzę chyba tylko jedną możliwość, która by się pokrywała z Twoimi wszystkimi wypowiedziami. Zrobiłeś 7 klatek 5 min dla komety i osobne klatki (w czasie tej samej sesji = nocy) dla gwiazd, na których to klatkach gwiazdy są punktowe i z tego otrzymałeś dwa stacki, które potem łączyłeś. Czy może tym razem "trafiłem"?

  8. Ale przy prowadzeniu na kometę tyle minut wyszły by krechy. Robiłeś dla nich osobną sesję?

    Własnie o to mi chodziło - przy 5 min klatkach już na pojedynczych klatkach gwiazdy powinny być rozjechane. To, że składasz oddzielnie gwiazdy i kometę, to wiadoma sprawa :)

  9.  

    Kometa jest czadowa. Nie wytrzymałem i musiałem pokazać Wam DEMO swojego przyszłego zdjęcia biggrin.png

    Widać oba warkocze, "warkocz jonowy" też.

    Veloce RH200, STL 11000, ASA DDM prowadzony na kometę delta RA -3,66 arcsec/min, delta DEC +5,7 arcsec/min.

    7x300 sekund - kolorek jest, tylko czeka na obróbkę ...

    Zastanawia mnie, jak uzyskałeś okrągłe gwiazdy, skoro przy ekspozycjach 5 min i prowadzeniu na kometę powinny się one rozjechać?

  10. Nowa wersja PHD2 jest wyposażona w dodatkową opcję która zwie się "Śledzenie komety". Intrygująca opcja, jednak na naszym podwórku nie dopatrzyłem żeby ktoś jej próbował. Gdyby pogoda pozwoliła chetnie bym się z nią zmierzył bo opcja jest nad wyraz ciekawa, a angielski opis z HELP'a PHD2 nie jest nadzwyczaj skomplikowany, chociaż w terenie może być zupełnie odwrotnie.

    Ciekawa sprawa, szkoda tylko, że już nie używam PHD :) W sumie, to czym miałby się różnić guiding na komecie od tego na gwieździe, że trzeba do tego osobnej opcji?

     

    Generalnie - należy korzystając z efemeryd śledzić kometę (custom tracking) i ekspozycje robić tak aby nie przepalić jądra - między ekspozycjami musi być odpowiednia przerwa tak aby gwiazdki nie były liniami co umożliwi usunięcie ich medianą - generalnie ;)

     

    P.S.

    W zależności od montażu można ale nie trzeba wspomagać się guide na kometę ;)

    Hmm, też jakieś wyjście. No ale boję się, że jednak mój montaż by nie dał rady bez guidingu :)

     

    Zawsze można znaleźć optimum czy zastosować L1x1 i RGB 2x2 czy może L2x2 i RGB 3x3. Kometa jest bardzo jasna, ale warkocz jest już niezbyt jasny. Ze względu na min odległość od Ziemi jej pozorny ruch jest bliski max tj. 6"/1min, co przy skali 1,1" sugeruje zastosowanie wersji L 2x2 i od 60-90sek ekspozycji.

    Dzięki, spróbuję takich czasów. Obawiam się tylko, że na bin2 jądro może się przepalić.

     

    A są jakieś specjalne wytyczne odnośnie koloru z kamery mono? Zbierać klasycznie kolejno LRGB, czy jakąś inną strategię zastosować?

  11. Ciekawe co ASI kombinuje, pisze to w odniesieniu problemów Alien-a

     

    Kiedy weźmiemy zwykły mono Fit do Registax i zrobimy Debayer to w każdej konfiguracji pojawia się jedynie kolorowa kasza (foto na dole)różny układ GR GB RG GB nie zmienia ogólnego odcienia koloru kaszy. W przypadku debajeryzacji klatek klipu Alien-a pojawia się kolor (foto 1 i 2) , w zależności od układu GR GB RG GB zielonkawy lub czerwonawy (tak samo dzieje się przy wywoływaniu kolorowych zdjęć) a tak zestackowany klip (na kolorowo)nie posiada potem już siatki. Zupełnie jak typowy kolorowy obraz a przecież kamerka jest mono.

    Rozumiem, że przykład z fitsem to Twoje zdjęcie? Czyli wychodzi na to, że każda klatka jest w kratkę, a nie tylko stack. Zaczyna się potwierdzać teoria, że Alien ma jednak kolorową kamerkę pomimo napisu na obudowie... Alien, nagraj awik przez obiektyw czegoś kolorowego i wrzuć tutaj jakąś pojedynczą klatkę. Wtedy jednoznacznie okaże się, co w trawie piszczy. Księżyc niestety nie pozwala na stwierdzenie jednoznacznie, bo jest z natury dość monochromatyczny :)

  12. Rozumiem piszesze o oagu ale bino ma pryzmaty równoległe.

    Tak, z bino można coś z tego zrobić. Tak, jak pisałem wcześniej. W bino dostajemy po prostu po połowie światła do każdej z kamer, więc będziemy mieli większy szum (bo zwiększymy gain, żeby wyrównać jasność), a dostaniemy 2x więcej klatek.

  13. Tak zdaję sobie sprawę, że jest przesunięcie ale nie mam pojęcia jakie ;). Miałem nadzieję, że na tyle małe aby Jowisz w kamerce był na skraju klatki :D. Widać przeliczyłem się :)

    Pola widzenia obu kamer nie mogą się zazębiać, bo inaczej na obszarze wspólnym każdy foton z teleskopu musiałby się klonować, żeby dotrzeć do obu kamer :P Druga kamera wykorzystuje obszar pola widzenia obok pierwszej, bo inaczej pryzmat musiałby zasłaniać matrycę pierwszej kamery. Pryzmat OAGa można praktycznie utożsamić z matrycą drugiej kamery, wtedy widać wyraźnie, że nie da się go tak umieścić, żeby rejestrował ten sam obszar nieba, co pierwsza kamera

  14. A tak całkiem poważnie spytam - a guide na komecie - nie dało by rady? Od jakiegoś czasu myślę żeby to sprawdzić ale ostatnio u mnie część wspólna zbiorów dobrej pogody i wolnego czasu jest pusta.

     

    Kuba

    Też nad tym myślałem. Gdyby kometa miała wystarczająco jasne i skondensowane jądro, żeby wypatrzył je guider, to powinno zadziałać, na obecnej pewnie jest to możliwe. Niestety u mnie to rozwiązanie odpada, bo mam OAGa, a więc guider widzi obszar nieba obok faktycznego kadru, czyli już bez komety. To może zadziałać przy klasycznym guidingu drugą rurką.

  15. Jest jedna technika, która umożliwia uzyskanie większej ilości materiału w tym samym czasie z jednego teleskopu, którą można zastosować przy zbieraniu RGB; do L to nie ma sensu (trzeba zebrać "tradycyjnie"). Podobno stosuje się to nieraz w profesjonalnych teleskopach do DSów. Idea jest taka: wiązka światła z teleskopu trafia na lustro półprzepuszczalne (albo coś innego, nie wiem dokładnie), które odbija tylko fale czerwone, a przepuszcza pozostałe. Te fale czerwone rejestruje jedna kamera. Reszta wiązki trafia na drugie lustro, które z kolei odbija fale zielone, a przepuszcza niebieskie. Na końcu dwóch powstałych wiązek są kolejne 2 kamery. Dzięki temu uzyskujemy jakby kamerę kolorową, która w każdym z "pikseli" zbiera całe światło (czerwone + zielone + niebieskie), a nie tylko jeden z kolorów jak przy masce bayera. Nie wiem dokładnie, jak jest realizowane samo rozszczepianie światła, ale jakoś się to da zrobić. Niby nasze filtry RGB też działają jak takie półprzepuszczalne lustra, bo np R odbija przecież kolory G i B, ale problem jest taki, że jak filtr nie jest prostopadle do osi optycznej, to zmienia swoją charakterystykę, wiec to odpada. Myślę, że zbudowanie takiej maszynki amatorsko byłoby bardzo drogie, w szczególności pewnie taniej by wyszło kupić 3 teleskopy :)

     

    Jest jeszcze druga opcja. Są matryce (na razie to raczej prototypy), które mają jakby 3 warstwy pikseli. Te z samej góry wyłapują fotony czerwone i przepuszczają w głąb resztę. Druga warstwa łapie zielone i przepuszcza niebieskie do trzeciej warstwy. Tu też nic się nie marnuje. Wydaje mi się, że sprawność takiej kamery jest nieco niższa, niż pierwszego rozwiązania, choć jest to na pewno dalej atrakcyjna metoda (no może nie finansowo :) ).

  16. Co do kręcenia dwoma kamerkami na raz. Czy off axis guider też ściemnia mocno obraz? Jeżeli tak to o jaki procent? Jeżeli niewielki to można by kręcić, 2 różne kanały na raz. Chociaż gdyby było to opłacalne to już by ktoś na to wpadł ;).

    OAG zasadniczo, jak ma tylko pryzmat, który pokrywa cały stożek światła dla kamery, to nie powoduje przyciemnienia obrazu (no może jakieś straty na szkle są - normalka). TSOAG przykładowo ma ciut za mały pryzmat dla Chameleona, ale jakieś większe OAGi by wystarczyły.

     

    Jest jedno ALE :) OAG to Off Axis Guider - czyli jak sama nazwa wskazuje, obraz dla kamerki guidującej jest pobierany spoza osi optycznej. Co to oznacza w praktyce? Jak kamerką "główną" (tą na wprost OAGa) najedziesz na Jowisza, to w kamerce "guidującej" (tej z boku na pryzmacie) będziesz miał obraz pięknego, czarnego kawałka nieba obok Jowisza :rofl: . Panie, fizyki pan nie oszukasz :) Takie rzeczy tylko w Erze :)

     

    Być może że to niewielkie przesunięcie w odpalaniu może dać różnicę w szumach , to zn. mogą być nieco inaczej rozmieszczone co potem można zestakować i uśrednić , ale powiadam to tylko eksperymenty, kamera dobra tylko rurka mała , ale radocha duża zwłaszcza jak jest seeing

    Nie zaszkodzi sprawdzić, choć z teoretycznego punktu widzenia nic to nie powinno zmienić (nie wyciągniesz więcej informacji, niż tam faktycznie jest). W zasadzie, to można uzyskać to samo, jak się weźmie jeden awik i wytnie w programie graficznym jego początek i zapisze oraz zapisze się wersję z uciętym końcem - wtedy uzyskasz to samo, jakbyś nagrywał te piliki różnymi programami i włączał nagrywanie w różnym czasie. Generalnie takie wielokrotne stackowanie bez różnych klatek przypomina mi eksperyment chyba Hamala odnośnie podobnej techniki z DS (był watek). Trudno było tam stwierdzić, czy to coś dało. Moim zdaniem stakie stackowanie różnych stacków z tego podobnego zbioru klatek generowało po prostu ciut bardziej zamazany obraz, co dawało wrażenie mniejszej ilości szumu, ale tak na prawdę było to prawie to samo. To tylko moje zdanie jak coś. Teoretycznie na to patrząc nic się nie da więcej z tego uzyskać, niż zwyczajnie stackując.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.