Jump to content
  • 0

Uwzględnianie fluktuacji atmosfery bez optyki aktywnej.


atnerun
 Share

Question

Witam,
Podczas moich obserwacji planet czasem najpierw obserwuję obraz silnie rozogniskowany (podobnie jak podczas testu kolimacji na gwiazdę), sprawdzam jak spokojna jest atmosfera.
Zacząłem się zastanawiać czy ta informacja o stanie atmosfery nie mogła by być wykorzystana podczas komputerowej obróbki zdjęć?
Zarys pomysłu jest taki żeby rozdzielić obraz i robić ostre zdjęcie planety i jednocześnie ten rozogniskowany z widocznymi fluktuacjami atmosfery. A następnie programowo "wygładzać" obraz planety wykorzystując informację o tym jak zaburzona jest atmosfera.
Podejrzewam że zapomniałem o czymś ważnym bo jakby to by było takie proste to byśmy już podobne metody wykorzystywali.

 

Link to comment
Share on other sites

Recommended Posts

  • 0

Fluktuacje cały czas się zmieniają, także w ciągu kilku minut. Nie przewidzisz tego na zapas.

Całe to nieszczęsne rozmycie usuwamy przez pierwsze stackowanie wielu zdjęć uśredniające sygnał i potem stosujemy dobieranie się do ostrego obrazu przez dekonwolucję i wavelety (programy Autostakkert, Registax itp.)

Link to comment
Share on other sites

  • 0

Astro zajmuję się raptem od miesiaca, astrofotografię mam dopiero w bliżej niesprecyzowanych planach, więc nie mam pojecia czy ktoś tak próbuje robić, i czy w ogóle ma to sens. Ale zawodowo zajmuję się mikroskopią i w mikroskopii dekonwolucję 3D robi się dość standardowo. Jesliby te układy potraktować analogicznie (co niekoniecznie jest właściwe), to musiałbys mieć zmotoryzowany fokuser i zrobić stos obrazów po osi Z (czyli te przed, w i za ogniskiem). Jeśliby w kadrze była gwiazda, można by jej obraz wziąć jako PSF do dekonwolucji. Pierwszy problem to to, że w czasie robienia tego stosu, obiekty przemieszczą się w płaszczyźnie XY. Drugi problem w tym, że do planet trzeba chyba zrobić mnóstwo zdjęć, a właścwie to film. Nie wiem czy takie obrazowanie w 4 wymiarach ma szansę powodzenia z amatorskim sprzętem...

Link to comment
Share on other sites

  • 0
3 godziny temu, atnerun napisał:

Zacząłem się zastanawiać czy ta informacja o stanie atmosfery nie mogła by być wykorzystana podczas komputerowej obróbki zdjęć?

Pomysł ciekawy, tak z marszu nie umiem powiedzieć, czy z takiego obrazu dałoby się uzyskać wystarczające informacje do korekcji, ale niestety, głównym problemem nie jest pomiar, ale korekcja. Korekcja na gotowych, naświetlonych klatkach daje bardzo ograniczone efekty i nie może nawet startować do tego, co daje aktywne odginanie luster podczas tworzenia klatki. Ogólnie takie korygowanie obrazu podczas obróbki można wykonać bez dodatkowych informacji i robi to np autostakkert - to jest po prostu lokalna alignacja, czyli program dopasowuje do siebie kilkadziesiąt fragmentów planety i dokonuje deformacji klatek tak, żeby one wszystkie jak najlepiej do siebie pasowały. Czyli w ten sposób wyrównuje deformacje wywołane seeingiem. Niestety, ta metoda nie jest w stanie nic zrobić z tym, że w danym pikselu obrazu nałożył się sygnał od kilku sąsiednich pikseli, zdeformowanych przez seeing. To rozmycie na poziomie klatki jest już nieodwracalne. Można się go pozbyć jedynie podczas akwizycji za pomocą deformowalnego lustra.

 

Tak na prawdę taki "prawilny" detektor czoła fali to w sumie prosta rzecz - zwykła matryca CMOS z siatką mikrosoczewek: https://en.wikipedia.org/wiki/Shack–Hartmann_wavefront_sensor

Można taki kupić za jakieś 17k zł :) https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=5287

Problemem jest deformowalne lustro...

Link to comment
Share on other sites

  • 0
9 minut temu, twegier napisał:

Jesliby te układy potraktować analogicznie (co niekoniecznie jest właściwe), to musiałbys mieć zmotoryzowany fokuser i zrobić stos obrazów po osi Z (czyli te przed, w i za ogniskiem).

Takie podejście w astro nie ma sensu. U nas cały kosmos jest w tej samej "odległości". Cały kadr jest idealnie ostry (jak trafimy z ostrością) i nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi. W mikroskopii obserwowany obiekt ma głębię, jego część jest ostra w jednym ustawieniu focusera, a inna część jest ostra w innym. Składając takie zdjęcia z różną ostrością możemy zrekonstruować obraz, jak gdyby cały obiekt był ostry. W astronomii mamy taki obraz już na starcie, nie musimy robić nic :) 

Link to comment
Share on other sites

  • 0

Robi się film 3-10 tys klatek, bez kompresji. Programy zajmują się resztą, czyli składają ostre fragmenty pojedynczej klatki w stosy itd.. Popatrz na wątki o planetach.

Co do pomysłu - rzadko w polu widzenia jest gwiazda obok planety, ale np. cień księżyca na Jowiszu pomaga w ostrzeniu itp. Falowanie obrazu dokucza właśnie przy planetach, skali obrazu liczonej w ułamku sekundy łuku na pixel. AS wygląda np. tak

Image2.jpg

Link to comment
Share on other sites

  • 0
6 minut temu, MateuszW napisał:

Takie podejście w astro nie ma sensu. U nas cały kosmos jest w tej samej "odległości". Cały kadr jest idealnie ostry (jak trafimy z ostrością) i nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi. W mikroskopii obserwowany obiekt ma głębię, jego część jest ostra w jednym ustawieniu focusera, a inna część jest ostra w innym. Składając takie zdjęcia z różną ostrością możemy zrekonstruować obraz, jak gdyby cały obiekt był ostry. W astronomii mamy taki obraz już na starcie, nie musimy robić nic :) 

Tu oczywiście masz rację. W mikroskopii głównym zadaniem dekonwolucji jest przyporządkowanie sygnału do odpowiednich płaszczyzn w osi Z "grubego" obiektu. Niebo jest płaskie, więc tego aspektu tu brak. Być może jednak analiza krążków dyfrakcyjnych, których zaburzenia są spowodowane aberacjami sferycznymi optyki i stanem atmosfery, byłaby pomocna w rekonstrukcji poprawnego obrazu. Tego nie wiem, bo nigdy się tym jeszcze nie zajmowałem...

Link to comment
Share on other sites

  • 0

ciekawy temat :)

2 minuty temu, MateuszW napisał:

nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi.

po rozogniskowaniu widać jaki masz kształt lustra wtórnego i pająka i widać jak przesuwają się bąble seeingu, czyli na pewno uzyskujemy jakieś dodatkowe informacje wiążące efekty seeingu z określnym miejscem na powierzchni apertury.

ale czy to jest użyteczne przy odzyskiwaniu niezniekształconego obrazu to nie mam pojęcia!

 

20 minut temu, atnerun napisał:

@twegierto faktycznie problem bo trzeba by zrobić taki stos w ułamek sekundy żeby uchwycić przekrój stanu atmosfery

jakby ktoś chciał jednak zrobić z-stack łapiący w jednej chwili stan seeingu to prosze bardzo - taką możliwość miały aparaty lytro.

może nawet pójść na skróty - zamiast z lightfielda obliczać poszczególne obrazy stacka z ktorych z kolei obliczylibyśmy PSF i z którego dopiero byłby odtwarzany niezniekształcony obraz - po prostu obliczmy prawdziwy obraz prosto z lightfielda unikając utraty danych po drodze :)

Link to comment
Share on other sites

  • 0
8 minut temu, twegier napisał:

W mikroskopii głównym zadaniem dekonwolucji jest przyporządkowanie sygnału do odpowiednich płaszczyzn w osi Z "grubego" obiektu

obawiam się, że nie rozumiesz pojęcia dekonwolucja https://pl.wikipedia.org/wiki/Dekonwolucja

to po prostu metoda usuwania szumu, który jest wpleciony w użyteczny sygnał

 

pozdrawiam

Link to comment
Share on other sites

  • 0
8 minut temu, szuu napisał:

widać jak przesuwają się bąble seeingu, czyli na pewno uzyskujemy jakieś dodatkowe informacje wiążące efekty seeingu z określnym miejscem na powierzchni apertury.

ale czy to jest użyteczne przy odzyskiwaniu niezniekształconego obrazu to nie mam pojęcia!

Teraz jak jeszcze raz o tym myślę to chyba nawet informacja o tym jakie zniekształcenia w obrazie daje atmosfera mało da skoro manipulujemy klatką gdzie już się piksele pozlewały ze sobą. Jedynie jest szansa na skorygowanie np. rozciągnięcia fragmentu obrazu.  

Link to comment
Share on other sites

  • 0
3 minuty temu, ZbyT napisał:

obawiam się, że nie rozumiesz pojęcia dekonwolucja https://pl.wikipedia.org/wiki/Dekonwolucja

to po prostu metoda usuwania szumu, który jest wpleciony w użyteczny sygnał

 

pozdrawiam

Ja pisałem o dekonwolucji 3D w mikroskopii. Obrazowany obiekt w płaszczyznie ogniska jest "zanieczyszczony" sygnałami pochodzącymi z innych płaszczyzn, z powodu dyfrakcji. Zadaniem mikroskopowej dekonwolucji jest przyporzadkowanie tego sygnału z powrotem gdzie jego miejsce. Tu nie chodzi głównie o losowy szum. Możliwe jednak, że w różnych dziedzinach nauki dekonwolucja ma różne znaczenie. 

Link to comment
Share on other sites

  • 0
8 minut temu, atnerun napisał:

skoro manipulujemy klatką gdzie już się piksele pozlewały ze sobą. Jedynie jest szansa na skorygowanie np. rozciągnięcia fragmentu obrazu.  

Dokładnie to napisałem wcześniej :) Właśnie o to chodzi, że mamy już zlany obraz i nie odzyskamy informacji pierwotnej. A rozciąganie fragmentów obrazu można zrealizować na podstawie jedynie "zwykłych klatek" i to się robi powszechnie np w Autostakkercie. Program znajduje przesunięcia fragmentów planety względem referencji i deformuje klatki tak, aby jak najlepiej pasowały.

Link to comment
Share on other sites

  • 0

Pokażę w praktyce, o co chodzi z tymi zlanymi klatkami. Jeśli światło po drodze do teleskopu przeszło przez komórki turbulentne znacznie mniejsze od apertury, to faktycznie ulegnie wielokrotnej dyspersji (która sama z siebie rozmywa) i refrakcji (która pomiesza światło z różnych kierunków). To chyba nie jest odwracalne nawet przez optykę adaptatywną (a na pewno nie przez program stackujący).

 

To jak pierwsza część tego wideo (surowe prosto z teleskopu, Słońce w Hα, apertura 90 mm):

 

868eb643-dacb-4e6c-8dd9-da0b33b24d5d.gif

 

Natomiast jeśli komórek jest niewiele i są duże, jest szansa na samą nieznaczną refrakcję (druga część wideo), co jedynie zniekształca/wygina obraz - to łatwo skompensować (mierzymy położenie wybranych punktów na kilkuset obrazach, średnia każdego punktu odpowiada prawdziwej lokacji).

  • Like 1
Link to comment
Share on other sites

  • 0
9 minut temu, WielkiAtraktor napisał:

To chyba nie jest odwracalne nawet przez optykę adaptatywną (a na pewno nie przez program stackujący).

To chyba jest odwracalne optyką adaptatywną, na ile ją rozumiem :) Jednak stosuje się to dla niezwykle małych pól widzenia - rzędu sekund łuku. Chyba najwięcej ma VLT i wynosi to 30", jak dobrze pamiętam. Myślę, że chodzi tu o to, że ten sygnał, który rekonstruujemy, pochodzi tutaj z mniej więcej jednego kierunku, a promienie biegnące do różnych fragmentów lustra przechodzą przez różne komórki powietrza - i to można skorygować wyginając lustro tak, żeby wszystkie te odchylone promienie trafiły w ten jeden, ustalony "punkt" obrazu. Natomiast, gdy mamy wiele "punktów" obrazu, czyli obiekt rozciągły, o dużej wielkości kątowej, to mamy promienie lecące z różnych kierunków, padające na różne fragmenty lustra i w efekcie robi się niemożliwa do opanowania sieczka - jeśli wygniemy jakiś fragment lustra tak, żeby odchylić w dobrą stronę promień pochodzący od danego fragmentu obiektu, to już inny promień, od innego fragmentu zostanie odchylony w złą stronę.

Ogólnie wydaje mi się, że wykonanie optyką adaptatywną korekcji "wielopunktowej" jest niemożliwe, to działa poprawnie tylko z jednym punktem obrazu. Są tutaj jakieś postępy, bo właśnie VLT z tego co pamiętam rozszerzyło kilka lat temu "korygowalny" obszar, więc pewnie da się tutaj coś ugrać, ale na pełną korekcję dużych połaci obrazu raczej bym nie liczył.

Link to comment
Share on other sites

  • 0

Racja, faktycznie jakoś rekonstruują. Wyczytałem, że instrumenty użyte do tego zdjęcia Neptuna (GRAAL i GALACSI) używają 4 sztucznych gwiazd, rzucanych na różne wysokości w atmosferze.

35 minut temu, MateuszW napisał:

Natomiast, gdy mamy wiele "punktów" obrazu, czyli obiekt rozciągły, o dużej wielkości kątowej, to mamy promienie lecące z różnych kierunków, padające na różne fragmenty lustra i w efekcie robi się niemożliwa do opanowania sieczka

A jednak duże teleskopy słoneczne (np. BBSO w Big Bear) też mają optykę adaptatywną, i to działającą dla dużych pól widzenia (do tego bez sztucznej gwiazdy). Ciekawe slajdy: Solar Adaptive Optics @ DST and BBSO

 

aktualizacja:

 

Znalazłem kolejny opis: Adaptive Optics System for 1.6 Meter Solar Telescope in Big...

 

Cytat

The telescope aperture is sampled by a lenslet array, which in turn forms an array of images of the object (e.g. granulation) to be imaged by a camera with kHz frame rate. Cross-correlations between subaperture-images and a selected reference subaperture-image are computed via a very fast computer-Digital Signal Processor (DSP). Local wavefront tilts are computed by locating the maximum or centroid of the cross-correlations (CC) to subpixel precision. Drive signals for the Deformable Mirror (DM) are derived from the wavefront sensor data using a modal wavefront reconstruction algorithm (e.g., Madec 1999). With sufficiently good seeing, the WFS is capable of using solar granulation, or other time varying, low contrast, spatially extended targets to measure the wavefront aberrations.

 

Ciekawe, czyli mając wiele obrazków (małej rozdzielczości) z subapertur (są pokazane na drugim slajdzie z pierwszego linku) wystarczy policzyć ich wzajemne przesunięcia i na tej podstawie giąć lusterko. Z zastrzeżeniem, że dla fali ~0,5 µm działa to tylko przy przyzwoitym seeingu (dla podczerwieni 1,6 µm jest łatwiej).

Edited by WielkiAtraktor
  • Like 1
Link to comment
Share on other sites

  • 0

Ja jestem świeżak, ale wydaje mi się, że przy rozogniskowanym teleskopie będziesz miał równie niewyraźny obraz atmosfery. Natomiast to, co faktycznie zobaczysz, to tylko powietrze kotłujące się w twojej rozgrzanej tubie. Dlatego aby móc powiedzieć coś o strukturze atmosfery, musiałbyś ustawić za tą atmosferą kartkę w kratkę i na nią ostrzyć. Albo zamiast tej kartki znaleźć jakiś znany obiekt. Przykładowo Mars. Na podstawie dokładnej mapy Marsa mógłbyś określić, jak atmosfera zakrzywia obraz. Ale wtedy po co robić zdjęcia Marsa? 
Zdaje mi się, że przy aktywnej optyce obserwuje się zagięcia promieni laserowych. 

Link to comment
Share on other sites

  • 0

Przypominam coś, na co już @szuu wiele lat temu zwrócił mi uwagę:
Fala świetlna ma amplitudę i fazę. Sensory jakimi dysponujemy mierzą tylko amplitudę. (czy tam wartość bezwzględną? Moduł? No coś takiego)

Gdy światło przechodzi przez atmosferę, degradowana jest informacja o fazie.

W zasadzie więc dysponując informacją z kamery nie sposób odtworzyć oryginalnej informacji.

Pomiar przesunięcia fazy można zrobić zdaje się sensorem Shacka-Hartmanna (ogólnie wavefront sensor - detektor czoła fali).

Natomiast korekcja przesunięcia fazowego - to już potrafi tylko deformowalne lustro.*

Czasy korekcji o których mówimy, jak słusznie zauważono, są poniżej 50ms, a obszar, jaki w ogóle można "od biedy" skorygować to kilka, kilkanaście sekund łuku (bo np. przesunięcie fazy jest powyżej 2*pi i nie wiadomo, co gdzie miało być :D

Tutaj jest doskonała lektura w temacie:

http://www.ctio.noao.edu/~atokovin/tutorial/intro.html

 

* pierwsze trzy mody to przesunięcie X, Y i Z które można korygować przesuwaniem matrycy w tych osiach, więc może i bez deformowalnego lustra coś da się ugrać. 

Edited by Behlur_Olderys
Link to comment
Share on other sites

  • 0
58 minut temu, Behlur_Olderys napisał:

Przypominam coś, na co już @szuu wiele lat temu zwrócił mi uwagę:
Fala świetlna ma amplitudę i fazę. Sensory jakimi dysponujemy mierzą tylko amplitudę. (czy tam wartość bezwzględną? Moduł? No coś takiego)

Gdy światło przechodzi przez atmosferę, degradowana jest informacja o fazie.

W zasadzie więc dysponując informacją z kamery nie sposób odtworzyć oryginalnej informacji.

Pomiar przesunięcia fazy można zrobić zdaje się sensorem Shacka-Hartmanna (ogólnie wavefront sensor - detektor czoła fali).

Natomiast korekcja przesunięcia fazowego - to już potrafi tylko deformowalne lustro.*

Czasy korekcji o których mówimy, jak słusznie zauważono, są poniżej 50ms, a obszar, jaki w ogóle można "od biedy" skorygować to kilka, kilkanaście sekund łuku (bo np. przesunięcie fazy jest powyżej 2*pi i nie wiadomo, co gdzie miało być :D

Tutaj jest doskonała lektura w temacie:

http://www.ctio.noao.edu/~atokovin/tutorial/intro.html

 

* pierwsze trzy mody to przesunięcie X, Y i Z które można korygować przesuwaniem matrycy w tych osiach, więc może i bez deformowalnego lustra coś da się ugrać. 

Gdzieś w mojej starszawej głowie kołacze coś na temat fazy frontu falowego obrazowanej przez transformatę Fouriera, której w optyce dokonuje zwykła soczewka. Co do korekty przesunięcia to dawno dawno temu rozważano materiały o nieliniowym współczynniku załamania zmienianym pod wpływem np. silnego strumienia światła np. laserowego. Można sobie wyobrazić taki element optyczny bombardowany punktowo silnymi impulsami w celu zmiany współczynnika załamania w czasie rzeczywistym w celu korekcji obrazu. Ale raczej nie w amatorskim sprzęcie.

W ramach pracy magisterskiej robiłem filtry holograficzne do "zdejmowania" zniekształcenia analogowego obrazu transmitowanego przez światłowód wielomodowy, gdzie właśnie faza się rozjeżdżała, bo poszczególne mody miały różną drogę optyczną. Tyle, że to zniekształcenie było statyczne, a atmosfera raczej statyczna nie bywa ;-).  

Edited by apolkowski
Link to comment
Share on other sites

  • 0
Godzinę temu, dobrychemik napisał:

Bartek, gdyby dało się coś ugrać mikroruchami matrycy to byłoby świetnie. Takie coś spokojnie by działało nawet w sprzęcie amatorskim - koszt nie powinien być porażający. Pytanie zatem dlaczego tego nikt nie wcielił w życie? 

 

Wcielił, wcielił :)
https://diffractionlimited.com/product/ao-x/

Tylko że rezultat jest mizerny, bo przecież gwiazdka na środku matrycy będzie się ruszała w lewo, a na krawędzi - np. w dół.

To bardziej taki bajer do likwidacji drgań montażu.

 

Druga sprawa: gdy nagrywasz filmik i alignujesz do jednej gwiazdy - to też właśnie robisz korekcję tip-tilt.

 

A czy amatorsko dało by radę przeskoczyć rozwiązanie sbiga? Pewnie tak. Ale dobre podejście wymagałoby

- beamsplittera w środku toru optycznego

- piezoelektrycznej platformy do matrycy

- superszybkiego detektora przesunięcia (np quadruple avalanche photodiode)

- trochę softu, trochę toczenia, trochę taśmy klejącej, trochę drukarki 3d :)

No i efekt miałby - moim zdaniem - ograniczoną używalność, bo tylko do naprawdę dużej skali.

 

BTW:

zestawy w Thorlabs już od kilkunastu tysięcy euro :)
https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=3208

 

I takie lusterka:

https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=5056

 

PS
A tutaj jeszcze: o czym my mówimy, a o czym jeszcze można mówić:
https://www.eso.org/sci/facilities/develop/ao/ao_modes/.html

 

Amatorscy astronomowie mają sporo do nadgonienia :P

 

Edited by Behlur_Olderys
  • Like 1
Link to comment
Share on other sites

  • 0

Mamy tylu zdolnych ludzi zajmujących się modyfikacjami sprzętu i tabuny informatyków/programistów. Czy nie dałoby się stworzyć polskiego projektu i realizacji amatorskiej optyki adaptacyjnej? Mikromechanika tanieje, moc obliczeniowa laptopów rośnie, zdolni ludzie tracą czas na robienie rozmytych seeingiem fotek amelikana i M31... Ludzie, zróbcie coś poważniejszego, na czym przy okazji będziecie mogli zarobić.

Link to comment
Share on other sites

  • 0
2 minuty temu, dobrychemik napisał:

Mamy tylu zdolnych ludzi zajmujących się modyfikacjami sprzętu i tabuny informatyków/programistów. Czy nie dałoby się stworzyć polskiego projektu i realizacji amatorskiej optyki adaptacyjnej? Mikromechanika tanieje, moc obliczeniowa laptopów rośnie, zdolni ludzie tracą czas na robienie rozmytych seeingiem fotek amelikana i M31... Ludzie, zróbcie coś poważniejszego, na czym przy okazji będziecie mogli zarobić.

Ile to już razy rozmyślałem nad tym :) Niestety, gotowe deformowalne lustra oraz detektory czoła fali są wciąż tak samo strasznie drogie... Jeśli ktoś potrafi zbudować takie lustro z pojedynczych siłowników za powiedzmy 10k, to zapraszam na PW :) Jedyne co wydaje się obecnie realne cenowo do stworzenia to rozwiązanie analogiczne do AO SBIGa - to urządzenie pozwala na szybkie korekty położenia całego kadru, więc jest to właściwie taki szybki guiding, który jednak nadąża za seeingiem - pozwala to na usunięcie głównego składnika seeingu oraz idealne guidowanie montażu - w efekcie ostrość zauważalnie rośnie. Niestety to tylko namiastka AO.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Answer this question...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

  • Recently Browsing   0 members

    • No registered users viewing this page.
  • Our picks

    • Migracja Astropolis na nowy serwer - opinie
      Kilka dni temu mogliście przeczytać komunikat o wyłączeniu forum na dobę, co miało związek z migracją na nowy serwer. Tym razem nie przenosiłem Astropolis na większy i szybszy serwer - celem była redukcja dosyć wysokich kosztów (ok 17 tys rocznie za dedykowany serwer z administracją). Biorąc pod uwagę fakt, że płacę z własnej kieszeni, a forum jest organizacją w 100% non profit (nie przynosi żadnego dochodu), nie znalazłem w sobie uzasadnienia na dalsze akceptowanie tych kosztów.
        • Thanks
        • Like
      • 60 replies
    • Droga Mleczna w dwóch gigapikselach
      Zdjęcie jest mozaiką 110 kadrów, każdy po 4 minuty ekspozycji na ISO 400. Wykorzystałem dwa teleskopy Takahashi Epsilon 130D i dwa aparaty Nikon D810A zamocowane na montażu Losmandy G11 wynajętym na miejscu. Teleskopy były ustawione względem siebie pod lekkim kątem, aby umożliwić fotografowanie dwóch fragmentów mozaiki za jednym razem.
        • Love
        • Thanks
        • Like
      • 48 replies
    • Przelot ISS z ogniskowej 2350 mm
      Cześć, po kilku podejściach w końcu udało mi się odpowiednio przygotować cały sprzęt i nadążyć za ISS bez stracenia jej ani razu z pola widzenia. Wykorzystałem do tego montaż Rainbow RST-135, który posiada sprzętową możliwość śledzenia satelitów.
      Celestron Edge 9,25" + ZWO ASI183MM. Czas ekspozycji 6 ms na klatkę, końcowy film składa się z grup 40 klatek stackowanych, wyostrzanych i powiększonych 250%.
      W przyszłości chciałbym wrócić do tematu z kamerką ASI174MM, która z barlowem 2x da mi podobną skalę, ale 5-6 razy większą liczbę klatek na sekundę.
      Poniżej film z przelotu, na dole najlepsza klatka.
        • Love
        • Thanks
        • Like
      • 73 replies
    • Big Bang remnant - Ursa Major Arc or UMa Arc
      Tytuł nieco przekorny bo nie chodzi tu oczywiście o Wielki Wybuch ale ... zacznijmy od początku.
       
      W roku 1997 Peter McCullough używając eksperymentalnej kamery nagrał w paśmie Ha długą na 2 stopnie prostą linie przecinajacą niebo.
       
      Peter McCullough na konferencji pokazał fotografię Robertowi Benjamin i obaj byli pod wrażeniem - padło nawet stwierdzenie: “In astronomy, you never see perfectly straight lines in the sky,”
        • Love
        • Thanks
        • Like
      • 17 replies
    • Jeśli coś jest głupie, ale działa, to nie jest głupie - o nietypowych rozwiązaniach sprzętowych
      Sformułowanie, które można znaleźć w internetach jako jedno z "praw Murphy'ego" przyszło mi na myśl, gdy kolejny raz przeglądałem zdjęcia na telefonie z ostatniego zlotu, mając z tyłu głowy najgłośniejszy marsjański temat na forum. Do rzeczy - jakie macie (bardzo) nietypowe patenty na usprawnienie sprzętu astronomicznego bądź jakieś kreatywne improwizacje w razie awarii czy niezabrania jakiegoś elementu sprzętu  Obstawiam, że @HAMAL mógłby samodzielnie wypełnić treścią taki wątek.
        • Haha
        • Like
      • 43 replies
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.