Skocz do zawartości

ZbyT

Społeczność Astropolis
  • Postów

    5 323
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    3

Odpowiedzi opublikowane przez ZbyT

  1. 2 godziny temu, Wiesiek1952 napisał:

    - odstawmy na chwilę sprawę refrakcji - to ona jedna, jedyna ma wpływ więc wyłączmy ją na chwilę. Sfera niebieska - jak sama nazwa wskazuje jest sferą - wnętrzem dużej piłki ?. Jeśli teleskop ma z guidingu "lock" do jakiejś gwiazdy to jego oś optyczna jest względem tej gwiazdy nieruchoma. Równie dobrze można by włożyć patyk (obrazujący oś optyczną) wewnątrz piłki i zablokować go względem tejże piłki. Drugi patyk (teleskop) jest zablokowany względem pierwszego - jakby się ta sfera (piłka) nie obracała cały układ (oba patyki) są nieruchome wobec siebie i względem piłki. Jeśli jest jakikolwiek ruch tego "zablokowanego" patyka to drugi patyk go dokładnie powtarza bo są względem siebie nieruchome. Tu nic nie chce być inaczej. układ się nie rozjedzie i po 100 latach.

     

    bardzo obrazowo ale niestety jeszcze bardziej błędnie

    nie ma żadnej blokady na obiekt. Gajding cały czas śledzi obiekt i wprowadza poprawki w RA i DEC. Na szczęście montaż działa tak, że taka korekta w osi DEC działa jednakowo w każdym zakątku sfery niebieskiej czyli zwiększenie współrzędnych montażu w DEC jest zawsze takie samo, niezależnie od tego gdzie patrzy teleskop. Czy będzie skierowany na wschód, zachód czy północ to zwiększenie deklinacji choćby o 1" łuku zawsze zwiększy deklinację o 1" łuku. Oznacza to tylko jedno. Jeśli skorygujemy położenie teleskopu A w deklinacji o +1" to teleskop B również zwiększy swoją deklinację o +1" nawet jeśli jest skierowany z przeciwną stronę nieba! W ekstremalnym przypadku gdyby oba teleskopy były początkowo ustawione na deklinację 0 (czyli na równik) to po wielu takich krokach ich deklinacja powinna rosnąć do 90* czyli powinny zostać skierowane w tym samym kierunku tzn. równolegle. To prowadzi do sprzeczności bo ustawiliśmy je na sztywno w przeciwnych kierunkach (antyrównolegle). Wynika stąd jasno, że aby oba teleskopy śledziły swoje obiekty po przeciwnych stronach nieba muszą być korygowane w przeciwną stronę w deklinacji, a nie mogą bo są  połączone na sztywno ... i tyle w temacie

     

    co do montaży ASA to w zasadzie działają identycznie jak tradycyjne, poza tym, że zamiast dodatkowej lunetki gajdującej mają precyzyjne enkodery śledzące położenie teleskopu. Gdy znane są odchylenia osi RA montażu od bieguna można obliczyć odpowiednie poprawki by obiekt nie dryfował w kadrze. W tradycyjnych montażach bez enkoderów sterownik montażu zna położenie teleskopu dzięki lunetce gajdującej (a właściwie odchylenie od prawidłowego). Oczywiście oprogramowanie sterownika działa tam inaczej ale to wynika z różnic sprzętu czy założeń programistycznych

     

    pozdrawiam

  2. to dodaję moją odpowiedź ze statusów:

     

    to naprawdę nic trudnego

     

    przyjrzyjmy się zaproponowanemu wcześniej przykładowi gdy ustawiliśmy montaż na biegun prawidłowo w azymucie ale nieco wyżej w wysokości. Wówczas koła równika niebieskiego i równika montażu nie pokrywają się ale przecinają na wschodzie i zachodzie. W miejscu lokalnego południka równik niebieski znajduje się nad równikiem montażu

     

    obserwujemy gwiazdę na równiku, na początek na wschodzie. Ponieważ gwiazda porusza się po równiku niebieskim to wznosi się ponad równik montażu w osi DEC (dryfuje i stąd ta metoda ustawiania na biegun nosi nazwę metody dryfu). Gdy dojdzie do lokalnego południka dryf zatrzyma się aby po jego minięciu rozpocząć coraz szybszy dryf w przeciwną stronę. Najszybszy dryf będzie oczywiście w miejscach przecięcia obu kół wielkich

     

    teraz gdybyśmy guidowali w pobliżu południka gdzie brak dryfu w DEC, a fotografowali na wschodzie lub zachodzie gdzie dryf w DEC jest największy to rzecz jasna zdjęcia będą poruszone. Z tego względu guidujemy zawsze w fotografowanym rejonie

     

    jak widać to banalny problem, na którego rozwiązanie wystarczy samodzielnie poświęcić kilka minut

     

    pozdrawiam

    • Lubię 1
  3. 3 minuty temu, Miesilmannimea napisał:

    Jeśli z laptopa to nie lepiej AstroEQ? Koszt sterownika ze stówkę... jeśli "koszty robią różnicę"...

     

    sam AstroEQ + silniki + wsporniki + koła zębate + paski + kable to jakieś 500 zł. Kilka miesięcy temu zmotoryzowałem koledze w ten sposób EXOS-2 i tyle wyszło po kosztach zakupu elementów. Pewnie da się nieco taniej ale na pewno nie za "stówkę". Za to spokojnie mogę polecić AstroEQ. Po prostu działa i tyle w temacie. Kolega ma OneStep do EQ3-2 ale po pół roku walki nie udało mu się go zmusić do współpracy. Nie wiem w czym problem bo nie zagłębiałem się w ten temat

     

    pozdrawiam

    • Lubię 1
  4. 34 minuty temu, artystasiak napisał:

    Ale… odnoszę czasami, że obecnie widać dwie czapy polarne i ostatnio tak się zastanawiałem nad tym, kiedy widzimy czapę północną a kiedy południową? Czy to ma jakieś znaczenie? Czy zawsze widzimy czapę północną?

    W swoich szkicach i opisach z 2012 roku widzę czapę północną. W refraktorze z nasadką kątową obraz jest obrócony prawo lewo więc czapa jest widoczna u góry.

     

    oś obrotu Marsa tak samo jak oś obrotu Ziemi jest pochylona względem orbity więc to, którą czapę widzimy zależy od miejsca na orbicie Marsa, w którym aktualnie się on znajduje. Czasem to czapa północna, a czasem południowa. Czasem widać obie

     

    pozdrawiam

  5. Godzinę temu, mkowalik napisał:

     

    Trafiłeś w 10. Przecież takie coś grozi pożarem jeśli elektronika telefonu nie zadba, żeby bateria nie została przeładowana i nadzór 24h/dobe tu może zbytnio nie pomóc patrząc na to jak gwałtownie potrafią się palić baterie.

     

    akurat zapłonu baterii raczej bym się nie obawiał. Każdy telefon (i nie tylko telefon) ma odpowiednie zabezpieczenia przed przeładowaniem baterii. To wynika ze specyficznego sposobu ładowania baterii li-ion i podobnych. Na początku są ładowane stałym prądem, a gdy osiągną max napięcie to prąd ładowania jest zmniejszany i ładujemy stałym napięciem

     

    urządzenia stale podłączone do zasilania z sieci, a posiadające wbudowaną baterię potrzebują odpowiednio zaprojektowanego zasilacza, który będzie ładował baterię dopiero po jej rozładowaniu, a nie cały czas. Telefony takiego zasilacza nie mają. Po naładowaniu są odłączane od ładowarki przez użytkownika

     

    w tym konkretnym przypadku to nie pożar będzie problemem ale skrócenie trwałości baterii, co w przypadku starszych telefonów nie jest chyba niczym strasznym

     

    pozdrawiam

  6. 6 minut temu, kjacek napisał:

    Z mojego porównania, ale pamiętajmy o braku wiedzy o sprzęcie wynika, że jest on nieco słabszy od: PC HP ELITEDESK 800 G1 USDT 240SSD I5 8GB Seria procesora Intel Core i5

    Procesor Intel Core i5 4570s - 3,6GHz Turbo. 

    Ale może ja się mylę... 

     

    tak, w tym Celeronie  mamy tylko 2 rdzenie ale to wystarczy do tego by mieć zdalny podgląd z kamery ... i nawet więcej

     

    pozdrawiam

  7. 28 minut temu, kjacek napisał:

    Kupiłem HP EliteDesk 800 G1. Z takim opisem:

    KOMPUTER PC HP ELITEDESK 800 G1 USDT 240SSD I5 8GB Seria procesora Intel Core i5
    Procesor Intel Core i5 4570s - 3,6GHz Turbo

     

    Może nie najnowszy, ale skoro słabsze procki dają radę, to pewnie ten też da :grin:

    Bardzo dziękuję wszystkim za pomoc. 

     

    zakupy robiłeś w muzeum techniki? :)

    ma przynajmniej USB3.0?

     

    pozdrawiam

  8. 38 minut temu, ko20 napisał:

    Jasne. Ale kjacek chce się logować przez zdalny pulpit i cały czas tam siedzieć, używać, patrzeć co kamera pokazuje. Do samej akwizycji pełna zgoda, bo przecież malina to również robi i daje rade. Do jego zastosowania wydaje mi się że mocniejszy procesor byłby wskazany.

     

    absolutnie nie byłby wskazany mocniejszy procesor

    do takich zastosowań jak zdalny podgląd z kamery spokojnie wystarczy nawet najsłabszy

    niedawno sam używałem mniPC z J3450 i 4GB RAM do zdalnego podglądu obrazu z kamery. Co prawda u mnie był to podgląd przez NDI ale to właściwie bez znaczenia. Procesor nawet w porywach nie przekraczał 20% obciążenia ... co może być problemem, bo w mroźne noce może za słabo się grzać

     

    takie komputerki potrafią znacznie więcej bo jeszcze obsługują drugą kamerkę, sterują montażem, guidingiem, robią plate solve itd. Podczas samego wyświetlania (i zapisywania też) procesor nie ma wiele roboty. Pakowanie się w i5 czy i7 jest zwykłą stratą pieniędzy, a przy próbach użycia w terenie zabije akumulatory poborem prądu

     

    pozdrawiam

    • Lubię 1
    • Kocham 1
  9. Podczas ostatniego zaćmienie słońca robiłem transmisję live używając vMixa. Niestety tuż przed zakończeniem transmisji coś się posypało i zniknęło mi kilka opcji programu, a w tym zakończenie zapisu video. Musiałem wymusić zamknięcie programu ale przez to zapis nie został poprawnie zakończony i nie mogę go odtworzyć. Czy zna ktoś jakiś program, który potrafiłby naprawić uszkodzony plik? Chciałem zrobić kilka zdjęć z zaćmienia ale nie mam żadnego innego materiału. Przy okazji znacie jakiś prosty program do pocięcia filmu na fragmenty? To drugie pytanie mniej istotne bo w ostateczności użyję Davinci Resolve co będzie jak użycie armaty na komary ale wykonalne

     

    pozdrawiam

  10. 10 godzin temu, Ajot napisał:

    Czy teraz okular będzie rosił się od wewnątrz przy spadku temperatur?

     

    zapewne masz jakieś okulary nie wypełnione argonem i zapewne nigdy żaden nie zaparował od wewnątrz

    jeśli obawiasz się zaparowania to rozkręć okular jeszcze raz na mrozie i ponownie skręć. W ten sposób zamkniesz wewnątrz suche powietrze więc nie będzie miało co kondensować w środku

     

    pozdrawiam

    • Lubię 1
  11. jak sama nazwa wskazuje ND (neutral density) powinna przepuszczać całe pasmo widzialne w jednakowym stopniu. W rzeczywistości folia lekko zabarwia obraz. Słonce ma zimny odcień

    5,0 to stopień tłumienia 105,0  czyli dokładnie 100 000 razy. Daje to przepuszczalność 0,001%

    folia przepuszcza sporo podczerwieni więc trzeba uważać w trakcie obserwacji wizualnych przez teleskop aby nie uszkodzić wzroku. UV jest mocno tłumiony przez szkło więc sama optyka (obiektyw+okular) ładnie go wycina i ta niewielka ilość przepuszczana przez folię jest raczej bezpieczna. Na wszelki wypadek lepiej nie wpatrywać się długo w okular lub stosować dodatkowe filtry IR/UV

     

    pozdrawiam

  12. 6 godzin temu, Behlur_Olderys napisał:

    Dekonwolucja ma na celu odwrócić splot oryginalnego obrazu f z dowolną zakłócającą funkcją g.

    (...)

    W przypadku astrofoto g jest najczęściej złożeniem wad optyki, funkcji Airego i losowych fluktuacji od seeingu

     

    dokładnie o tym pisałem od samego początku

    jeśli zrozumiałeś to inaczej to wskaż, w którym miejscu napisałem coś przeciwnego

    to ty uparcie twierdzisz, że funkcją zakłócającą mogą być dowolne zakłócenia w tym losowe (seeing) ale nie może to być szum (w końcu wielkość losowa). Nawet twierdziłeś, że szum po dekonwolucji nie może być mniejszy, a wręcz powinien być większy

     

    zrekonstruowanie zakłócającego zdjęcie seeingu na podstawie mozaiki wielu posklejanych z sobą fragmentów robionych w różnych momentach i pochodzących z różnych fragmentów matrycy jest w/g ciebie jak najbardziej możliwe ale już rekonstrukcja charakteru szumu (po zestackowaniu niezależnego od momentu zrobienia klatki czy położenia fragmentu na matrycy) jest niemożliwe. Tymczasem mając setki tysięcy pikseli (nawet miliony) mamy więcej niż trzeba by z ogromną dokładnością (w statystyce matematycznej mówimy: poziomem ufności) zrekonstruować tę funkcję zakłócającą. W widmie Fouriera będą to charakterystyczne częstotliwości

     

    4 godziny temu, Krzysztof z Bagien napisał:

    Wydaje mi się, że nie o trudność tu chodzi - ja się może nie znam, ale żarty chyba powinny być śmieszne ;)

     

    wiem, wiem

    pewnie uśmiałbyś się widząc gościa, który przewrócił się po nastąpieniu na skórkę od banana ... a gdyby jeszcze złamał nogę to dopiero miałbyś ubaw :)

    mój żarcik był na znacznie niższym poziomie

     

    pozdrawiam

  13. chyba mój żarcik był za trudny ;)

    pokazałeś, że dekonwolucja nie usuwa czegoś czego na zdjęciu nie ma

    idąc tym tropem myślenia (właściwie braku myślenia)  można "udowodnić" dowolną hipotezę. Bez trudu udowodnię, że izopropanol nie usuwa brudu z czystej soczewki. Oczywiście soczewka będzie czysta bo ją wcześniej wyczyszczę izopropanolem :)

    gumką myszką nie usunę śladu po ołówku z kartki, na której nie ma śladu po ołówku itd.

    jakoś szczególnie sensowne to nie było. Pokazałeś, że dekonwolucja robi "coś" ze zdjęciem nawet jeśli nie ma na nim szumu

     

    pozdrawiam

     

  14. gdy rozstawiałem teleskop zaczęło padać by po chwili całkowicie się rozpogodzić

    nie obserwowałem "na żywo" bo robiłem transmisję live ale przynajmniej mam zdjęcie ekranu komputera z "dodatkami" w postaci odbijającej się w ekranie scenerii biblioteki Instytutu Astronomicznego UWr

     

    pogoda dopisała niemal przez całe zaćmienie. Czasem przechodziły chmurki ale to dodawało tylko kolorytu wydarzeniu

     

    zac_2022_10_25.jpg.e8e7d6091222b529b5d4a5f10880351d.jpg

     

    pozdrawiam

    • Lubię 7
  15. Godzinę temu, ZbyT napisał:

    takie operacje można by robić na surowej klatce ale nie na stacku, gdzie obrazek jest posklejany z tysięcy kawałków z różnych klatek o różnym PSF.

     

    Godzinę temu, ZbyT napisał:

    oczywiście usunięcie szumu uwydatnia detale ukryte wcześniej w szumie. Nikt temu nie przeczy

     

    zaznaczenia ... i nie tylko są moje ;)

     

    to jak to w końcu jest z tą dekonwolucją i falkami? To samo czy jednak coś innego? Bo już się pogubiłem

    jest ten szum spleciony z sygnałem czy nie jest? Da się go "rozplątać" czy nie?

    falki też "rozplątują" PSF czy robią coś innego?

     

    pozdrawiam

  16. 2 minuty temu, Behlur_Olderys napisał:

    In optics and imaging, the term "deconvolution" is specifically used to refer to the process of reversing the optical distortion that takes place in an optical microscope, electron microscope, telescope, or other imaging instrument, thus creating clearer images. It is usually done in the digital domain by a software algorithm, as part of a suite of microscope image processing techniques. Deconvolution is also practical to sharpen images that suffer from fast motion or jiggles during capturing. Early Hubble Space Telescope images were distorted by a flawed mirror and were sharpened by deconvolution.

    The usual method is to assume that the optical path through the instrument is optically perfect, convolved with a point spread function (PSF), that is, a mathematical function that describes the distortion in terms of the pathway a theoretical point source of light (or other waves) takes through the instrument.[3] Usually, such a point source contributes a small area of fuzziness to the final image. If this function can be determined, it is then a matter of computing its inverse or complementary function, and convolving the acquired image with that. The result is the original, undistorted image.

    In practice, finding the true PSF is impossible, and usually an approximation of it is used, theoretically calculated[4] or based on some experimental estimation by using known probes. Real optics may also have different PSFs at different focal and spatial locations, and the PSF may be non-linear. The accuracy of the approximation of the PSF will dictate the final result. Different algorithms can be employed to give better results, at the price of being more computationally intensive. Since the original convolution discards data, some algorithms use additional data acquired at nearby focal points to make up some of the lost information. Regularization in iterative algorithms (as in expectation-maximization algorithms) can be applied to avoid unrealistic solutions.

    When the PSF is unknown, it may be possible to deduce it by systematically trying different possible PSFs and assessing whether the image has improved. This procedure is called blind deconvolution. Blind deconvolution is a well-established image restoration technique in astronomy, where the point nature of the objects photographed exposes the PSF thus making it more feasible. It is also used in fluorescence microscopy for image restoration, and in fluorescence spectral imaging for spectral separation of multiple unknown fluorophores. The most common iterative algorithm for the purpose is the Richardson–Lucy deconvolution algorithm; the Wiener deconvolution (and approximations) are the most common non-iterative algorithms.

     

    Zaznaczenia są moje.

     

    25 minut temu, ZbyT napisał:

    takie operacje można by robić na surowej klatce ale nie na stacku, gdzie obrazek jest posklejany z tysięcy kawałków z różnych klatek o różnym PSF

     

    pozdrawiam

  17. 45 minut temu, lulu napisał:

     

    Nie na tym ma polegać "odkrycie". O tym o czym piszesz wiedzą wszyscy i nikt z tym nie dyskutuje. Ale gdy zaczyna się dyskusja o WIZUALU, sytuacja odwraca się często o 180 stopni, a njutek ląduje na końcu rankingu przydatnych instrumentów... Twierdzę, że dobrej jakości zdjęcia, przewyższające to co udawało mi się uzyskać z instrumentów stojących wyżej w tych rankingach, każe się zastanowić nad tym "odwracaniem".

     

    porównując teleskopy o tej samej aperturze rzeczywiście Newtony plasują się pod koniec stawki ale jeśli rozważamy różne apertury to już należałoby porównywać konkretne modele, a nie systemy. Porównanie fotograficzne Newtona 8" z APO 5" ma się nijak do wizuala wiec ten wątek zupełnie niczego nie rozstrzyga

     

    pozdrawiam

    • Lubię 1
  18. 25 minut temu, Behlur_Olderys napisał:

    Dekonwolucja - używając tej nomenklatury - separuje sygnał użyteczny od PSF, co de facto powoduje efekt "wyostrzenia" rozmazanego zdjęcia. 

    Niestety, stosowanie operatora dekonwolucji na funkcji h, czyli splocie sygnału i PSF obarczonym szumem (czyli epsilonem) powoduje, że jest on w dość brzydki sposób obecny w wyniku dekonwolucji. Czy jest wzmacniany - trudno mi powiedzieć. Na pewno nie jest osłabiany :)

     

     

    to jest twoja twórczość radosna, która nie ma nic wspólnego z rzeczywistością

     

    takie operacje można by robić na surowej klatce ale nie na stacku, gdzie obrazek jest posklejany z tysięcy kawałków z różnych klatek o różnym PSF. Tu mamy pięknie uśredniony nie tylko sygnał ale też szum, a na podstawie tysięcy pikseli łatwo można zrekonstruować charakter tego szumu. Tym właśnie zajmuje się badanie hipotez statystycznych. Później to już

     

    Cytat

    Zazwyczaj, im niższy stosunek sygnału do zakłóceń, tym gorsza będzie dekonwolucja. Dlatego też odwrotne filtrowanie sygnału nie jest najlepszym rozwiązaniem. Jeżeli jednak znamy mniej więcej rodzaj szumu (na przykład biały szum), możemy próbować określić f f poprzez takie techniki jak dekonwolucja Wienera.

     

    i dekonwoucja gotowa

     

    to doskonale widać na obrazkach po dekonwolucji, gdzie szum jest wyraźnie mniejszy. Operowanie falkami zwiększa szum, co każdy kto to robił zna z własnego doświadczenia

     

    5 minut temu, WielkiAtraktor napisał:

    @ZbyT Definicja z linku, który podałeś, jest prawidłowa, ale zwróć uwagę na to:

     

     

    Szum to tylko przykład, z czym oryginalny sygnał może być spleciony. Rozmycie przez seeing albo wady optyczne to inna możliwość. Wówczas dekonwolucja ma efekt wyostrzający, co mogę potwierdzić po kilku latach używania Registaksa, a potem po napisaniu i kilkuletnim używaniu ImPPG ;)

     

    oczywiście usunięcie szumu uwydatnia detale ukryte wcześniej w szumie. Nikt temu nie przeczy. I to jest powód, dla którego większość ludzi traktuje dekonwolucjię jak technikę wyostrzania, choć w rzeczywistości usuwa ona szum. Jednak dekonwolucja nigdy nie zastąpi falek i odwrotnie. Stosujemy te techniki niezależnie od siebie

     

    pozdrawiam

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.