Jump to content

trouvere

Społeczność Astropolis
  • Content Count

    102
  • Joined

  • Last visited

Community Reputation

23 Neutral

About trouvere

  • Rank
    Regulus

Recent Profile Visitors

237 profile views
  1. Tu nie chodzi o wygładzanie a o uzupełnianie brakujących fragmentów obrazu (biorąc pod uwagę między innymi czysto fizyczne zasady rozchodzenia się fal elektromagnetycznych w przestrzeni, tz. nie mogą one nagle zniknąć choć mogą podlegać zaburzeniom pod wpływem szumów czy np. refrakcji), popatrz na przedstawione niżej obrazy na których masz linią zaznaczoną podstawę kwadratu hipotetycznej wiązki EHT (50 mikro arcsec) którą skanowano przestrzeń w okolicy czarnej dziury i proporcjonalną wielkość samego obiektu, czyli czarnej dziury - jak widać wielkość spota EHT jest większa (kątowo) od obiektu, na kolejnych ilustracjach są przedstawione wyniki innych zespołów badawczych z tym samym materiałem wyjściowym z EHT gdzie przyjęto zmodyfikowany rozmiar spota EHT, te 16x16 "piksele" zrekonstruowanego obrazu to i tak wielkość bardzo optymistyczna, obraz rekonstruowany tymi algorytmami można śmiało porównać do próby zeskanowania, i w następstwie odtworzenia wyglądu czyli wizualizacji, ludzkiego oka za pomocą skanera o jednym elemencie światłoczułym o średnicy ok.4 mm, za każdym razem będzie to oko tylko nigdy nie będzie to rzeczywisty wygląd oka które podlegało skanowaniu, po prostu ilość danych jest zbyt mała, przykład (z instytutu Max Planck w Niemczech, gdzie przeprowadzona była rekonstrukcja obrazu z radioteleskopów) działania algorytmu rekonstrukcji obrazu ze znacznymi defektami jak i dodawanym celowo szumem - zwróćcie uwagę na fakt, że obraz oryginalny (najwyższa fotografia) jest bardzo "matematyczny" tz. mimo pozornej zawiłości zbudowany jest z łatwo (dla człowieka) rozpoznawalnych struktur (ciekawe jak by sobie poradził ów algorytm ze strukturami fraktalnymi), "Reconstruction of an artificial wave field: the simulated wave field is shown at the top whereby time flows from left to right and the positional location is on the vertical axis. The waves are generated by random events on the peaks of the triangular structures. The central section of the image shows the measured values for the upper field at a few locations. The reconstruction of the field based only on this measured data, with no prior knowledge of the relevant dynamics, is shown below. The dynamics were also reconstructed from the data. Thus, all fundamental structures are actually discovered." w środkowej części jest przedstawiony dostarczony do kompa wybrakowany, zniekształcony i zaszumiony obraz a na najniższej części ilustracji jest zrekonstruowany przez komputer obraz górny (zauważcie jak "ładnie" algorytm zrekonstruował brakujące fragmenty obrazu (białe plamy w środkowej ilustracji).
  2. Zawsze uważałem, że teściowa ma silny wpływ na "materiał" (zwłaszcza genetyczny) ale z drugiej strony bez jej udziału to i "materiału" by nie było .
  3. Trzeba sobie jasno powiedzieć, że prezentowany obraz nie jest w żadnym wypadku fotografią czarnej dziury a tylko i wyłącznie wizualizacją jak mogą wyglądać przestrzeń w stosunkowo bliskiej okolicy czarnej dziury. Żadnym radioteleskopem, bo do tej wizualizacji zbierano dane za pomocą radioteleskopów a nie teleskopów optycznych, nie da się wykonać fotografii (to tak jak byśmy chcieli anteną radiową wykonać fotkę). No dobrze to w takim razie w jaki sposób wykonano tą wizualizację (mógłby ktoś zapytać) ? Odpowiedź w dużym skrócie brzmi, użyto sieć (dokładnie osiem) radioteleskopów rozrzuconych na powierzchni naszego globu, pracujących (odbierających sygnały) w zakresie podczerwieni w celu uzyskania bardzo wąskiej wiązki odbieranego sygnału i skanowano w zsynchronizowany sposób (zarówno w czasie jak i przestrzeni) ściśle określony wycinek przestrzeni gdzie znajduje się czarna dziura. Jednorazowo z całego zestawu radioteleskopów uzyskiwano zbiór danych o jednym (tylko jednym) hipotetycznym "pikslu", z całą zawartością zakłóceń, szumów itd , następnie przestawiano cały zestaw do kolejnego "piksla" i tak dalej. Cały zestaw dysków z zapisanymi danymi został poddany obróbce za pomocą AI aby wyłuskać całej masy danych interesujący nas "obraz", czy wynik pracy AI jest rzeczywiście obrazem tego co tam, te 50 mln lat temu się działo, rzecz dyskusyjna nawet w świecie astrofizyków (czy przypadkiem nie jest tak, że AI dostarczyła wyniki których od niej oczekiwaliśmy). Koniec końców zaprezentowano ludzkości wizualizację a nie fotografię, no bo czymś się trzeba było pochwalić i uzasadnić potrzebę dalszego finansowania prac zespołu.
  4. Może dlatego : When working on astronomical images, objects like galaxies and stars are blurred by the atmosphere and the telescope aperture, therefore their signal sinks into the noise very gradually. Galaxies in particular do not appear to have a clear high signal to noise cutoff at all. Therefore σ-clipping will not be useful in removing their effect on the data. źródło: https://www.gnu.org/software/gnuastro/manual/html_node/Sigma-clipping.html
  5. No tak, bardzo śmieszne , rzecz w tym, że 20 lat temu Nokia była telefonem i to była jej podstawowa funkcja a dziś ... no cóż, mamy do czynienia z komputerem spełniającym cały szereg różnych funkcji z czego telefon jako taki jest do niego dodatkiem, nie sądzisz ?
  6. A czym w istocie rzeczy jest stakowanie jeśli nie składaniem obrazów w celu polepszenia czułości ? To, że wprowadzono zamiast prostego sumowania operowanie medianą każdego piksela w niczym nie zmienia istoty operacji oprócz tego, że procesor musi zapamiętać jednocześnie wszystkie stakowane klatki by następnie uporządkować te same piksele kolejnych klatek w kolejności rosnącej lub malejącej (dowolnie wybranej) by następnie znaleźć tą wartość piksela która dzieli liczbę stakowanych klatek dokładnie na pół (czyli 50% wszystkich próbek/pikseli ma wartość większą/mniejszą od wartości mediany), swoją drogą tego rodzaju statystyczne podejście do zwiększenia czułości nie jest najlepszym rozwiązaniem pomijając przy tym fakt ogromnej ilości pamięci RAM koniecznej do realizacji tego algorytmu i ograniczenia (poważnego) polegającego na tym, że wartości zarówno wyższe jak i niższe od mediany nie wnoszą do obrazu wynikowego żadnej informacji w tym sensie już proste sumowanie wartości piksela w kolejnych klatkach znacznie podnosi odstęp S/N zwłaszcza w długich sekwencjach (jest to odpowiednik analizatora wielokanałowego pozwalający wydobyć sygnał o poziomie będącym poniżej poziomu szumu)
  7. No to tym razem ja mam dwa pytania, pierwsze co konkretnie nazywasz zwykłym uśrednianiem klatek ? I drugie, czym według Ciebie jest stacking ? Widzisz jakiś problem w tym, że kamera wykonuje jakieś operacje sprzętowo a nie programowo bo ja nie.
  8. Chyba jeszcze bardziej trudno uwierzyć, że stakowanie on-line (tak, tak właśnie real-time) zostało zaimplementowane w kamerach video już około 2008 r.
  9. Tak, przy czym nie należy w związku tym wysuwać wobec QHY pochopnych pretensji w kwestii występowania amp-glow na fotografiach "light", po prostu amp-glow jest zjawiskiem nieliniowym i zależnym przy tym od treści obrazu.
  10. No najwyraźniej nie jesteś i to nie tylko z j.angielskiego, bo na czym miałaby polegać ta technologia anti-amp glow ? I po co stosować technologię anti-ampglow jeśli matryca miałaby nie wykazywać w swoim działaniu występowania amp-glow ? Gwoli wyjaśnienia, zjawisko amp-glow ma miejsce w każdej matrycy CCD zasilanej dostatecznie wysokim napięciem, to czy będzie je widać na foto czy zgoła na ekranie będzie zależało tylko od czasu ekspozycji (dotyczy to zarówno aparatów fotograficznych jak i kamer video). W przypadku dyskutowanej kamery z całą pewnością zachodzi odejmowanie darka od wyjściowego sygnału cyfrowego, to dlatego jak pokazał to Tayson na zamieszczonych 15 minutowych fotach darków amp-glow nie występuje. Krótko mówiąc kamera robi sprzętowo w "czasie rzeczywistym" dokładnie to samo co Ty chcesz i robisz softwareowo w obróbce szumnie nazywanej post processingiem, widzisz tu gdzieś jakiś element oszustwa ? Przecież natychmiastowa odpowiedź producenta będzie: no przecież my tylko chcieliśmy ułatwić pracę fotoamatorom. Przyznam, że kompletnie nie pojmuję pretensji amatorów (skądinąd sam też jestem amatorem) o to, że producenci sprzętu nie robią tego co oni by sobie życzyli. Weźcie pod uwagę, że producenci amatorskich kamer absolutnie nie są w stanie wkładać do tych wszystkich kamerek tzw. astro prawdziwie pod wymagania astro projektowanych i produkowanych matryc gdyż koszt takiej każdej kamery zaczynałby się kwoty 15 000 $ wzwyż, co z miejsca wyeliminowałoby 99.99% wszystkich amatorów fotografii astro. Zamiast tego stosują "typowe" matryce fotograficzne czy wprost video podejmując szereg zabiegów mających na celu umożliwienie ich użytkowania w charakterze amatorskich sprzętów astro. Mógłbyś wyjaśnić o co w tym pytaniu chodzi ?
  11. Oszustwo ??? A gdzie jest mowa w dokumentacji, że tego nie robią ? Drobny cytat ze strony qhyccd " With the QHYCCD anti-amp glow technology, the QHY367C exhibits zero amplifier glow, even in long exposures" jak myślisz, co to jest ? No i właśnie amator stwierdził i udokumentował stosownymi fotkami z nieba i darka, że ampglow występuje przy foceniu nieba (i to dokładnie w tych miejscach gdzie na matrycy są kanały, porty czy jak jeszcze inaczej chciałbyś je nazwać, żeby nie było, to właśnie kanały wyjściowe są z racji wysokich napięć zasilania źródłem świecenia, tak właśnie świecenia wewnątrz struktury matrycy, co na zewnątrz interpretowane jest powszechnie jako ampglow) natomiast przy darkach obecności ampglow nie stwierdzono (co może być też wynikiem znacznie krótszego czasu integracji darka, ale jeśli czas ekspozycji dla darków był identyczny jak dla nieba, to moje podejrzenia zaczną się materializować - oczekiwać by należało, że Tayson rozwieje niedopowiedzenie w kwestii czasu ekspozycji darka)
  12. Nadzieję wolno Ci mieć, rzeczywistość natomiast, zwłaszcza ta przed którą stoją producenci zarówno podzespołów jak i sprzętu jest zupełnie odmienna od rzeczywistości amatorów (tu w grę wchodzi KASA i to jest czynnik dominujący). Czy nie przyszło Ci do głowy dlaczego nigdzie ale to absolutnie nigdzie nie znajdziesz danych technicznych tzw. z angielska datasheet sensorów ICX694 ?
  13. Nie bierzesz pod uwagę "inteligencji" wbudowanej w elektronikę kamery a także pewnego cwaniactwa producentów sprzętu, skoro producent wie, że najprostszym testem jaki może przeprowadzić amator bez udziału wymyślnego sprzętu astro jest po prostu zasłonięcie matrycy i wykonanie darka, "zabezpiecza" się w ten sposób, że kamera wykrywa brak sygnału optycznego i podaje na wyjście szumek. Nie jest to wielki problem. A cudów nie ma . A odnośnie darków, Tayson jak długie (w sensie czasu) robiłeś te darki (może tu tkwi odpowiedź na brak ampglow) ?
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.