Skocz do zawartości

MarekS99

Społeczność Astropolis
  • Postów

    138
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez MarekS99

  1. Raczej do końca :)
    Krzywizną pola obarczone są wszystkie zdjęcia tak samo. Zatem wszystkie mają tak sam błąd. Problem rodzi się właśnie wtedy kiedy drobne przesunięcia i obroty powodują, że gwiazda zajmuje trochę inna pozycję a tym samym ma inne zniekształcenie  jak również deformacje wywołane ruchem atmosfery i długim czasem naświetlania. Wtedy większa liczba gwiazd powoduje uśrednienie pozycji każdej z nich i uznanie jej jako sygnał a nie jako szum. Każda fotka po kalibracji nie zmienia swoich wymiarów (chyba że się mylę) czyli nawet nie ma liniowej transformacji wymiarów. 

    Trzeba by poznać jak działa "distortion correction" Podejrzewam , że polega na uznaniu uśrednionej pozycji i cyfrowym uśrednieniu wielkości gwiazdy.

     

  2. 14 godzin temu, Miesilmannimea napisał(a):

    Możesz przeczytać oryginał :) Tłumaczenie tak tylko wkleiłem ;)

    Niefortunnego słowa użyłem. Nie chodziło mi o tłumaczenie z angielskiego ale samą treść.
    Kolejne zdanie "If you have set the detection threshold low and DeepSkyStacker is still not finding enough stars because the image is underexposed, you can increase the image brightness by using the "Brightness" adjustment in the Raw/FITS DDP Settings."

    "ociera" się o problem tła :) . Jeśli zdjęcie jest niedoświetlone zwiększ jasność

  3. 2 godziny temu, Miesilmannimea napisał(a):

     

    Czy jesteś pewien, że Twój obiektyw jest w 100% rektilinearny? Z czasów fotografii naziemnej pamiętam, że to mało prawdopodobne raczej...

     

    http://deepskystacker.free.fr/english/technical.htm tłumaczenie automatyczne:
    "Regulacja progu wykrywania gwiazd
    Próg wykrywania gwiazd wynosi domyślnie 10% (10% maksymalnej luminancji).

    Możesz zmienić ten próg w zakładce Zaawansowane okna dialogowego „Zarejestruj zaznaczone zdjęcia/Zarejestruj ustawienia” lub wybierając Ustawienia.../Zarejestruj ustawienia.

    Zmniejszenie progu wykrywania gwiazd spowoduje, że DeepSkyStacker znajdzie więcej (słabszych) gwiazd, z drugiej strony, jeśli zwiększysz próg, wykryte zostaną tylko jaśniejsze gwiazdy, co zmniejszy liczbę znalezionych gwiazd.

    Ustawienie progu tak niskiego, że znajdzie się wiele setek gwiazd, przyniesie efekt przeciwny do zamierzonego, ponieważ będzie znacznie więcej danych do przetworzenia w celu rejestracji gwiazd, a jeśli zostanie wykrytych zbyt wiele gwiazd, istnieje większe prawdopodobieństwo błędnej rejestracji. Prawdopodobnie powinieneś dążyć do ponad 20-25 gwiazdek i nie więcej niż kilkaset lub więcej."

    Nie sądzisz że to tłumaczenie jest bełkotliwe? Czytałem je ale.nijak nie mogę zrozumieć, Prawdopodobienstwo złej rejestracji czyli jakiej? W plikach txt zapisane są współrzędne gwiazd i tyle. I jak ta rejestracja jest uwzgledniana? Jak wpływa na jakość zdjęcia. W podobny sposób opisano "Score" określające miejsce w rankingu

  4. 8 minut temu, Miesilmannimea napisał(a):

    Tak jest opisane w dokumentacji - to ilość gwiazd jaka będzie wykorzystywana do wyrównania zdjęć.

    Za dużo nie ma sensu, bo raz, że wydłuża się czas obliczeń, dwa może to dać gorsze efekty...

    żeby skalibrować obraz trzeba go przesunąć, obrócić i wyskalować. Zgodnie z zasadami geometrii do tego wystarczą 3 punkty (gwiazdy). Wykorzystanie powyżej trzech np. 200 gwiazd wskazywałoby na nieliniową deformację obrazu w stosunku do referencyjnej klatki a to wydaje mi się mało prawdopodobne. Raczej chodzi o uśrednioną pozycję gwiazdy po obrocie i to bez skalowania. Widać to po złożeniu zdjęć. Czas obliczeń o ile się wydłuży 10 minut? I co masz na myśli pisząc o gorszych efektach? 

  5. 51 minut temu, Piotr K. napisał(a):

     

    Sorki, ale tak nie jest (żeby nie bapisać - to jest kompletna bzdura ;) ). Program uśrednia wartości wszystkich pikseli, i tyle. Z samego tego procesu wynika, że szum się uśrednia i wyrównuje.

     

    Jeśli uśrednia wszystkie piksele to w jaki sposób wzrasta SNR? 

  6. 3 godziny temu, WojtasSP320 napisał(a):

    @MarekS99 wybacz, że podepnę się z małym offtopem ale nurtuje mnie jedno pytanie (może proste i oczywiste a może jednak nie takie oczywiste - nie wiem). 

     

    Czym jest sygnał? Chodzi mi o to, że mając przed sobą  zdjęcie to mam jakieś wyobrażenie na temat szumu - chyba jest to mniej więcej wartość średnia (tła?). A sygnał? Różnica miedzy wartością średnią a skrajną (min, max)? A może to jest liczone jakoś po odchyleniach std?

     

    Jak to wygląda w przypadku zdjęcia gdzie cały kadr wypełnia nam mgławica gdzie nie ma pustego tła?

    Zawsze będzie jakieś tło...
    Też zastanawiałem się nad tym. Wg mnie (nie wpsomagając się internetem i nie posługując się pojęciami w stylu studnia potencjału) sygnał jest tym czym nie jest tło. Moją uwagę przykuł program DSS i pytanie programu o próg wykrywania gwiazd w procentach? Dla mnie to było bez sensu skoro gwiazda jest gwiazdą. Jeśli jednak rozpoznamy to jako poziom tła to juz robi się ciekawiej. Program musi uznać co dla niego jest sygnałem. Jeśli ustalę że 200 gwiazd jest lepsze niż 500 to wszystko co będzie powyżej 200 (kolejne gwiazdy są słabsze) może być uznane jako szum. Procedury stackowania są takie prawie zawsze takie same. Najpierw geometria klatki i uwzględnienie każdej klatki klatkami kalibracyjnymi.
    i najciekawszy etap stackowanie. Program porównuje jasności punktów i sprawdza jak się mają piksele sąsiednie. Uśrednia wartości  stosując taki algorytm, że to co uzna za sygnał uśrednia a to co za szum uśrednia ale w pierwiastku. W ten sposób im więcej zdjęć tym ta różnica rośnie. Na końcu mam tylko zagadkę. Dlaczego zdjęcie po zestackowaniu wychodzi bardzo ciemne skoro na pojedynczej fotce było "coś" widać? Chyba chodzi o rozpiętość sygnału tak aby zachować pełną rozpiętość między czernią i bielą

  7. W dniu 6.03.2023 o 15:27, count.neverest napisał(a):

    Ależ oczywiście może. W artykule jest gotowiec, by takie doznania sobie zapewnić. 

    Artykuł jest bardzo fajny ale nie wyjaśnia problemu. Na obrazkach wygląda rewelacyjnie ale właśnie szukam potwierdzenia że szum spada tak jak opisuje wzór

  8. Pytanko. W ramach prób zrobiłem sobie stacki z 30 20 10 5 i 2 zdjęć stosując te same klatki kalibracyjne. Szukam Teraz programu dzięki któremu mógłbym przeanalizować jak bardzo maleje SNR ? Ktoś się spotkał z jakimś oprogramowaniem?

    • Lubię 1
  9. 12 godzin temu, beny napisał(a):

    Hmmm, poprawcie mnie jeśli gadam bzdury.

    Jeśli kolega będzie focić kamerą mono z kołem filtrowym to wtedy refocus na każdym z filtrów powinien nieco zniwelować AC. Oczywiście w kanale B gwiazdy będą większe jak filtr nie wytnie UV.

    Dobrze gadam?

    wg. mnie dobrze. Też tak zamierzam kombinować i to ze zwykłą lustrzanką ale też czytałem,że problemy są na filtrze R

  10. 15 godzin temu, Amatorex napisał(a):

    Ja przysłaniam aperture tak jak kolega Mareg napisal i doslownie nie ma sladu po aberracji. Korzystam z sw 120/600

    Witam

    Masz może SW 120/600? Jak bardzo przysłaniasz aperturę? niestety w tym rozwiązaniu trzeba znacznie wydłużyć czas naświetlania dla skompensowania mniejszej ilości światła

  11. 53 minuty temu, Piotr K. napisał(a):

    Co do rozbijania na składowe, i późniejszego składania takiego materiału, to w GIMP-ie jest to banalnie proste, tak jak pisze @szuu. Wrzucasz stack z OSC, rozciągnięty już, albo nie, jak chcesz, dajesz Colours - Components - Decompose, i otrzymujesz nowy obraz, składający się z trzech warstw, podpisanych red, green i blue, i zawierających te właśnie kolory. Robisz na nich co tam sobie chcesz, a potem, żeby je złożyć z powrotem, to dajesz Colours - Components - Compose, sprawdzasz czy do poszczególnych kolorów są przypisane odpowiednie warstwy, i tyle, powstaje z powrotem kolorowy obraz.

     

    Dekompozycja do składowych z tej samej fotki nie jest problemem. Fotka ma te same położenie w trzech barwach. Dużo większym jest złożenie jej z trzech obcych fotek. W gimpie nie jest trudne jednakże punkty kalibracyjne na wszystkich trzech muszą być dokładnie w tym samym położeniu.

     

    Siril rozbija na kanały ale tę samą fotkę 

     

    Filtry wąskopasmowe stosowane w achromatach działają dokładnie jak piszesz  bo odsiewają wszystko poza określonym pasmem. Tak sobie właśnie wykombinowałem aby każdy z fitrów R G B był takim filtrem wąskopasmowym. Poszedłem dalej i wymyśliłem sobie że mogę wyciąć pasma już w aparacie . Niestety korekta balansu bieli nie jest filtrem tylko względnym zmniejszeniem lub zwiększeniem intensywności barwy ale w obrębie danego balansu bieli.

  12. Zgoda, nie uniknę składania i o tym myślę. Wtedy wszystkie barwy RGB mam ostre na trzech plikach. Wielu robiących zdjęcia gromadzi materiał korzystając z różnych filtrów   i potem łączy w jedno zdjęcie.
    Zastanawiam ja to jest wykonywane? Czy w programie składającym wykonuje się tylko wyrównanie (przesunięcie obrót skala) i potem wskazuje że dany plik to kolor składowy całego zdjęcia? W programach np. Gimpie rozbicie na RGB jest proste ale w drugą stronę to już nie jest chyba tak prosto bo składanie odbywa się z trzech różnych fotek?

  13. 21 godzin temu, Piotr K. napisał(a):

     

    Balansem bieli wg mnie sprawy nie ogarniesz. Spróbowałbym innego podejścia - najpierw ustawiasz ostrość np. maską Bahtinova z filtrem R, zdejmujesz go, i focisz część sesji na tak ustawionej ostrości. Potem ostrzysz na filtrze G, zdejmujesz go, i znowu focisz część sesji na tak ustawionej ostrości. I potem to samo robisz dla filtra B. Uzyskasz trzy zestawy zdjęć, każdy zestaw na trochę inaczej ustawionej ostrości - czyli na każdym zestawie gwiazdy będą trochę inaczej nieostre (jeden kolor będzie ostry, pozostałe dwa nie). Przy odrobinie szczęścia wielkość nieostrych krążków będzie podobna na każdym zestawie, więc po zestackowaniu uzyskasz gwiazdy trochę nieostre, ale za to bez obwódek. Wiem, że to działa, bo podobną metodę stosuję do mojego Samyanga 135 mm, choć on akurat ma trochę inną przypadłość niż "po prostu" aberracja chromatyczna. Ale to już temat na inny raz ;)

    Hmm. No tak ale skoro do szukania ostrości zakładam filtr kolorowy R G lub B to mogę wykonać już serię zdjęć z jednym filtrem.  Ustawiłbym w balansie bieli "słońce" i bez korekty barwy. Każda seria ostrzona osobno musiałaby odbywać się z takimi samymi ustawieniami Wtedy każdy piksel matrycy przyjmie światło jakbym robił zdjęcie kolorowe. Stackowałbym każdą serię osobno jako osobny kolor. Niestety nigdy jeszcze nie składałem jednego obrazu z trzech kanałów i tu widzę spory problem, bo każdy z trzech obrazów w wyniku stackowania może mieć trochę inna skalę...

  14. 2 godziny temu, WojtasSP320 napisał(a):

    Zgadza się, tylko @MarekS99 szuka sposobu na "wyostrzenie na kanał" (czyli po prostu LiveView konkretnego kanału) a potem chce zbierać już normalnie materiał (tylko że 3 razy z różną ostrością - na R, na G i na B).

    @MarekS99 jeśli i tak podłączasz na początku sesji laptopa to użyłbym po prostu SharpCapa z podglądem tylko jednego kanału i problem rozwiązany.

    Ale ostrzenie i tak muszę wykonać dla każdego kanału osobno bo używam lustrzanki jak wspomniałem na początku 

  15. Teraz, WojtasSP320 napisał(a):

    Jeśli używasz komputera do akwizycji to chyba da się zrobić w LiveView w SharpCapie (zobacz: Preview FX (effects)), za pomocą balansu bieli - myślę, że tak średnio.

    Kompa używam tylko na początku. Ustawiam ostrość na maskę Bahtinova, potem dobieram czas i odłączam kompa. Resztę pracy wykonuje interwałometr (ilość klatek i czas).
    Z poziomu lapka mogę sterować czasem ale tylko do 3o sekund. Nie pamiętam czy mogę zmieniać balans bieli. 

  16. 25 minut temu, WojtasSP320 napisał(a):

    Czyli chcesz zasymulować koło filtrowe tak, żeby obraz widziany w LiveView (czy to na aparacie, czy na laptopie) składał się tylko z jednego kanału, tak, żeby dało się tylko wyostrzyć ten jeden kanał, tak?

    Dokładnie tak! :)

  17. No i właśnie o to mi chodzi. Nie chcę stosować żadnego dodatkowego zewnętrznego filtra. Chcę wymóc na aparacie filtrowanie poprzez korektę balansu bieli w ten sposób że wycinam wszystkie barwy poza jedną. I o to zapytałem. Czy w ten sposób zastąpię filtr kolorowy?
    Robiąc zdjęcia kolorowe zwykłą lustrzanką dokładnie tracę tyle samo światła w stosunku do tego gdybym robił zdjęcia kamerą mono - to jest jasne.
    Moje pytanie jest takie czy stosując opisana przeze mnie metodę uzyskam ostry obraz nap na kolorze niebieskim
     

    Screenshot_8.png

  18. Witajcie

    Mam pytanie. Mój achromat SW 120/600 ma dużą aberrację chromatyczną. Chcąc fotografować obiekty głębokiego nieba uzyskuje spore niebieskie obwódki wokół gwiazd. Gdzieś czytałem, że robiąc zdjęcie mogę zastosować filtry kolorowe RGB, wykonać 3 sesje na każdy kanał i poskładać potem w jakimś programie.
    Interesuje mnie czy ten sam efekt uzyskam stosując 3 korekty balansu bieli w chwili robienia zdjęć? Czy ustawiając ostrość na obiekt i filtrując go (skorygowanym balansem) uzyskam efekt eliminacji aberracji? Czy zmieniając na każdy kolor osobno (czerwień niebieski a potem zielony) ogniskowanie aparatu zmieni się czy to tylko filtrowanie wg koloru a ognisko pozostaje w tym samym miejscu?

  19. Witam.

    Chętnie podepnę się pod temat. Rura wyciągu przemieszcza się do środka lub na zewnątrz tuby. W tej dyskusji pojawiło się zagadnienie krzywego wyciągu. Ale przecież niezależnie od typu wyciągu można regulować jego równoległość i osiowość względem osi optycznej teleskopu. W moim teleskopie (SW 120/600) są 2 śruby imbusowe usytuowane wzdłuż wyciągu  którymi reguluje się sam wyciąg. Jednakże to mogę zrobić tylko w jednej płaszczyźnie. Brakuje drugiej pary (chyba że nie trzeba). Niektóre wyciągi crayforda mają po dwie pary śrub.

    Kolimatory umożliwiają regulację luster ale jak sprawdzić  sam wyciąg?

    pozdrawiam

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.