Skocz do zawartości

MateuszW

Biznes
  • Postów

    9 964
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Odpowiedzi opublikowane przez MateuszW

  1. Godzinę temu, trouvere napisał:

    A czym w istocie rzeczy jest stakowanie jeśli nie składaniem obrazów w celu polepszenia czułości ? To, że wprowadzono zamiast prostego sumowania operowanie medianą każdego piksela w niczym nie zmienia istoty operacji

    Przecież już napisałem, nie rozumiesz? Stackowaniem nazywamy nie tylko samo uśrednianie pikseli, czy liczenie mediany, a również kilka złożonych operacji, jakie dzieją się wcześniej - preprocessing, czyli analiza materiału, znalezienie gwiazd, określenie jakości, normalizacja, kalibracja, oraz alignacja klatek (znalezienie przesunięcia względem siebie). Tych wszystkich operacji nie robi Twoja kamera z 2008 roku.

    Natomiast zmiana średniej na medianę w Twojej kamerze spowodowałoby znaczne utrudnienie dla kamery, bo zamiast trzymać jedną klatkę, musiałaby ona trzymać wszystkie naraz. W komputerze mamy wielką pamięć i to nie duży problem.

    2 godziny temu, trouvere napisał:

    swoją drogą tego rodzaju statystyczne podejście do zwiększenia czułości nie jest najlepszym rozwiązaniem

    Tak, mediana daje mniejszą poprawę snr od średniej, ale pogorszenie to nie jest duże, a w zamian mediana pozwala dość skutecznie pozbyć się ekstremów, jak ślady po satelitach, czy hotpiksele. Średnia tego nie "potrafi", taki ślad zawsze pozostawi swoje "echo" na zdjęciu.

  2. Jeśli chcesz zmodyfikować pod full spectrum, to trzeba usunąć oba filtry i ewentualnie dać jakiś clear (dla ochrony?). Jednakże nie widzę sensu modyfikacji do full spectrum w zastosowaniach astro. To ma sens, jeśli chcesz robić zdjęcia w IR. Ale pod astro lepsza jest modyfikacja, która nie będzie przepuszczać podczerwieni.

    W takim wypadku usuwasz tylko wewnętrzny filtr (ten bliżej matrycy, bez czyszczenia). To on ucina nam wodór. Filtr LPF1 zostawiasz, bo on ma pożądane właściwości UV/IR cut (o prostokątnej charakterystyce). Dzięki niemu kolorystyka zdjęć będzie w miarę normalna i wywalisz podczerwień, która w obiektywach i refraktorach potrafi robić aberrację chromatyczną.

    • Lubię 1
  3. 15 godzin temu, Behlur_Olderys napisał:

    jak A4988 lub podobny DRV8825)

     

    15 godzin temu, Behlur_Olderys napisał:

    .tylko trzeba mieć dobre zasilanie, żeby dostać te 1-2A, jeśli zasilasz z baterii to może być problem, bo baterie nie lubią jak ciągnie się z nich za duży prąd. Może okazać się niezbędna przetwornica.

    Oczywiście z baterii będzie potrzebna przetwornica, bo w tych sterownikach mamy co prawda silnik z napięciem nominalnym 2-4V, ale zasilamy sterownik zdecydowanie wyższym, jak 12V. Prąd pobierany z baterii będzie wynosił 1-2A tylko w impulsie. Średnio będzie niewielki. 

    • Lubię 1
  4. 31 minut temu, Tomek96 napisał:

    Musimy znaleźć, które gwiazdy odpowiadają którym w klatce referencyjnej.

    Znasz na to jakiś algorytm?

    32 minuty temu, Tomek96 napisał:

    Z kolei jak będziemy ładować zdjęcia po kolei do pamięci, to na końcu działania algorytmu musimy mieć wszystkie dane (dla mediany) w pamięci, czyli np. 30GB. I to jest złe rozwiązanie. Muszę doczytać jak się robi takie rzeczy

    DSS robi to właśnie w ten sposób :) Zapisuje na dysku ogromny plik tymczasowy i potem jedzie po nim medianami itp. Ale tak na prawdę, to etap wyliczania końcowego obrazu jest w miarę krótki w porównaniu do poprzednich czynności.

    33 minuty temu, trouvere napisał:

    No to tym razem ja mam dwa pytania, pierwsze co konkretnie nazywasz zwykłym uśrednianiem klatek ? I drugie, czym według Ciebie jest stacking ?

    Zwykłym uśrednianiem nazywam wzięcie sekwencji zdjęć i policzenie średniej (czy tam czegoś innego) dla każdego piksela. W szczególności bez alignacji. Stackowaniem nazywam tutaj kompletny proces, który opisał Tomek (analiza zdjęć, alignacja, "właściwe" stackowanie).

    36 minut temu, trouvere napisał:

    Widzisz jakiś problem w tym, że kamera wykonuje jakieś operacje sprzętowo a nie programowo bo ja nie.

    Nie widzę w tym problemu, ale to jest powód dla którego stosunkowo proste i tanie urządzenia potrafią wykonywać niebywale szybko pewne czynności, z którymi komputer mógłby mieć  problem. To takie lekkie "oszustwo" :) 

  5. 4 godziny temu, Tomek96 napisał:

    Przecież na GPU chyba będzie się dało to zrobić w 2 minuty - de facto będzie nas ograniczać prędkość odczytu dysku :D

    Będę niecierpliwie czekał na efekt :) Liznąłem GPU na zajęciach, ale nie miałem czasu się w to bardziej pobawić.

    Zastanawiam się, na ile problematyczna będzie w procesie stackowania kwestia komunikacji. Bo jak w każdych obliczeniach równoległych, najlepiej jak jednostki obliczeniowe nie muszą się wymieniać danymi. Pytanie, jak dobrze zrównoleglają się algorytmy alignacji.

     

    Zastanawia mnie kwestia GPU w PSie. Generalnie wydaje mi się, że ta akceleracja niewiele daje. Pytanie, czy jest tak słabo zrobiona, czy po prostu nie da się za bardzo przyspieszyć tych operacji graficznych?

     

    Tak się do GPU odnosi PixInsight :P

    Cytat

    Obviously there are "many important priorities before GPU acceleration" in the further development of PixInsight.

     

    Godzinę temu, trouvere napisał:

    Chyba jeszcze bardziej trudno uwierzyć, że stakowanie on-line (tak, tak właśnie real-time) zostało zaimplementowane w kamerach video już około 2008 r.

    Co masz konkretnie na myśli? Bo jeśli zwykłe uśrednianie klatek to jest to proces nieporównywalnie prostszy i jak najbardziej możliwy do zrobienia przy niewielkiej mocy obliczeniowej.

    Ponadto, kamery czy aparaty są wyposażone w procesory DSP, które są specjalnie zoptymalizowane pod swoje zadania i wykonują wiele złożonych operacji czysto sprzętowo.

  6. 35 minut temu, Piotr4d napisał:

    ale na mniejszych i średnich, długo palonych i mocno wyciągniętych,  halo również  czasami się pojawia.

    Tak, ale to moim zdaniem nie zależy od czasów jednej ekspozycji, tylko ilości materiału i mocy ciągnięcia :)

    36 minut temu, Piotr4d napisał:

    Czy zastanawia Was, bo mnie tak, widok charakterystycznego halo w CCDku @Tayson a z filtrem Baadera i zupełnie inne z filtrem Chroma.

    Moim zdaniem na baaderze klasyczny odblask, a na Chromie niczym nieograniczona dyfrakcja i zero odblasków :)

  7. 56 minut temu, Piotr4d napisał:

    To pewnie zasługa 10s klatek. Halo nie ma się kiedy wysycić.  

     

    Przecież jak się wyciąga materiał ze stacka to nie ma znaczenia, ile miały subekspozycje. Tak samo, jak wyciągasz z nich słabe partie galaktyki, to wyciągasz też halo gwiazd.

    A tutaj myślę że tego halo po prostu nie ma. Ono się pojawia na bardzo jasnych gwiazdach, a tutaj takich nie ma.

    • Lubię 2
  8. Godzinę temu, monter napisał:

    Subiektywnie. Estetyka nie jest mi niezbędna do sterowania montażem. Taki np EQMOD też to pięknych nie należy, a działa.

    Ale czy jeśli coś jest estetyczne, to jest to wada?

     

    W CdC dla mnie problemem nie jest brak estetyki tylko toporność. Mapa jest praktycznie statyczna, odświeża się niezwykle ociężale. Nawigacja po niej jest nieintuicyjna. Gdyby poprawili te rzeczy, zapewne zrezygnowałbym ze Stellarium na rzecz bogatszego w dane CdC. A tak to ludzie dzielą się głównie na tych, którym CdC jest niezbędne i się w nim męczą i tych, którym funkcjonalność Stellarium wystarcza, dzięki czemu mogą korzystać z responsywnego programu :)

  9. 7 minut temu, Lukasz83 napisał:

    Paląc po 5s czy 10s, trafimy w ciągu kilkugodzinnej sesji na kilkadziesiąt lub kilkaset klatek o mega detalu. Po prostu wpasujemy się w to okienko dobrego seeingu i jeśli będziemy mieli fart zbierzemy doskonały materiał.

    Ok, bardzo jasno to opisałeś :) Jednakże, aby coś z tych 10s klatek nam wyszło na plus, to musielibyśmy właśnie wybrać tą niewielką część materiału, a resztę wywalić. Tu Paweł chyba tak nie robił. A może @Pav1007 zobaczysz, co wyjdzie z kilku % najlepszych klatek?

  10. Używałeś tu flata? Pytam, bo zauważyłem, że focąc w L z miasta, nieporównywalnie bardziej wyraźnie uwidacznia się wszelki syf z matrycy, winiety, gradienty itp. Trudno mi jest to opanować bez idealnego flata.

     

    Efekt fajny, szum jak najbardziej "spodziewany" :) 

    Tak krótkie klatki to jakiś eksperyment? Bo chyba wciąż za długie, żeby pokonać seeing.

     

    A co do stackowania, to nowe wersje DSS są w moim odczuciu najbardziej wydajnym softem. Najszybciej stackuje i nie marnuje zasobów komputera. Choć akurat z Pixem nie porównywałem. Maxim to niestety nieoptymalny staroć...

  11. Prawda jest taka, że strefa czasowa ma jednak pewne znaczenie. Tzn nie ma absolutnie znaczenia, czy Słońce zachodzi o 21 czy 22, bo to tylko kwestia przyzwyczajenia, ale jeśli ktoś jest "uwiązany" w pracy np do przychodzenia na 8, to zmiana strefy czasowej zmienia w rzeczywistości godziny pracy tego człowieka. Czyli względem czasu słonecznego, będzie on przychodził do pracy o różnych porach.

    Większość czynności, jak pójście do sklepu, sen, rozrywka itp możemy sobie robić prawie niezależnie od tego, co jest na zegarku, więc to, jaką godzinę pokazuje to tylko kwestia przyzwyczajenia. Ale niestety, jeśli ta praca zmusza nas do przychodzenia o konkretnej godzinie, to już (umowna) wartość pokazywana przez zegarek ma znaczenie.

     

    A więc, tak na prawdę, za pomocą zmian czasu, państwo regulowało globalnie godziny pracy/nauki itp wszystkich ludzi. Dzięki temu choć lekko zbliżało godziny rozpoczęcia aktywności do trybu, w jakim pracowało się w średniowieczu, czyli w zależności od wschodów Słońca :) Więc może powrót do tamtego trybu pracy, w zależności od godziny wschodu jest najlepszym wyjściem i tego potrzebujemy? :) Tak, wiem że zapanowałby chaos :)

    • Dziękuję 1
  12. 29 minut temu, kubaman napisał:

    ASI178 do galaktyk i planetarek. Daje to dużą mimo wszystko elastyczność. Kupił bym CCD gdyby była propozycja piksela w okolicach 2-3um. Jak już gdzieś pisałem ASI178 daje nienaturalnie płaski obraz i dlatego trzeba stakować naprawdę dużo klatek. Ma swoje poważne jak dla mnie wady - dark current, który nie do końca jest korygowalny, darki mają wypalone rogi i trzeba obcinać kadr. Coś jeszcze na co nie mam rozwiązania to dark current wzdłuż dolnej krawędzi kadru, który nie za bardzo się kasuje przez kalibrację darkami. 

    Z całym szacunkiem dla dokonań @Lukasz83, ale uważam że ASI178 to jedna z najgorszych ASI. Ma masę defektów, jak FPN, pasy, ampglow, które są trudne do usunięcia na stacku i trudno wyprodukować czysty estetycznie stack. Łukasz to opanował, ale nie każdy to potrafi no i niekoniecznie trzeba bawić się w taką walkę. Może by spróbować z inną ASI?

    https://astronomy-imaging-camera.com/product/asi183mc-pro-color

    ASI183 ma taki sam piksel, a przy okazji większą matrycę. To tylko ślepa propozycja, trzeba by poszukać testów i opinii, czy ta kamera jest pozbawiona własnie tych problemów, co 178. Ale jeśli tak, to moim zdaniem to jest idealna kamera dla Ciebie.

    • Lubię 1
  13. 19 minut temu, kubaman napisał:

    Jedna rzecz o którą chciałem spytać - czy na zrobionym przez mnie porównaniu 180s i 3x60s tylko ja widzę, że kontrast ze stacka jest sporo lepszy od pojedyńczej klatki?

    Nie, ja tego nie widzę. Jedyną różnicę, jaką dostrzegam to obecność fpn na stacku. Kontrast (chodzi o snr?) 3x60s nie ma prawa być lepszy, niż 180s, bo to taka sama ilość materiału.

  14. 12 minut temu, Krzychoo226 napisał:

    To nie obiektyw żeby można było sobie przeliczać. Potrzeba więcej materiału, tak z pięć razy więcej, przynajmniej.

    Ok, przyjmijmy sprawność rasy 50%. Wychodzi na to, że gdybym chciał ten obiekt sfocić w ED80, to proponowałbyś mi 150h materiału? Czy to aby nie absurdalne?

    5h x 0,5 x 12 x 5, gdzie 0,5 to sprawność, 12 to stusunek powierzchni apertur obu teleskopów, 5 to Twoja rada zwiększenia ilości materiału.

  15. 1 godzinę temu, Duser napisał:

    Kłania się jeszcze raz mit F2.2 . Co z tego że masz 2.2. To ci obiektu nie rozjaśni !!! 

    Ehh, znowu to samo :) No to porównajmy rasę do choćby popularnego SW 80/600 i zapomnijmy o światłosile. Ogniskowa podobna, a apertura powierzchniowo 12x większa, czyli 12x więcej światła :) Kuba zebrał ok 5h. Wydaje mi się, że edkiem większość z nas zbierałaby powiedzmy 10h. Czyli nadal Kuba ma 6x więcej światła na swoim zdjęciu. Także uważam, że ilość materiału powinna być spokojnie wystarczająca. Problem jest gdzieś indziej.

     

    Dodatkowo, pojawia się kolejna kwestia w kontekście matrycy, która nie jest z gumy :) Otóż, mając jasną światłosiłę, jeden konkretny piksel łapie więcej światła (światło padające w ciemnej tubie na kilka pikseli jest skupione na mniejszej powierzchni). Z tego wynika, że piksel się szybciej wysyca! Czyli szybciej sygnał oddala się od szumu odczytu, więc w efekcie krótszy czas naświetlania wystarczy, aby zapewnić sensowny odstęp od szumu odczytu. Dodatkowo szybciej studnia się przepełnia, a więc aby nie przepalić gwiazd potrzeba również skrócić czas. Tak więc czas naświetlania pojedynczej klatki powinien być określany właśnie na podstawie światłosiły. Dlatego też uważam porady o wydłużeniu czasu za bezsensowne.

     

    Ale nie chcę rozpętywać kolejnej dyskusji i psuć Kubie wątku :) Kuba - obiekt wyszedł super, kolimacja także bez zarzutu :) 

  16. 4 godziny temu, kubaman napisał:

    Nieźle dzisiaj kilka razy odleciałem. Praca w środku w zamknięciu, a już zwłaszcza po zmroku przy jednoczesnym kręceniu kopułą daje maksymalnie czadu jeśli chodzi o poczucie orientacji i kierunku. Niesamowite uczucie :)

    Może zacznij sprzedawać bilety na ten legalny odlot :)

    • Lubię 1
  17. Nie rozumiem, dlaczego w Polsce w ogóle rozważa się inny czas niż zimowy, skoro prawie cały nasz kraj znajduje się w strefie zimowej. Jaki jest sens sztucznie "oszukiwać naturę"? Nawet jeśli to coś zmienia, to za kilka lat ludzie przyzwyczają się do dowolnej strefy i różnice znikną. Dlatego należy wprowadzić strefę odpowiadająca największej części kraju, tak samo w innych krajach i będzie dobrze.

    • Lubię 2
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.