Skocz do zawartości

Behlur_Olderys

Moderator
  • Postów

    5 198
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Odpowiedzi opublikowane przez Behlur_Olderys

  1. Panowie, chyba za bardzo komplikujecie sprawę :)

    Jeśli ADU jest liniowym odwzorowaniem jasności gwiazdy, to obojętnie od gainu i bitów kamery, w każdym wypadku X = 10.0482 a Y = 10.0494, korzystając ze wzoru podanego przez LibMara.

     

    Skoro bowiem do wzoru wkłada się stosunek dwóch liczb, które zależą od jasności gwiazdy w sposób liniowy, to stosunek ten będzie niezmienny względem przekształceń liniowych takich jak pomnożenie przez gain, zwiększenie czasu naświetlania czy ilość bitów, na których zapisujemy. Te rzeczy mogą wpłynąć na błąd jakim taki pomiar będzie obarczony, ale sam wynik oblicza się bardzo prosto.

     

    Pozdrawiam!

    • Lubię 1
  2. Nie zgadzam się. Zobacz, ile pięknych rzeczy jest w tym szerokim kadrze. Gdyby ktoś zrobił fotkę w tamtym rejonie z naświetlaniem kilku godzin, zdjęcie byłoby z pewnością bardzo estetyczne :)

  3. Jest to zjawisko relatywistyczne - gdyby prędkości dodawały się "normalnie" czyli po galileuszowsku, to nie byłoby tego problemu.

    Tymczasem do prędkości światła nic się nie dodaje, jest stała w każdym układzie.

    Najprościej sobie to wyobrazić w przypadku, gdy dżet świeci prosto na nas i porusza się praktycznie z prędkością c (powiedzmy, bez jedynki na dziesiątym miejscu po przecinku).

    Gdyby prędkości dodawały się 'normalnie' to światło wyemitowane z dżetu pędzącego prosto na nas miałoby prędkość praktycznie 2c.

    A tymczasem transformacja Lorentza mówi, że zawsze będzie to wartość c, więc względem dżetu światło z niego wyemitowane będzie praktycznie stało w miejscu, poruszało się z nim równolegle niemal z tą samą prędkością.

     

    Dlatego dla obserwatora w takim przypadku (relatwistyczny dżet na wprost) światło wyemitowane na początku i na końcu dżeta dojdzie do obserwatora w tym samym momencie, a nie po czasie równym długości dżeta podzielonej przez jego prędkość.

     

    Ta różnica jest przyczyną pozornej "nadświetlności". W odpowiednich warunkach perspektywistycznych, oczywiście, ale nie bez szczególnej teorii względności.

     

    Pozdrawiam!

  4. Osobiście polecam 700d do fotografii dziennej i nocnej. Oczywiście, nie jestem w żadnym wypadku profesjonalistą, ale wydaje mi się, że jest to konstrukcja na tyle nowa, że będzie miała większość ciekawych udogodnień przydatnych do dziennej fotografii, jak wszystkie zalety Canona cenione w astrofoto. Nie ma tu jakiegoś wielkiego wskazania na ten konkretny model: 750d pewnie też jest ok, słyszałem też dużo dobrego o 100d oraz 1000d. Nie wiem, czy są jakieś znaczące różnice między tymi modelami, o ile się nie jest super wybrednym specjalistą.

  5. _Spirit_, po co się zaraz tak unosić:) Poleciłem SC dlatego, że warto chyba spróbować, zanim się zdecydujesz na reinstalkę. On ma sporo funkcji diagnostycznych. A instalowanie innego antyvira przy podejrzeniu infekcji to leczenie chorego na grypę za pomocą szczepionki :) wciąż podtrzymuję zdanie, że najlepsze wyjście to reinstalka, a potem dobry antywirus plus higiena pracy: czysta instalka, kopia zapasowa, sprawdzony soft z dobrych źródeł i broń Boże żadnych piratów!

  6. http://www.100fps.com/file_sizes_of_lossless_compression.htm

    Porównanie bezstratnych kompresji wideo.

    HuffyUV jest na tyle szybki, że na 416MHz single core procesorze Celeron ma throughput ok. 38MB/s. (za angielską wiki).

    http://www.animemusicvideos.org/guides/avtechbeta/video4.htm

    Dodatkowy plus dla klona HuffyUV z obsługą multicore procesorów.

    Pewnie wymagałoby to tak czy siak osobnej maszyny do akwizycji i osobnej do sterowania montażem... Ale na pewno zmniejszyłoby zmartwienia związane z miejscem na dysku.

    Może będę miał jeszcze dziś czas to sprawdzę co się stanie, jak zawinę część moich zdjęć tym algorytmem - jak długo trwa kompresja i ile waży wynikowy plik.

    Pozdrawiam!

    • Lubię 1
  7. Zamiana ciągu 1111111111111111111111111111111111111111 na 40x1 jest bezstratną kompresją - właśnie skompresowałem 40 bajtów do 4, poziom kompresji = 90%

    Zasadniczo jest mnóstwo algorytmów kompresji bezstratnej, polecam przeszukać internety :)

     

    Notabene, choć to trochę inny kaliber: LHC też nie zgrywa wszystkiego jak leci, bo tam są terabajty na sekundę. Specjalne triggery odfiltrowują wydarzenia w locie i efektywnie zapisywany jest tylko ułamek "ciekawych" zdarzeń.

     

    Osobiście uważam, że osobny sprzęt, najlepiej dedykowany, powinien zajmować się tylko i wyłącznie akwizycją z kamery plus ewentualnie pre-processing, a osobny, klasy pecet- wszystkim innym.

    To, o czym mówisz, Hansie, jako optimum, to dla mnie minimum :)

    Są dwie skrajności: robić wszystko w locie (nie da rady, za mało mocy/pamięci) albo robić wszystko po akwizycji (nie ma mowy: za mało dysku).

    Optimum to własnie to, o czym mówię: kilka niezbędnych rzeczy dołożyć in-flight żeby zminimalizować zużycie storage'u, a resztą zająć się na spokojnie bez inwestowania w 10TB dyski SSD.

     

    Nie chce mi się zresztą wierzyć, żeby guiding czy sterowanie montażem to były jakieś pamięciożerne kolosy, chyba że są kiepsko napisane. Może pora przerzucić się na Linuxa?

    Wydaje mi się, że maszynka która ogarnie wszystko (oprócz akwizycji) powinna kosztować jakieś 300-400zł, bo tyle kosztują używane laptopy.

    • Lubię 2
  8. Minuta materiału to kilka GB? omg ;) 160 MB / s....

    Proponuję przedwstępne filtrowanie materiału, może nie potrzeba zawsze całej klatki (wyciąć rogi czy coś? :D)? Odpalenie zaraz po akwizycji prostego programiku "obcinającego" zdjęcie lub dokonującego jakiejś bezstratnej kompresji powinno dać się zrobić w locie. W końcu mówimy o sygnale bardzo słabo zmiennym w czasie. Przyda się oczywiście dużo RAMu i dobry algorytm :)

  9. Jeśli przetwarzanie jednej klatki dużo zajmuje, a jest to proces niezależny od drugiej klatki, to może warto pomyśleć nad przetwarzaniem w locie, podczas akwizycji? Czy jest to wykonalne? A może przetwarzanie jednej klatki trwa dużo dłużej, niż jej akwizycja więc i tak wiele to nie da? Powiem Wam tak: jeśli mielibyście zwiększyć czułość przez długotrwałą (kilkudniową)obróbkę, jakkolwiek skomplikowaną, to jest to warte zachodu - prąd jest tańszy niż nowy sprzęt:)

  10. Kajetan - wygląda dosyć czarnobiało...

    Rozumiem, że stackowanie DSS?

    PixInsight LE nie czyta (chyba) domyślnie 32bitowych stacków z DSS.

    Można chyba czymkolwiek zapisać stacka z 32b na 16b i wtedy już pixinsight daje radę. Przynajmniej ja tak robię :)

    Spróbowałbym jeszcze raz zestackować, może z większą selekcją (50% najlepszych klatek)? Ponad 1000 sekund naświetlania, to jednak jest sporo materiału jak na statyw :)

  11. Tak, wiertarka stołowa to by było to:) od biedy prosty frez można tym zrobić chyba... Do nakrętki tej M8 masz coś przymocowane, żeby się mogła swobodnie obracać na ramieniu czy jak to mocujesz? A sprzęgło jakieś polecasz? Ja myślałem o takim elastycznym sprzęgiełku dociskanym imbusowymi śrubkami, ale długo mi zeszło, zanim znalazłem w necie, że takie coś to się nazywa sprzęgło:)

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.