Skocz do zawartości

MateuszW

Biznes
  • Postów

    9 958
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Treść opublikowana przez MateuszW

  1. Ja miałem dokładnie taki sam problem na swoim kole. Niestety, jak dobrze pamiętam, nie znalazłem żadnej możliwości rozwiązania tego problemu. Wydaje mi się, że jest to po prostu błąd w programie. Miałem pisać w tej sprawie do Torstena, ale zapomniałem o tym A poza tym, jak dobrze pamiętam, to w autorun nie da się zrobić serii dowolnych sekwencji LRGB, np L 120s, RGB po 60s. Jak masz czas, to napisz o problemie do autora programu, na pewno odpowie i być może w miarę szybko rozwiąże problem. Ja swego czasu pisałem do niego w sprawie wysypywania się programu i odkrył, że winny jest mój antywirus
  2. W Autostakkert w oknie z podglądem masz suwaki do ustawienia rozdzielczości. Przy zwiększaniu weź uwagę, że on wyśrodkowuje Jowisza na stacku, więc gdy Jowisz oryginalnie nie był na środku, to trzeba dać większą rozdzielczość, niż oryginalna.
  3. Wirtualny system najczęściej nie rozwiązuje problemów ze sterownikami, bo te muszą działać na systemie nadrzędnym.
  4. Ma taką funkcję, jak trzeba, ale film wygląda tak: Nie umie zdekodować pliku. W jakim kodeku mu dać? Bo format niestety tylko avi, jak widzę.
  5. Może dupy nie urywa, ale jest
  6. No to złożyłem. Film niestety króciutki, przydałoby się to zrobić z jakiś 3h materiału Niestety nie udało mi się złożyć plików "w całość", żeby wgrać to np na youtube. Szukałem długo programu, zainstalowałem z 5 różnych i nic. Żaden nie chce zamienić dwóch plików w jeden 3D. Może ktoś z was zna jakiś darmowy, prosty program do tego? Chyba w końcu sam taki napiszę A więc tak. Pobieramy oba pliki: https://drive.google.com/folderview?id=0B-RoEs6iYHu2WmlKRWREQUNaUGs&usp=sharing, instalujemy darmowy odtwarzacz: http://www.nvidia.pl/object/3d-vision-video-player-1.7.5-driver-pl.html, wymieramy "odtwórz plik lewy i prawy" i oglądamy Niestety, prawdopodobnie zadziała to tylko na kompie z kartą Nvidia z obsługa 3D Vision. Plus jest taki, że możemy odtworzyć film również na podłączonym monitorze lub telewizorze 3D na okularach migawkowych lub polaryzacyjnych.
  7. Główną cześć obróbki robię w PixInsight, link w stopce
  8. Zupełnie szczerze mówiąc oglądając ten film poczułem smutek, jak zobaczyłem to "znęcanie". Niby wiem, że ten gość robi tylko testy, robot nie jest żywy itp, ale nie wiem, może z uwagi na duże podobieństwo do kształtu człowieka jednak zachodzi tu odruch "litości nad ofiarą". Czyli nie trzeba żadnej świadomości, czy inteligencji, żeby traktować "coś" jak równe sobie
  9. Wojtku, wyślij zdjęcia w zipie, bo rozkminienie kolejności tych plików jest niemożliwe Forum zmienia nazwy na "post-losowy_ciąg_znaków" i dupa z tego
  10. HST ma inną kolorystykę, bo to inna technika i filtry. Także nią się nie sugeruj Nie mówię, że Twoja kolorystyka to błąd, tylko bardziej na moje oko niedopracowanie, które można poprawić. Autobalans w DSS niekoniecznie da naturalny kolor, większość (w tym ja) obór zaleca nie używać takich rzeczy. Chyba DSS Cię oszukał, bo słupki nie pokrywają się. Niebieskiego jest zdecydowanie za mało, a do tego jest lekko wycięty.
  11. No, to masz tak jak ja f/4 Z tym, że u mnie ciągle jest fatalny wynik, mimo iż wszelkie sposoby kolimacji mówią, że jest ok. Ale jeszcze nie sprawdzałem po ostatnich poprawkach Hotechem
  12. No tera z coś widać. Jest dobrze, ale nie idealnie. Ja przy takim wyniku bym nie ruszał u siebie, ale może u Ciebie się coś uda zrobić Mam wrażenie, jakby LG i PD był lekko niedoskonałe, czyli jakby coś był przekrzywione po przekątnej. Różnice są minimalne. Coś z kolimacją jest niedoskonałe. A przypomnij, masz f/5, czy f/4?
  13. Ok, no to mamy sprawdzoną informację W takim razie lepiej szukać innych, ale to wciąć błądzenie na ślepo. Być może dopasowanie okularów zależy też od monitora, bo u jednego odcienie będą nieco inne, niż u drugiego. A wtedy to nawet opinie użytkowników są nie do końca pomocne.
  14. Na pojechanych gwiazdach trudno wnioskować o kolimacji i korektorze, ale jest dość dobrze, choć widać nie idealności. Zrób punktowe zdjęcie, to osądzimy. A OAGa najprościej ustawić na jakiejś gromadzie otwartej, jak Presepe w Raku Dziwne, przecież IDAS jest bardzio jasnym filtrem i dla kamerki różnica powinna być znikoma.
  15. Gdzie to widzisz? Na tym zdjęciu co tam jest? Ja szczerze mówiąc nie widzę tam nic, bo za małe, a z resztą dla obu są to dokładnie takie same zdjęcia, więc raczej nie zostały zrobione przez sprzedawany produkt. Najważniejsze w okularach jest, aby miały dobrze dobrane kolory, które pokryją się z tym, co wyświetla monitor. Ale w praktyce przez internet tego nie sprawdzisz, więc kupujesz w ciemno. Z mojego doświadczenia wynika, że praktycznie w większości okularów kolor czerwony ma zły odcień. Trafiłem raz na takie z komputerświat, które mają dobre kolory i ich pilnuję
  16. Tak samo jest przecież w Twoim maku. f/12 masz teoretycznie, ale światłosiła "jasnościowa", czyli ta, która decyduje o jasności obrazu na matrycy jest ciemniejsza przez obstrukcję. Jednak głębia ostrości i wszystkie inne rzeczy są takie, jak normalnie przy f/12.
  17. Okularki możesz załatwić sobie za 2 zł, tylko trzeba znaleźć w jakiś sklep Na zezowaniu jest spore ograniczenie co do wielkości zdjęcia, bo za dużego zeza się nie da zrobić
  18. Tak, pojedyncze klatki forum nic nie zmienia, ale gify same w sobie mają tylko 8 bitów koloru i ograniczają paletę barw przy zapisie. Dlatego też potrzebuję klatki jako oddzielne pliki. Zrobię w wersji dla okularów anaglifowych oraz dla telewizorów 3D oraz spróbuję zapisać pod zezowanie (nie wiem, czy znajdę do tego odpowiedni program). 3D na obracającym się Jowiszu jest o tyle ciekawe, że to prawdziwe 3D bez oszustw. Dzięki obrocie planety i jej "statyczności" tworów powierzchniowych mamy możliwość fotografowania jej z różnych stron. A obrócenie się Jowisza np o 1 stopień jest równoważne przemieszczeniu się fotografa o jakieś 11 mln km Czyli możemy uzyskać efekt, jakbyśmy patrzyli na Jowisza dwoma, oddalonymi od siebie "oczami"
  19. Te ukośne rysy to efekt dryfu kadru w czasie focenia. Zdjecie było przecież bez prowadzenia. Po stackowaniu takiego ruchomego materiału pojawiają się zauważalne trendy. O gustach się nie dyskutuje, więc podobać się może każdemu, co chce. Ale poprawna kolorystyka mgławicy to taka, która jest zgodna z rzeczywistością. A ta tutaj nie jest na pewno zgodna. "Niestety", M42 jest właśnie taka różowo-czerowna (ja bym powiedział bardziej, że różowo-niebieska). Ta kolorystyka, która Ci się nie podoba to właśnie ta poprawna. A skąd różnica między tym zdjęciem? Zapewne kolega emeł nie przyłożył się należycie do balnasu kolorów lub miał z nim zwyczajnie problem, albo podobnie, jak Tobie jemu również taka kolorystyka bardziej odpowiada i dla tego ją zostawił. Ale moje zdanie (nie tylko moje) jest takie, że nie należy tworzyć "sztuki" i zakłamywać rzeczywistości pod własne upodobania, tylko dążyć do wiernego oddania wyglądu obiektu. Można stosować drobne odstępstwa/poprawki, ale wtedy, gdy jest to sensownie uzasadnione, lub potrzebne do uzyskania konkretnie zdefiniowanego celu. Zmieniać rzeczywistość można świadomie i odpowiedzialnie, a nie dla swojego "widzi mi się". A co do samego zdjęcia, to bardzo fajne, jak na brak prowadzenia. Pokazuje to, że można uzyskać rozsądne rezultaty nawet ze statywu. Ja bym popracował jednak nad kolorystyką i wyrównał tło. Szkoda, że aberracja tubki SW daje się we znaki. Przydałoby się więcej klatek, no ale bez prowadzenia to obiekt jednak ucieka z kadru.
  20. Wojtku, animacje genialne! Czy mógłbyś udostępnić pojedyncze klatki w jpg z minimalną kompresją? Spróbuję zrobić z tego film 3D Już taki zrobiłem swego czasu na moim Jowiszu, ale u mnie rozmiar tarczy i szczegół był gorszy, więc efekt mało spektakularny. To akurat oczywiste, że awik kolorowy jest 3x cięższy. W mono masz zapisaną 8 bitową jasność każdego piksela, a w kolorze masz dla każdego piksela 3x8 bitów (po 8 na kolor). Każdy piksel ma prawidłową wartość tylko dla jednej składowej, dwie pozostałe są interpolowane z sąsiednich w procesie debayeryzacji. Tak więc rzeczywista ilość informacji w obu plikach jest taka sama, a w pliku kolorowym 2/3 miejsca jest w zasadzie marnowane. Dlatego też słuszne jest nagrywanie bez debayeryzacji i robienie jej później Tak się teraz zacząłem zastanawiać, czy nie byłoby dobrym pomysłem, aby wszelkie zdjęcia był zapisywane w formie niezdebayeryzowanej, a debayeryzacją zajmowała by się przeglądarka zdjęć "w locie". Wtedy mamy 3x mniejsze pliki, szybsze kopiowanie, szybsze ściąganie z neta, szybsze ładowanie z dysku. Dokładnie taka technika jest stosowana w rawach, przechowywane dane są czarno-białe, a debayeryzację robi dopiero przeglądarka/program graficzny. Można się o tym przekonać otwierając rawa w Maximie, pokaże sie niezdebayeryzowany. W rawach ponadto przechowywane są informacje o balansie bieli, redukcji szumów itd, ale te operacje nie są jeszcze przeprowadzone na obrazie. Stosotaniem tych ustawień zajmuje się dopiero przeglądarka/program graficzny, który przekształca w locie obraz zgodnie z ustawieniami zapisanymi w pliku. Dzięki temu możemy sobie te ustawienia edytować. Gdyby tak stworzyć zwykły format graficzny, który by używał plików niezdebayeryzowanych, to można by oszczędzić 1/3 miejsca. No tylko, żeby to zadziałało, to trzeba by dodać jego obsługę w wielu programach, a to raczej długotrwały proces. Ale dziwi mnie, czemu takiego formatu nie ma. A może jest?
  21. No właśnie, niestety sprzętu się nie przeskoczy i starym aparatem osiągnięcie takiego efektu jest po prostu niemożliwe. Już wiele razy się o tym przekonałem podczas prób cykania timelapsów moją starą puszką. Przy Łysym jest super, ale pod dobrym, ciemnym niebem widać sam szum. Oczywiście pokaźny sprzęt nie ujmuje nawet minimalnie Twojej pracy, doświadczeniu i talentowi. Choć niestety prawda jest taka, że nawet wyśmienity fotograf bez dobrego sprzętu nie zrobi porywającego timelapsa. W klasycznym astrofoto można naświetlać godzinami niwelując różnice sprzętowe, a tutaj nie da się, jedna, krótka klatka i koniec zabawy. Gratuluję również świetnego zaplanowania kadrów. Ciekawe, ile z widowiskowych rzeczy na filmie było faktycznie zaplanowane, a ile to łut szczęścia
  22. Suszarka to dobre doraźne rozwiązanie. Minuta roboty i korektor czysty. Wychłodzenie wraca po kilku minutach, także się nie przejmuj. Ale lepiej zapobiegać, niż leczyć. Odrośnik działa tak, że woda skrapla się na zewnątrz niego, zamiast na płycie. Sama fizyka Najtaniej możesz go zrobić np z karimaty. Jest dość skuteczny, choć nie uchroni Cię całkowicie przed roszeniem. Czasem wystarczy, ale innym razem tylko przedłuży czas bez rosy do jakiś 2-4h, a potem i tak zaparuje. Grzałka to najlepsze rozwiązanie, bo całkowicie eliminuje problem. Jej wadą jest oczywiście konieczność podłączenia do prądu na stałe. Ale skoro teleskop służy do astrofoto, to na niedobór kabli i gniazdek pewnie nie cierpisz Grzałkę możesz bardzo tanio wykonać sam, albo poszukać kogoś, kto to zrobi. W sklepie mają marże na poziomie 80% na taki "sprzęt".
  23. Bardzo proszę wszystkich, którzy jeszcze nie wysłali mi wszystkich wymiarów, aby to uczynili jak najszybciej, bo w przyszłym tygodniu blaszki idą do wycinania.
  24. 2-3 min to gdzieś tyle, ile schodzi z klasycznym ustawianiem. Ale czy to jest liczone razem z podłączeniem, odpaleniem programu itp? To na tym sporo schodzi.
  25. Niby tak, do foto z guidingiem taka dokładność jest niepotrzebna, do wizuala już totalnie. Jedynie, jakby ktoś focił bez guidingu, to może wtedy. Bo generalnie metoda wydaje się ciekawa i dokładna, ale faktycznie schodzi trochę dodatkowego czasu. Teoretycznie można by zrobić adapter do kamerki planetarnej i ją zamocować z obiektywem. Jakbym miał czas, to mógłbym nawet napisać podobny program Chyba, że udałoby się połączyć inną kamerę do tego programu.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.