Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 077
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez Piotr K.

  1. 12 minut temu, szuu napisał(a):

    aha, no chyba że użyłeś "addition" dodając 3 czarnobiałe zdjęcia - oczywiście że efektem musi być czarnobiałe zdjęcie 3 razy jaśniejsze. ale chodzi o to żeby dodać warstwy "pokolorowane" tak żeby każda z nich zawierała tylko jeden kanał, wtedy dodają się tylko zera i efektem jest obraz identyczny z oryginałem.

     

    Zrobiłem tak, że pokolorowałem trzy czarno-białe warstwy, tą od red na czerwono, tą od green na zielono, a tą od blue na niebiesko, opcją Colourise, i ustawiłem tryby mieszania dla warstwy czerwonej i zielonej na Addition. Efekt wyszedł jaśniejszy, co jak sam zauważyłeś, nie jest dziwne, biorąc pod uwagę opis trybu Addition z manuala do GIMP-a:

     

    Addition mode is very simple. The pixel values of the upper and lower layers are added to each other. The resulting image is usually lighter. The equation can result in color values greater than 255, so some of the light colors may be set to the maximum value of 255.

     

    20 minut temu, szuu napisał(a):

    ale chodzi o to żeby dodać warstwy "pokolorowane" tak żeby każda z nich zawierała tylko jeden kanał, wtedy dodają się tylko zera i efektem jest obraz identyczny z oryginałem.

     

    Aaa, dobra, już rozumiem - trzy warstwy, ale każda ma tylko jeden kanał. OK. Próbuję to właśnie ustawić na tej fotce M38, ale tak na szybko nie wiem, jak to zrobić - zakładka Channels zmienia widoczność kanałów dla całego obrazka, a nie dla pojedynczej, aktualnie wybranej warstwy...

  2. 25 minut temu, MarekS99 napisał(a):

    Dekompozycja do składowych z tej samej fotki nie jest problemem. Fotka ma te same położenie w trzech barwach. Dużo większym jest złożenie jej z trzech obcych fotek. W gimpie nie jest trudne jednakże punkty kalibracyjne na wszystkich trzech muszą być dokładnie w tym samym położeniu.

     

    To prawda, i też się z tym kiedyś męczyłem. Rozwiązanie jest proste - przepuścić surowe stacki R, G i B przez proces rejestracji np. w DSS-ie. Wrzucasz te stacki jako trzy klatki, tak jakbyś chciał je zestackować, i odpalasz rejestrację, ale bez stackowania. Tylko trzeba mieć zaznaczone w którejś zakładce, żeby zachował klatki pośrednie, nie pamiętam gdzie to było, chyba w zakładce Output. To samo można też zrobić w Sirilu, wtedy nie trzeba nic dodatkowo zaznaczać, bo jak się robi kalibrację ręcznie, to wszystkie klatki pośrednie zostają na dysku.

     

    25 minut temu, MarekS99 napisał(a):

    Niestety korekta balansu bieli nie jest filtrem tylko względnym zmniejszeniem lub zwiększeniem intensywności barwy

     

    Dokładnie tak. Dlatego napisałem Ci już wcześniej, że kombinacjami z balansem bieli nic nie uzyskasz, bo nie do tego ta funkcja służy.

     

    25 minut temu, MarekS99 napisał(a):

    Tak sobie właśnie wykombinowałem aby każdy z fitrów R G B był takim filtrem wąskopasmowym. Poszedłem dalej i wymyśliłem sobie że mogę wyciąć pasma już w aparacie .

     

    Powiem tak - nie Ty pierwszy kombinujesz, jak z achromatu zrobić apo ;) Teraz już mniej jest takich pomysłów, bo względnie dobrze skorygowane refraktory i obiektywy są coraz szerzej dostępne, ale kiedyś średnio co pół roku trafiał się kolejny odkrywca, który miał kolejny świetny pomysł na takie zabawy. Kończyło się to zawsze tak samo, to znaczy wcześniej czy później trzeba się przesiąść na lepsze szkło. Albo na Newtona, który - jako teleskop zwierciadlany - nie ma aberracji chromatycznej, a jest nawet tańszy niż achromaty.

     

    Jeszcze jeden sposób na obwódki wokół gwiazd, nad którym też się od jakiegoś czasu męczę, to usunięcie gwiazd ze zdjęcia przy pomocy StarNet++, uzyskanie w GIMP-ie warstwy tylko z gwiazdami, rozbicie jej na składowe RGB, i takie maskowanie warstwy o najbardziej nieostrych gwiazdach maskami z kolorów ostrzejszych, żeby pozbyć się obwódek. Ma to potencjał, ale jeszcze muszę nad tym posiedzieć. Ogólnie nie jest lekko, i najlepiej sprawdza się popularna tu na forum metoda, tzn. "gdy coś nie działa - kup lepsze szkło, lepszą kamerę, i Pixa" ;)

    • Lubię 1
    • Dziękuję 1
  3. To jest porównanie mojego najnowszego zdjęcia M38, po lewej RGB złożone trybem mieszania Addition, po prawej przez Compose. Jak widać wersja z Addition jest mega-rozjaśniona, z przepalonymi gwiazdami, co mnie wcale nie dziwi, bo Addition po prostu dodaje do siebie wartości z poszczególnych warstw. Nie wiem, dlaczego na tym filmiku z YT to działa - ale może dlatego, że wygląda mi to na 8-bitową, starą wersję GIMP-a, może tam to działało inaczej niż teraz.

     

    addition-vs-compose.thumb.jpg.b244b70107e55b558e9b3e1375b5665e.jpg

     

     

  4. 4 godziny temu, MarekS99 napisał(a):

    No tak ale skoro do szukania ostrości zakładam filtr kolorowy R G lub B to mogę wykonać już serię zdjęć z jednym filtrem.

     

    Możesz, ale nie ma to za wiele sensu, tak jak pisał MateuszW - szkoda czasu i światła.

     

    3 godziny temu, ko20 napisał(a):

    Tylko wyrzucenie nieostrych kanałow, przeostrzenie pod inną składową i wzięcie jej z innego kanału da Ci poprawę.

     

    Ale próbowałeś tego, że wiesz co mówisz? Czy tak Ci się tylko wydaje? ;) Poza tym nie pisze się "abberacja", tylko "aberracja" ;)

     

    3 godziny temu, ko20 napisał(a):

    Jeśli miałbyś silnik do ustawiania ostrości to można się pokusić o znalezienie przesunięcia pomiedzy kanałami RGB i automatycznego aplikowania. Czyli ustawiasz ostrość z 1 filtrem zewnetrznym R | G | B a potem zmiana o X kroków w tą czy tamtą i dostajesz zdjecia z ostrą inną barwą.

     

    Zgadza się. Ale tylko pod warunkiem, że obiektyw czy teleskop nie ma żadnego luzu na focuserze. Bo jeśli ma, to może się okazać, że puszczenie focusera o ileś kroków w jedną stronę, a potem powrót, wcale nie powróci w dokładnie to samo miejsce. Nie jest to takie proste, jak się może wydawać. Na filtrach RGB i mono jest inaczej, bo focuser po prostu tak długo ostrzy, aż jest ostro. Ale poleganie tylko na znalezionych wartościach offsetów dla poszczególnych kolorów może nie działać prawidłowo.

     

    Poza tym, niestety nie ma żadnej gwarancji, że każdy kanał, maksymalnie wyostrzony, da taką samą średnicę krążków gwiazd. Tak powinno być w teorii, ale w praktyce np. mój Samyang 135 ma tak, że kolory G i B ostrzą bardzo ładnie, gwiazdki są malutkimi punkcikami, a kolor R, nawet maksymalnie wyostrzony, i tak ma rozlane i trochę nieostre krążki gwiazd. Na OSC skutkuje to czerwonymi obwódkami wokół gwiazd, oraz zielonkawymi środkami gwiazd, bo czerwony, zamiast być skupiony tak samo jak dwa pozostałe, jest rozlany na większej powierzchni. Próba ostrzenia tym obiektywem na kamerze mono z filtrami RGB daje dokładnie taki sam efekt - to znaczy czerwonego koloru nie da się wyostrzyć tak samo dobrze, jak zielonego i niebieskiego, więc gwiazdy mają czerwone obwódki. Tu żadne triki z offsetami focusera nie pomogą.

     

    Co więcej, nawet kupno teleskopu teoretycznie dobrze skorygowanego pod względem aberracji chromatycznej, wcale nie gwarantuje prawidłowego ostrzenia wszystkich kolorów. Np. TS 76 EDPH, niby taki wyczesany astrograf, ma problem z kolorem niebieskim, który zachowuje się podobnie jak czerwony w moim Samyangu. Wiem o przynajmniej dwóch egzemplarzach tego teleskopu, które mają taki problem.

     

    Dlatego poszedłem w drugą stronę, tak jak pisałem wcześniej - ustawiam ostrość tak, żeby krążki poszczególnych kolorów były nieostre w podobny sposób. Dzięki temu obraz gwiazd mam lekko nieostry, ale za to całe światło, ze wszystkich kanałów, trafia w obręb tych krążków, co daje prawidłowe kolory bez obwódek. Zamiast ostrzenia na filtrach RGB (a w zasadzie wystarczyłby tylko R i G albo R i B, bo G i B ostrzą w ten sam punkt) ostrzę na przezroczystej folii w kolorze magenta. To powoduje, że ostrość łapię równocześnie na kolorach R i B. Kolor G wtedy też jest trochę nieostry, ale gdy dodam jeszcze obrazy wyostrzone bez kolorowej folli, to łącznie wszystkie kolory mają podobną średnicę krążków gwiazd, dzięki czemu nie ma obwódek. I to wszystko robię na jednym i tym samym balansie bieli, zawsze ustawionym na Daylight. Najpierw ustawiam ostrość maską Bahtinova bez kolorowej folii, zdejmuję maskę i focę np. przez godzinkę, a potem ustawiam ostrość na masce Bahtinova z folią magenta, zdejmuję maskę i folię, i dalej focę na pełnym OSC. Potem wszystkie klatki wrzucam razem, do jednego stackowania, bez żadnego rozbijania na kanały, bo nie ma takiej potrzeby. Wszystko leci w pełnym OSC.

     

    Co do rozbijania na składowe, i późniejszego składania takiego materiału, to w GIMP-ie jest to banalnie proste, tak jak pisze @szuu. Wrzucasz stack z OSC, rozciągnięty już, albo nie, jak chcesz, dajesz Colours - Components - Decompose, i otrzymujesz nowy obraz, składający się z trzech warstw, podpisanych red, green i blue, i zawierających te właśnie kolory. Robisz na nich co tam sobie chcesz, a potem, żeby je złożyć z powrotem, to dajesz Colours - Components - Compose, sprawdzasz czy do poszczególnych kolorów są przypisane odpowiednie warstwy, i tyle, powstaje z powrotem kolorowy obraz.

     

    Opcja Colourise działa tylko, gdy zmieni się tryb obrazu z Greyscale na RGB, ale tryb mieszania Addition nie daje właściwego efektu (właśnie sprawdziłem). A Compose działa tak jak powinno, i jest banalnie proste.

     

    Poza tym bardzo łatwo można sprawdzić, jak się zachowują poszczególne kolory na stacku w programie Siril, który od razu z automatu rozbija kolorowe fotki na R, G i B. Wystarczy powiększyć obraz np. do 200%, ustawić tak, żeby w polu widzenia były gwiazdy, i przełączać się między kanałami - widać wtedy jak na dłoni, który kanał jest ostry, a który nie. Tylko dzięki temu w ogóle wpadłem na to, że mój Samyang ma problemy z ostrzeniem w R. Od lat walczyłem z czerwonymi obwódkami i zielonkawymi środkami gwiazd, sądziłem, że robię jakieś błędy w obróbce, a dopiero gdy zacząłem używać Sirila to stało się jasne, w czym tkwi problem.

     

    Aha, jeszcze tylko dodam, że byli już macherzy, którzy używali achromatów do astrofotografii w narrowbandach - np. samo Ha. Wtedy aberracja chromatyczna nie ma większego znaczenia. Gdzieś nawet były tu na forum, albo na Astromaniaku, wątki na ten temat, ale to już było ładne kilka lat temu, więc nie wiem, czy da się to łatwo znaleźć. Po angilelsku wystarczy wpisać "Narrowband imaging with achromats" i wyskakuje trochę linków, np. ten .

  5. Zainspirowany fotkami kolegi MaPa wykorzystałem niedawną dziurę w chmurach nad Wrocławiem, żeby sprawdzić kolory gwiazd w gromadach M38 i NGC1907. Zapiąłem Canona 4000D do EDka 80 + R/FF 0,85x, posadziłem to na EQ3-2, i poleciało. 

     

    M38-rgb-compose.thumb.jpg.db57697ad21c15000bf312a482240c3d.jpg

     

    m38-opis-astap.thumb.jpg.1d2e7fb22a3bd3207871a05624b76f06.jpg

     

    Parametry:

    Canon 4000D @ ISO 400, ED 80 + R/FF 0,85, ok. 60 x 60 s, dithering w RA co 2 klatki, darki, flaty, flatdarki, stackowanie w DSS, rozciąganie w Siril, kosmetyka w GIMP, opis w ASTAP. Biegun północny nieba na górze kadru.

     

    Jak widać, w gromadzie M 38 faktycznie jest sporo niebieskawych gwiazd. Natomiast w NGC 1907 jest ich zdecydowanie mniej, podobnie jak w całej okolicy. Zróżnicowanie barwne jest spore, i dużą przyjemność sprawia mi przyglądanie się tym różnokolorowym kropeczkom :) Fajne takie szybkie akcje, i to z miasta, podstawowym sprzętem :)

     

     

    • Lubię 8
    • Dziękuję 1
  6. Godzinę temu, Iluvatar napisał(a):

    W fotografii dziennej pewnie nikt nie analizuje ostrości zdjęcia na podstawie odbicia światła w oku na 200% powiększeniu, jak to często w astrofoto się robi przy gwiazdach.

     

    A w astrofoto robi się analizę ostrości zdjęcia na podstawie odbicia światła w oku? Jeśli tak, to nic o tym nie wiem. Za to w foto dziennej jak najbardziej robi się szczegółowe testy rozdzielczości obiektywów. Tu np. pierwszy z brzegu test:

    Test Samyang 135 mm f/2.0 ED UMC - Rozdzielczość obrazu - Test obiektywu - Optyczne.pl

    Takie testy robi się, UWAGA!, na tych strasznych matrycach OSC, które są w aparatach fotograficznych, a które ponoć tak rujnują obraz, zabierają światło itp. Więc chyba z tymi matrycami OSC nie jest tak źle ;)

     

    @lkosz, dzięki za podbudowę teoretyczną :)

     

    Wydaje mi się (ale policzyć tego nie umiem), że oprócz lekkiej straty rozdzielczości matryca OSC w stosunku do mono+filtry może jeszcze dawać niższą liczba odcieni, na jakie możemy podzielić jasność. W sensie, że jeśli na OSC mamy np. trzy piksele R, oddzielone "pustymi" pikselami o innym kolorze, i po ekspozycji dostaniemy np. wartości 50-nic-56-nic-53 (dla uproszczenia w 8 bitach), to dla "pustych" pikseli będzie trzeba uśredniać, czyli 50-53-56-54,5-53, a to nam nie dodaje danych. W mono dla każdego piksela będziemy mieli rzeczywistą wartość, czyli potem przy stackowaniu mamy więcej danych do filnalnego uśredniania, co być może da nam zwiększoną dokładność w odwzorowaniu kolorów. Czyli może jest tak, że np. 16-bitowa kamera OSC da taką samą liczbę odcieni, jak 14-bitowa kamera mono+filtry. Ale to już tylko takie moje dywagacje, bo nie umiem tego wyliczyć. Ale gdy się jeszcze weźmie pod uwagę dithering, oraz to, że w OSC poszczególne filtry łapią też trochę światła z innych kolorów, to wydaje mi się, że ta ewentualna strata głębi bitowej jest pomijalna.

     

    Tak czy siak, z tego co widzę na forum, to raczej nikt nie pali 3x więcej materiału dla kamer OSC. Wszyscy palą mniej-więcej tyle samo, mniej dla jasnych obiektów, więcej dla ciemnych, i tyle.

     

    Natomiast wracając do pytania autora wątku (który zapewne już dawno z niego uciekł, widząc, że dyskusja zmierza w stronę offtopu :) ):

     

    22 godziny temu, MarekS99 napisał(a):

    Gdzieś czytałem, że robiąc zdjęcie mogę zastosować filtry kolorowe RGB, wykonać 3 sesje na każdy kanał i poskładać potem w jakimś programie.
    Interesuje mnie czy ten sam efekt uzyskam stosując 3 korekty balansu bieli w chwili robienia zdjęć?

     

    Balansem bieli wg mnie sprawy nie ogarniesz. Spróbowałbym innego podejścia - najpierw ustawiasz ostrość np. maską Bahtinova z filtrem R, zdejmujesz go, i focisz część sesji na tak ustawionej ostrości. Potem ostrzysz na filtrze G, zdejmujesz go, i znowu focisz część sesji na tak ustawionej ostrości. I potem to samo robisz dla filtra B. Uzyskasz trzy zestawy zdjęć, każdy zestaw na trochę inaczej ustawionej ostrości - czyli na każdym zestawie gwiazdy będą trochę inaczej nieostre (jeden kolor będzie ostry, pozostałe dwa nie). Przy odrobinie szczęścia wielkość nieostrych krążków będzie podobna na każdym zestawie, więc po zestackowaniu uzyskasz gwiazdy trochę nieostre, ale za to bez obwódek. Wiem, że to działa, bo podobną metodę stosuję do mojego Samyanga 135 mm, choć on akurat ma trochę inną przypadłość niż "po prostu" aberracja chromatyczna. Ale to już temat na inny raz ;)

    • Lubię 1
  7. 43 minuty temu, Iluvatar napisał(a):

    Zobacz sobie charakterystykę filtrów pokazaną przez dobregochemika. Ona jest pewnie dostosowana w taki sposób, aby zdjęcia były kolorystycznie możliwie zbliżone do tego, co widzi człowiek.

     

    Przypuszczam, że charakterystyka jest dobrana tak, żeby pomóc w interpolacji. Bo jak np. w pikselu G masz też trochę sygnału z R i B, to jest bardziej płynne przejście między sąsiednimi pikselami.

     

    43 minuty temu, Iluvatar napisał(a):

    W skrócie: szału nie ma.

     

    Jakoś fotografowie dzienni nie narzekają na jakość zdjęć z OSC ;) Że się kolory zamazują, albo że muszą palić 3x dłuższe ekspozycje, bo ich matryce mają tylko 25% pikseli R i B, a 50% pikseli G. Ja wiem, że foto dzienna to trochę inna bajka, ale zasady działania sprzętu są chyba takie same?

     

    43 minuty temu, Iluvatar napisał(a):

    Poza tym, zamiast 16 MPx masz de facto 4 MPx lub interpolujesz wyższą rozdzielczość kosztem ostrości.

     

    Oczywiście. Ale co to ma do tego, co pisze Mateusz (i nie tylko on, bo to jest tzw. "wiedza powszechna"), że matrycę OSC trzeba naświetlać 3x dłużej? Usiłuję się dowiedzieć - dlaczego?

     

    Przecież jeśli rozbijesz matrycę OSC na trzy mniejsze matryce, każda składająca się z pikseli o danym kolorze, to masz trzy mniejsze matryce mono z filtrem R, G lub B. Niby w jaki sposób każdy piksel takich mniejszych matryc miałby łapać mniej światła? Dlaczego? Każdy piksel jest mono, w OSC też, i jest mu obojętne, czy ma nad sobą filtr R, G lub B przyczepiony na stałe, czy trochę wyżej, w kole filtrowym.

     

    Ergo - każdy piksel w matrycy OSC łapie dokładnie tyle samo światła, ile łapałby w matrycy mono. Jedyna różnica to taka, że filtry RGB mają węższe zakresy, mniej się na siebie nakładające. Czyli de facto każdy piksel OSC łapie WIĘCEJ światła, niż piksele mono, bo oprócz swojego koloru łapie też trochę dwa pozostałe. Co zapewne wpływa na nieco mniejszą rozdzielczość zdjęcia - tu zgoda.  Ale chyba ta różnica w zakresach między filtrami OSC a RGB+mono nie powoduje aż konieczności wydłużenia czasu ekspozycji o 3x?

     

    Jeśli masz trzy leżące w sąsiedztwie piksele R, porozdzielane pikselami o innych kolorach, to przecież interpolacja polega na tym, że "puste" miejsca między tymi trzema pikselami R są zastępowane jakąś liczbą średnią z wartości zebranych przez te trzy piksele. A nie wartościami 0, które by mocno zaniżyły średnią. Więc obraz z matrycy OSC nie będzie ciemniejszy ani bardziej zaszumiony niż z matrycy mono. Będzie tylko mniej szczegółowy.

     

    A przynajmniej tak mi się wydaje na tzw. zdrowy rozsądek ;)

  8. 3 godziny temu, MateuszW napisał(a):

    Ogólnie w ten sposób będziesz musiał zebrać 3x więcej materiału, niż normalnie, bardzo nieefektywna metoda.

     

    7 godzin temu, MateuszW napisał(a):

    bo w kolorowej marnujesz tak mnóstwo światła (musisz zbierać 3x tyle materiału co na mono z filtrami).

     

    Mateusz, dlaczego w matrycy kolorowej marnuje się światło? Przecież każdy piksel zbiera tyle światła danego koloru, co ma zbierać. Nie jest tak, że w mono dany piksel łapie 100%, a w OSC tylko 30%. Piksele z filtrem R łapią tyle samo światła, ile piksele kamery mono z filtrem R. Analogicznie, piksele z filtrem G łapią tyle samo światła, co piksele mono z filtrem G, itd. Jedno, co się traci, to trochę na rozdzielczości, bo piksele danego koloru rozmieszczone są rzadziej - są między nimi przerwy, wypełniane interpolacją, a w mono nie. Ale światła każdy piksel OSC łapie dokładnie tyle samo, ile by łapał w wersji mono z filtrem. Czy obraz z OSC jest ciemniejszy, albo bardziej zaszumiony, niż obraz z mono (przy założeniu tych samych parametrów ekspozycji i przy tej samej charakterystyce filtrów)?

  9. 3 godziny temu, spock napisał(a):

    Ja to robiłem z powieszonym MAKiem 127 dzięki czemu mogłem na bieżąco przez kamerę sprawdzać, w którym momencie znika problem.

     

    Czyli kręciłeś silnikiem Dec z poziomu pilota, i patrzyłeś na obrazie z kamery, kiedy obraz zaczyna się przesuwać, i w którą stronę?

     

    3 godziny temu, spock napisał(a):

    spróbuj poluzować docisk ślimaka do momentu gdzie będziesz czuł minimalny luz na DEC tuż przed zaskoczeniem przełącznika

     

    To stwierdzenie jest dla mnie niejasne. Co masz na myśli pisząc "przełącznik"? Chodzi o to pokrętło z boku obudowy, które służy do podnoszenia ślimaka znad ślimacznicy? DRugie niejasne stwierdzenie - "luz na Dec". Chodzi o to, że mając np. założony sam dovetail, i używając go jako dźwigni, próbuję ruszyć osią Dec i wyczuć, czy jest luz między zwojami ślimaka a zębami ślimacznicy? Przy śrubie dociskającej ślimak do ślimacznicy dokręconej prawie na maksa luzu nie ma, a im bardziej ją luzuję, tym większa szansa, że w końcu minimalny luz się pojawi. Tak to działa np. w montażach EQ3-2 i EQ5 - jest taka odległość ślimaka od ślimacznicy, w którym oś Dec już zaczyna latać, czuć że jest luz, bo ślimak jest za daleko od ślimacznicy. Jak się dokręci śruby dociskające, zbliżając ślimak do ślimacznicy, to ten luz znika, i czuć, że zwoje ślimaka weszły głębiej między zęby ślimacznicy. 

     

    3 godziny temu, stfn napisał(a):

    Wyważyłem go teraz w trzech osiach kręcąc teleskopem w obejmach

     

    Czyli zestaw Ci nie ucieka sam z siebie w żadną stronę, mimo braku trzeciej przeciwwagi na pręcie głównej przeciwwagi?

  10. Odświeżę wątek, bo na dniach będę kupował elementy do wykonania dodatkowej przeciwwagi do CEM-a 25P (tej do "wyważenia w 3D")

     

    W dniu 2.12.2022 o 10:41, spock napisał(a):

    Mam CEM26, dobre ustawienie docisku ślimaka na DEC i zrozumienie jaki ma on wpływ na problemy obserwowane w trakcie guidingu zajmuje sporo czasu.

     

    W dniu 2.12.2022 o 12:01, spock napisał(a):

    Faktycznie poluzowanie maksymalne docisku ślimaka niweluje efekt ale jeszcze czekam na czyste niebo żeby odtrąbić sukces.

     

    Z tego co piszesz wynika, że sprawę rozwiązało mocne poluzowanie śruby dociskającej ślimak w Dec. Czyli co, mam ją odkręcić jak najdalej się da, ale tak, żeby jeszcze nie było luzu na przekładni ślimakowej?

     

    W dniu 2.12.2022 o 11:09, Krzysiek Gaudy napisał(a):

    Przy czym "dobre ustawienie" docisku ślimaka == w moim przypadku maksymalne zluzowanie w zasadzie i było po problemie, teraz mam stabilne 0,5" do 1".

     

    A czy używałeś jakiejś dodatkowej przeciwwagi w 3D? Macie z tym jakieś doświadczenia? Bo tak sobie myślę, że może ta dodatkowa przeciwwaga jest przydatna tylko wtedy, gdy teleskop z rejestratorem, lunetką do guidingu itp. nie jest idealnie symetrycznie wyważony. Ale jeśli uda mi się zestaw idealnie wyważyć, tzn. wszystko rozmieszczone symetrycznie wzdłuż długiej osi teleskopu, to może ta dodatkowa przeciwwaga nie będzie potrzebna?

     

    A w ogóle to ostatnio powiesiłem na moim CEM-ie teleskopik TS65Q - mały, ale ciężki, cięższy niż ED80. No i się okazało, że cały zestaw przy trąceniu wpada w drgania. Wprawdzie dość szybko gasną, ale jednak są. Na żadnym innym moim montażu tego nie mam, ani na EQ3-2, ani na EQ5. U was Wasze CEM-y też wpadają w drgania przy cięższym sprzęcie? Szczerze mówiąc trochę sobie nie wyobrażam wieszania na CEM-ie 25P teleskopu TS15028, który wprawdzie jest krótki, ale jednak chyba dość ciężki...

  11. 7 godzin temu, sidiouss napisał(a):

    Jeśli rozkręcisz filtr i wyjmiesz szkło, to możesz umieścić je właśnie w złączce do Nikona (nawet jest delikatny uskok na szkło), dokręcając oryginalnym ringiem z filtru

    Łooo paaniee !! Ale super patent! :)

    • Haha 1
  12. 1 godzinę temu, .zombi. napisał(a):

    seeing'u w ciągu sesji

     

    Tak tylko na marginesie - słowo "seeing" odmieniamy bez apostrofu - "seeingu", ponieważ kończy się ono na literę wymawianą. Z apostrofem odmieniamy słowa obcojęzyczne, które kończą się na literę niewymawianą, np. "iPhone" - "iPhone'a", ponieważ ostatnie "e" w słowie "ajfon" nie jest wymawiane. Dlatego piszemy też np. "Facebooka", "iOptrona", "Taira" itp. ;) Tu pierwsze z brzegu źródło :) Ale dobra, bo odbiegam od tematu.

     

    Wg mnie to właśnie osoby z największym doświadczeniem, których zdjęcia są tu uważane za referencyjne, powinny dbać o jak najwyższy poziom swoich prac, a nie tłumaczyć się, że to tyle utrudnień, zmienny seeing, ostrość uciekła, krzywizna pola, monitor źle skalibrowany itp. itd.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.