Skocz do zawartości

Balans bieli vs. filtry kolorowe


MarekS99

Rekomendowane odpowiedzi

Witajcie

Mam pytanie. Mój achromat SW 120/600 ma dużą aberrację chromatyczną. Chcąc fotografować obiekty głębokiego nieba uzyskuje spore niebieskie obwódki wokół gwiazd. Gdzieś czytałem, że robiąc zdjęcie mogę zastosować filtry kolorowe RGB, wykonać 3 sesje na każdy kanał i poskładać potem w jakimś programie.
Interesuje mnie czy ten sam efekt uzyskam stosując 3 korekty balansu bieli w chwili robienia zdjęć? Czy ustawiając ostrość na obiekt i filtrując go (skorygowanym balansem) uzyskam efekt eliminacji aberracji? Czy zmieniając na każdy kolor osobno (czerwień niebieski a potem zielony) ogniskowanie aparatu zmieni się czy to tylko filtrowanie wg koloru a ognisko pozostaje w tym samym miejscu?

Odnośnik do komentarza
Udostępnij na innych stronach

Teoretycznie pomogłoby zrobienie 3x zdjęcia z różnym ustawieniem ostrości ( 1. tak, żeby kolor czerwony był ostry, 2. tak żeby zielony był ostry i 3. tak, żeby niebieski był ostry). Potem stackujesz kanały osobno i składasz RGB z osobnych kanałów. Balans bieli nie ma tu znaczenia.

 

Tylko, że to marnowanie światła (dla R i B odrzucisz 75% światła a dla G 50%).

Odnośnik do komentarza
Udostępnij na innych stronach

1 hour ago, MarekS99 said:

Witajcie

Mam pytanie. Mój achromat SW 120/600 ma dużą aberrację chromatyczną. Chcąc fotografować obiekty głębokiego nieba uzyskuje spore niebieskie obwódki wokół gwiazd. Gdzieś czytałem, że robiąc zdjęcie mogę zastosować filtry kolorowe RGB, wykonać 3 sesje na każdy kanał i poskładać potem w jakimś programie.
Interesuje mnie czy ten sam efekt uzyskam stosując 3 korekty balansu bieli w chwili robienia zdjęć? Czy ustawiając ostrość na obiekt i filtrując go (skorygowanym balansem) uzyskam efekt eliminacji aberracji? Czy zmieniając na każdy kolor osobno (czerwień niebieski a potem zielony) ogniskowanie aparatu zmieni się czy to tylko filtrowanie wg koloru a ognisko pozostaje w tym samym miejscu?

Ty tam juz masz na matycy filtry kolorowe RGB. Po co kupować nowe. Problem nie bierze się z braku filtrów tylko w ustawieniu ostrości. Nieostry obraz gwaizdy jest rozmyty, znasz to zwizuala zapewne, ze jak jest nieostra to ma dużą średnice. Ostrość dla R G i B jest w róznych miejscach. Jesli przykladowo obraz w G i B jest punktowy  a w R duża rozmyta kropa, to bedziesz miał czerwoną obwódkę. Przeostrzysz, zrobisz tak zeby w R był obraz puntowy to któryś inny kolor zrobi się duża kropą i wygeneruje obwódke.

Odnośnik do komentarza
Udostępnij na innych stronach

No i właśnie o to mi chodzi. Nie chcę stosować żadnego dodatkowego zewnętrznego filtra. Chcę wymóc na aparacie filtrowanie poprzez korektę balansu bieli w ten sposób że wycinam wszystkie barwy poza jedną. I o to zapytałem. Czy w ten sposób zastąpię filtr kolorowy?
Robiąc zdjęcia kolorowe zwykłą lustrzanką dokładnie tracę tyle samo światła w stosunku do tego gdybym robił zdjęcia kamerą mono - to jest jasne.
Moje pytanie jest takie czy stosując opisana przeze mnie metodę uzyskam ostry obraz nap na kolorze niebieskim
 

Screenshot_8.png

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli używasz komputera do akwizycji to chyba da się zrobić w LiveView w SharpCapie (zobacz: https://docs.sharpcap.co.uk/4.0/9_TheToolBar.htm Preview FX (effects)), za pomocą balansu bieli - myślę, że tak średnio.

Edytowane przez WojtasSP320
Odnośnik do komentarza
Udostępnij na innych stronach

Teraz, WojtasSP320 napisał(a):

Jeśli używasz komputera do akwizycji to chyba da się zrobić w LiveView w SharpCapie (zobacz: Preview FX (effects)), za pomocą balansu bieli - myślę, że tak średnio.

Kompa używam tylko na początku. Ustawiam ostrość na maskę Bahtinova, potem dobieram czas i odłączam kompa. Resztę pracy wykonuje interwałometr (ilość klatek i czas).
Z poziomu lapka mogę sterować czasem ale tylko do 3o sekund. Nie pamiętam czy mogę zmieniać balans bieli. 

Odnośnik do komentarza
Udostępnij na innych stronach

Korektą balansu tego nie zrobisz, aparat raczej nie ma takiej funkcji. W obróbce w programie graficznym musiałbyś dopiero rozdzielić kanały i usunąć dwa zbędne, ale trzeba to zrobić na surowym rawie - przed zastosowaniem balansu bieli, bo on Ci wymiesza kolory i wyłuskany kanał R będzie zawierał też część informacji z G i B.

Ogólnie w ten sposób będziesz musiał zebrać 3x więcej materiału, niż normalnie, bardzo nieefektywna metoda. W tym zastosowaniu sprawdziłaby się kamera mono z filtrami, nie zmarnuje czasu i da też możliwość indywidualnego ostrzenia. Ale wiadomo, koszty.

Może lepiej zastosować jakiś filtr ograniczający aberrację? Semi apo, czy inne wynalazki. Jako taki kompromis.

Odnośnik do komentarza
Udostępnij na innych stronach

Zwróćcie jeszcze uwagę, że filtry w masce Beyera to są byle jakie filtry i powyżej proponowany sposób wcale nie da bardzo dobrych rezultatów. Na przykład kanał R dla 400nm ma tylko 4-5 razy mniejszą czułość niż kanał B. Czyli fioletowe obwódki wokół gwiazd będą też pojawiały się w kanale R. W G też. Z kolei czerwone obwódki wynikające z niedobrze ustawionej ostrości w okolicy 700 nm dadzą bardzo silny sygnał w kanale G. Ogólnie bieda, nie tędy droga.

294QE

Odnośnik do komentarza
Udostępnij na innych stronach

39 minut temu, Miesilmannimea napisał(a):

Zmiana balansu bieli w aparacie nie zmienia kompletnie NIC w zapisanym zdjęciu.

To tylko informacja dla oprogramowania jak ma odczytać RAWa. Można to wykorzystać albo olać i otwierać jak komu pasuje.

Zgadza się, tylko @MarekS99 szuka sposobu na "wyostrzenie na kanał" (czyli po prostu LiveView konkretnego kanału) a potem chce zbierać już normalnie materiał (tylko że 3 razy z różną ostrością - na R, na G i na B).

@MarekS99 jeśli i tak podłączasz na początku sesji laptopa to użyłbym po prostu SharpCapa z podglądem tylko jednego kanału i problem rozwiązany.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

2 godziny temu, WojtasSP320 napisał(a):

Zgadza się, tylko @MarekS99 szuka sposobu na "wyostrzenie na kanał" (czyli po prostu LiveView konkretnego kanału) a potem chce zbierać już normalnie materiał (tylko że 3 razy z różną ostrością - na R, na G i na B).

@MarekS99 jeśli i tak podłączasz na początku sesji laptopa to użyłbym po prostu SharpCapa z podglądem tylko jednego kanału i problem rozwiązany.

Ale ostrzenie i tak muszę wykonać dla każdego kanału osobno bo używam lustrzanki jak wspomniałem na początku 

Edytowane przez MarekS99
Odnośnik do komentarza
Udostępnij na innych stronach

Zostaje albo zmiana kamery na mono, albo zmiana teleskopu na Newtona lub APO. Na uzyskanym zdjęciu i tak masz ostre okolice zieleni/żółtego, bo ustawiałeś "okiem" a ono jest najbardziej czułe na środek widocznego widma czyli na żółty. Cytując mądrości google:

"oko jest około dwadzieścia pięć razy czulsze na światło o długości fali równej 555 nm (żółty), niż dla długości fali równej 670 nm (głęboka czerwień) lub 450 nm (fioletowo-niebieski)."

A potem okaże się, że ostrość padła, bo temperatura teleskopu się zmieniła itd. Trzeba by zmienić tubę... Zobaczyłeś właśnie wierzchołek góry lodowej :)

Odnośnik do komentarza
Udostępnij na innych stronach

3 godziny temu, MateuszW napisał(a):

Ogólnie w ten sposób będziesz musiał zebrać 3x więcej materiału, niż normalnie, bardzo nieefektywna metoda.

 

7 godzin temu, MateuszW napisał(a):

bo w kolorowej marnujesz tak mnóstwo światła (musisz zbierać 3x tyle materiału co na mono z filtrami).

 

Mateusz, dlaczego w matrycy kolorowej marnuje się światło? Przecież każdy piksel zbiera tyle światła danego koloru, co ma zbierać. Nie jest tak, że w mono dany piksel łapie 100%, a w OSC tylko 30%. Piksele z filtrem R łapią tyle samo światła, ile piksele kamery mono z filtrem R. Analogicznie, piksele z filtrem G łapią tyle samo światła, co piksele mono z filtrem G, itd. Jedno, co się traci, to trochę na rozdzielczości, bo piksele danego koloru rozmieszczone są rzadziej - są między nimi przerwy, wypełniane interpolacją, a w mono nie. Ale światła każdy piksel OSC łapie dokładnie tyle samo, ile by łapał w wersji mono z filtrem. Czy obraz z OSC jest ciemniejszy, albo bardziej zaszumiony, niż obraz z mono (przy założeniu tych samych parametrów ekspozycji i przy tej samej charakterystyce filtrów)?

Odnośnik do komentarza
Udostępnij na innych stronach

27 minut temu, Piotr K. napisał(a):

Mateusz, dlaczego w matrycy kolorowej marnuje się światło? Przecież każdy piksel zbiera tyle światła danego koloru, co ma zbierać. Nie jest tak, że w mono dany piksel łapie 100%, a w OSC tylko 30%. Piksele z filtrem R łapią tyle samo światła, ile piksele kamery mono z filtrem R. Analogicznie, piksele z filtrem G łapią tyle samo światła, co piksele mono z filtrem G, itd. Jedno, co się traci, to trochę na rozdzielczości, bo piksele danego koloru rozmieszczone są rzadziej - są między nimi przerwy, wypełniane interpolacją, a w mono nie. Ale światła każdy piksel OSC łapie dokładnie tyle samo, ile by łapał w wersji mono z filtrem. Czy obraz z OSC jest ciemniejszy, albo bardziej zaszumiony, niż obraz z mono (przy założeniu tych samych parametrów ekspozycji i przy tej samej charakterystyce filtrów)?

 

Nie do końca. Zobacz sobie charakterystykę filtrów pokazaną przez dobregochemika. Ona jest pewnie dostosowana w taki sposób, aby zdjęcia były kolorystycznie możliwie zbliżone do tego, co widzi człowiek. W skrócie: szału nie ma. Poza tym, zamiast 16 MPx masz de facto 4 MPx lub interpolujesz wyższą rozdzielczość kosztem ostrości. A jakby nie patrzeć, głównym składnikiem ceny kamery jest rozmiar matrycy.

Odnośnik do komentarza
Udostępnij na innych stronach

43 minuty temu, Iluvatar napisał(a):

Zobacz sobie charakterystykę filtrów pokazaną przez dobregochemika. Ona jest pewnie dostosowana w taki sposób, aby zdjęcia były kolorystycznie możliwie zbliżone do tego, co widzi człowiek.

 

Przypuszczam, że charakterystyka jest dobrana tak, żeby pomóc w interpolacji. Bo jak np. w pikselu G masz też trochę sygnału z R i B, to jest bardziej płynne przejście między sąsiednimi pikselami.

 

43 minuty temu, Iluvatar napisał(a):

W skrócie: szału nie ma.

 

Jakoś fotografowie dzienni nie narzekają na jakość zdjęć z OSC ;) Że się kolory zamazują, albo że muszą palić 3x dłuższe ekspozycje, bo ich matryce mają tylko 25% pikseli R i B, a 50% pikseli G. Ja wiem, że foto dzienna to trochę inna bajka, ale zasady działania sprzętu są chyba takie same?

 

43 minuty temu, Iluvatar napisał(a):

Poza tym, zamiast 16 MPx masz de facto 4 MPx lub interpolujesz wyższą rozdzielczość kosztem ostrości.

 

Oczywiście. Ale co to ma do tego, co pisze Mateusz (i nie tylko on, bo to jest tzw. "wiedza powszechna"), że matrycę OSC trzeba naświetlać 3x dłużej? Usiłuję się dowiedzieć - dlaczego?

 

Przecież jeśli rozbijesz matrycę OSC na trzy mniejsze matryce, każda składająca się z pikseli o danym kolorze, to masz trzy mniejsze matryce mono z filtrem R, G lub B. Niby w jaki sposób każdy piksel takich mniejszych matryc miałby łapać mniej światła? Dlaczego? Każdy piksel jest mono, w OSC też, i jest mu obojętne, czy ma nad sobą filtr R, G lub B przyczepiony na stałe, czy trochę wyżej, w kole filtrowym.

 

Ergo - każdy piksel w matrycy OSC łapie dokładnie tyle samo światła, ile łapałby w matrycy mono. Jedyna różnica to taka, że filtry RGB mają węższe zakresy, mniej się na siebie nakładające. Czyli de facto każdy piksel OSC łapie WIĘCEJ światła, niż piksele mono, bo oprócz swojego koloru łapie też trochę dwa pozostałe. Co zapewne wpływa na nieco mniejszą rozdzielczość zdjęcia - tu zgoda.  Ale chyba ta różnica w zakresach między filtrami OSC a RGB+mono nie powoduje aż konieczności wydłużenia czasu ekspozycji o 3x?

 

Jeśli masz trzy leżące w sąsiedztwie piksele R, porozdzielane pikselami o innych kolorach, to przecież interpolacja polega na tym, że "puste" miejsca między tymi trzema pikselami R są zastępowane jakąś liczbą średnią z wartości zebranych przez te trzy piksele. A nie wartościami 0, które by mocno zaniżyły średnią. Więc obraz z matrycy OSC nie będzie ciemniejszy ani bardziej zaszumiony niż z matrycy mono. Będzie tylko mniej szczegółowy.

 

A przynajmniej tak mi się wydaje na tzw. zdrowy rozsądek ;)

Edytowane przez Piotr K.
Odnośnik do komentarza
Udostępnij na innych stronach

Na moje oko @Piotr K. ma rację. Matryca z maską Bayera ma mniejszą czułość od analogicznej matrycy bez tej maski. No i to jest prawda - każdy piksel wysyca się wolniej, bo ma przed sobą filtr pasmowo-przepustowy. Wywodzenie z tego wnosku, że ASI183MM + zestaw filtrów RGB zbierze szybciej materiał, niż ASI183MC z filtrem L z przodu jest już mocno śliskie (dla uproszenia wybrałem matrycę 183, mają tę samą deklarowaną QE=0.84). Spójrzmy na wykresy QE matryc:

1.jpg.505ec816fb475344911c61cbbe38ec13.jpg

2.jpg.21764f633da75a17e328693f3baa2a02.jpg

oraz transmisyjności filtrów

3.jpg.07fee77190bf37396b4bf0f47df30db9.jpg

 

ASI183MC + filtr L szybciej się wysyci na wybranych pikselach niż ASI183MM + wybrnany R/G/B. Jak powymnażać i przecałkować, to nie wyjdzie trzykrotna różnica.

Edytowane przez lkosz
Odnośnik do komentarza
Udostępnij na innych stronach

12 godzin temu, Piotr K. napisał(a):

Jakoś fotografowie dzienni nie narzekają na jakość zdjęć z OSC ;) Że się kolory zamazują, albo że muszą palić 3x dłuższe ekspozycje, bo ich matryce mają tylko 25% pikseli R i B, a 50% pikseli G. Ja wiem, że foto dzienna to trochę inna bajka, ale zasady działania sprzętu są chyba takie same?

W fotografii dziennej pewnie nikt nie analizuje ostrości zdjęcia na podstawie odbicia światła w oku na 200% powiększeniu, jak to często w astrofoto się robi przy gwiazdach.

Odnośnik do komentarza
Udostępnij na innych stronach

Godzinę temu, Iluvatar napisał(a):

W fotografii dziennej pewnie nikt nie analizuje ostrości zdjęcia na podstawie odbicia światła w oku na 200% powiększeniu, jak to często w astrofoto się robi przy gwiazdach.

 

A w astrofoto robi się analizę ostrości zdjęcia na podstawie odbicia światła w oku? Jeśli tak, to nic o tym nie wiem. Za to w foto dziennej jak najbardziej robi się szczegółowe testy rozdzielczości obiektywów. Tu np. pierwszy z brzegu test:

Test Samyang 135 mm f/2.0 ED UMC - Rozdzielczość obrazu - Test obiektywu - Optyczne.pl

Takie testy robi się, UWAGA!, na tych strasznych matrycach OSC, które są w aparatach fotograficznych, a które ponoć tak rujnują obraz, zabierają światło itp. Więc chyba z tymi matrycami OSC nie jest tak źle ;)

 

@lkosz, dzięki za podbudowę teoretyczną :)

 

Wydaje mi się (ale policzyć tego nie umiem), że oprócz lekkiej straty rozdzielczości matryca OSC w stosunku do mono+filtry może jeszcze dawać niższą liczba odcieni, na jakie możemy podzielić jasność. W sensie, że jeśli na OSC mamy np. trzy piksele R, oddzielone "pustymi" pikselami o innym kolorze, i po ekspozycji dostaniemy np. wartości 50-nic-56-nic-53 (dla uproszczenia w 8 bitach), to dla "pustych" pikseli będzie trzeba uśredniać, czyli 50-53-56-54,5-53, a to nam nie dodaje danych. W mono dla każdego piksela będziemy mieli rzeczywistą wartość, czyli potem przy stackowaniu mamy więcej danych do filnalnego uśredniania, co być może da nam zwiększoną dokładność w odwzorowaniu kolorów. Czyli może jest tak, że np. 16-bitowa kamera OSC da taką samą liczbę odcieni, jak 14-bitowa kamera mono+filtry. Ale to już tylko takie moje dywagacje, bo nie umiem tego wyliczyć. Ale gdy się jeszcze weźmie pod uwagę dithering, oraz to, że w OSC poszczególne filtry łapią też trochę światła z innych kolorów, to wydaje mi się, że ta ewentualna strata głębi bitowej jest pomijalna.

 

Tak czy siak, z tego co widzę na forum, to raczej nikt nie pali 3x więcej materiału dla kamer OSC. Wszyscy palą mniej-więcej tyle samo, mniej dla jasnych obiektów, więcej dla ciemnych, i tyle.

 

Natomiast wracając do pytania autora wątku (który zapewne już dawno z niego uciekł, widząc, że dyskusja zmierza w stronę offtopu :) ):

 

22 godziny temu, MarekS99 napisał(a):

Gdzieś czytałem, że robiąc zdjęcie mogę zastosować filtry kolorowe RGB, wykonać 3 sesje na każdy kanał i poskładać potem w jakimś programie.
Interesuje mnie czy ten sam efekt uzyskam stosując 3 korekty balansu bieli w chwili robienia zdjęć?

 

Balansem bieli wg mnie sprawy nie ogarniesz. Spróbowałbym innego podejścia - najpierw ustawiasz ostrość np. maską Bahtinova z filtrem R, zdejmujesz go, i focisz część sesji na tak ustawionej ostrości. Potem ostrzysz na filtrze G, zdejmujesz go, i znowu focisz część sesji na tak ustawionej ostrości. I potem to samo robisz dla filtra B. Uzyskasz trzy zestawy zdjęć, każdy zestaw na trochę inaczej ustawionej ostrości - czyli na każdym zestawie gwiazdy będą trochę inaczej nieostre (jeden kolor będzie ostry, pozostałe dwa nie). Przy odrobinie szczęścia wielkość nieostrych krążków będzie podobna na każdym zestawie, więc po zestackowaniu uzyskasz gwiazdy trochę nieostre, ale za to bez obwódek. Wiem, że to działa, bo podobną metodę stosuję do mojego Samyanga 135 mm, choć on akurat ma trochę inną przypadłość niż "po prostu" aberracja chromatyczna. Ale to już temat na inny raz ;)

Edytowane przez Piotr K.
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

15 godzin temu, Piotr K. napisał(a):

Mateusz, dlaczego w matrycy kolorowej marnuje się światło?

Ja odnosiłem się do sytuacji z tego wątku, nie użycia OSC w ogólności. Czyli porównuję użycie kamery mono z filtrami oraz OSC (lustrzanka) gdy wyodrębniamy z klatek pojedyncze kanały R, G i B, robiąc osobne serie dla każdego koloru.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

21 godzin temu, Piotr K. napisał(a):

 

Balansem bieli wg mnie sprawy nie ogarniesz. Spróbowałbym innego podejścia - najpierw ustawiasz ostrość np. maską Bahtinova z filtrem R, zdejmujesz go, i focisz część sesji na tak ustawionej ostrości. Potem ostrzysz na filtrze G, zdejmujesz go, i znowu focisz część sesji na tak ustawionej ostrości. I potem to samo robisz dla filtra B. Uzyskasz trzy zestawy zdjęć, każdy zestaw na trochę inaczej ustawionej ostrości - czyli na każdym zestawie gwiazdy będą trochę inaczej nieostre (jeden kolor będzie ostry, pozostałe dwa nie). Przy odrobinie szczęścia wielkość nieostrych krążków będzie podobna na każdym zestawie, więc po zestackowaniu uzyskasz gwiazdy trochę nieostre, ale za to bez obwódek. Wiem, że to działa, bo podobną metodę stosuję do mojego Samyanga 135 mm, choć on akurat ma trochę inną przypadłość niż "po prostu" aberracja chromatyczna. Ale to już temat na inny raz ;)

Hmm. No tak ale skoro do szukania ostrości zakładam filtr kolorowy R G lub B to mogę wykonać już serię zdjęć z jednym filtrem.  Ustawiłbym w balansie bieli "słońce" i bez korekty barwy. Każda seria ostrzona osobno musiałaby odbywać się z takimi samymi ustawieniami Wtedy każdy piksel matrycy przyjmie światło jakbym robił zdjęcie kolorowe. Stackowałbym każdą serię osobno jako osobny kolor. Niestety nigdy jeszcze nie składałem jednego obrazu z trzech kanałów i tu widzę spory problem, bo każdy z trzech obrazów w wyniku stackowania może mieć trochę inna skalę...

Edytowane przez MarekS99
Odnośnik do komentarza
Udostępnij na innych stronach

31 minutes ago, MarekS99 said:

Hmm. No tak ale skoro do szukania ostrości zakładam filtr kolorowy R G lub B to mogę wykonać już serię zdjęć z jednym filtrem.  Ustawiłbym w balansie bieli "słońce" i bez korekty barwy. Każda seria ostrzona osobno musiałaby odbywać się z takimi samymi ustawieniami Wtedy każdy piksel matrycy przyjmie światło jakbym robił zdjęcie kolorowe. Stackowałbym każdą serię osobno jako osobny kolor. Niestety nigdy jeszcze nie składałem jednego obrazu z trzech kanałów i tu widzę spory problem, bo każdy z trzech obrazów w wyniku stackowania może mieć trochę inna skalę...

No ale chyba nie unikniesz skaładania barwa z 3 zdjęć RGB jeśli chcesz sie pozbyc abberacji chromatycznej. W 3 roznych ustawieniach ostrości, zawsze jeden (inny) kanał dostajesz maksymalnie ostry. Zmiana ostrości i sztuczki pomagajace ustawić ostrość pod któryś kanał, nie zlikwidują tej abberacji. Tylko wyrzucenie nieostrych kanałow, przeostrzenie pod inną składową i wzięcie jej z innego kanału da Ci poprawę.

Jeśli miałbyś silnik do ustawiania ostrości to można się pokusić o znalezienie przesunięcia pomiedzy kanałami RGB i automatycznego aplikowania. Czyli ustawiasz ostrość z 1 filtrem zewnetrznym R | G | B a potem zmiana o X kroków w tą czy tamtą i dostajesz zdjecia z ostrą inną barwą.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.