Skocz do zawartości
  • 0

Uwzględnianie fluktuacji atmosfery bez optyki aktywnej.


atnerun

Pytanie

Witam,
Podczas moich obserwacji planet czasem najpierw obserwuję obraz silnie rozogniskowany (podobnie jak podczas testu kolimacji na gwiazdę), sprawdzam jak spokojna jest atmosfera.
Zacząłem się zastanawiać czy ta informacja o stanie atmosfery nie mogła by być wykorzystana podczas komputerowej obróbki zdjęć?
Zarys pomysłu jest taki żeby rozdzielić obraz i robić ostre zdjęcie planety i jednocześnie ten rozogniskowany z widocznymi fluktuacjami atmosfery. A następnie programowo "wygładzać" obraz planety wykorzystując informację o tym jak zaburzona jest atmosfera.
Podejrzewam że zapomniałem o czymś ważnym bo jakby to by było takie proste to byśmy już podobne metody wykorzystywali.

 

Odnośnik do komentarza
Udostępnij na innych stronach

Rekomendowane odpowiedzi

  • 0

Fluktuacje cały czas się zmieniają, także w ciągu kilku minut. Nie przewidzisz tego na zapas.

Całe to nieszczęsne rozmycie usuwamy przez pierwsze stackowanie wielu zdjęć uśredniające sygnał i potem stosujemy dobieranie się do ostrego obrazu przez dekonwolucję i wavelety (programy Autostakkert, Registax itp.)

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Astro zajmuję się raptem od miesiaca, astrofotografię mam dopiero w bliżej niesprecyzowanych planach, więc nie mam pojecia czy ktoś tak próbuje robić, i czy w ogóle ma to sens. Ale zawodowo zajmuję się mikroskopią i w mikroskopii dekonwolucję 3D robi się dość standardowo. Jesliby te układy potraktować analogicznie (co niekoniecznie jest właściwe), to musiałbys mieć zmotoryzowany fokuser i zrobić stos obrazów po osi Z (czyli te przed, w i za ogniskiem). Jeśliby w kadrze była gwiazda, można by jej obraz wziąć jako PSF do dekonwolucji. Pierwszy problem to to, że w czasie robienia tego stosu, obiekty przemieszczą się w płaszczyźnie XY. Drugi problem w tym, że do planet trzeba chyba zrobić mnóstwo zdjęć, a właścwie to film. Nie wiem czy takie obrazowanie w 4 wymiarach ma szansę powodzenia z amatorskim sprzętem...

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
3 godziny temu, atnerun napisał:

Zacząłem się zastanawiać czy ta informacja o stanie atmosfery nie mogła by być wykorzystana podczas komputerowej obróbki zdjęć?

Pomysł ciekawy, tak z marszu nie umiem powiedzieć, czy z takiego obrazu dałoby się uzyskać wystarczające informacje do korekcji, ale niestety, głównym problemem nie jest pomiar, ale korekcja. Korekcja na gotowych, naświetlonych klatkach daje bardzo ograniczone efekty i nie może nawet startować do tego, co daje aktywne odginanie luster podczas tworzenia klatki. Ogólnie takie korygowanie obrazu podczas obróbki można wykonać bez dodatkowych informacji i robi to np autostakkert - to jest po prostu lokalna alignacja, czyli program dopasowuje do siebie kilkadziesiąt fragmentów planety i dokonuje deformacji klatek tak, żeby one wszystkie jak najlepiej do siebie pasowały. Czyli w ten sposób wyrównuje deformacje wywołane seeingiem. Niestety, ta metoda nie jest w stanie nic zrobić z tym, że w danym pikselu obrazu nałożył się sygnał od kilku sąsiednich pikseli, zdeformowanych przez seeing. To rozmycie na poziomie klatki jest już nieodwracalne. Można się go pozbyć jedynie podczas akwizycji za pomocą deformowalnego lustra.

 

Tak na prawdę taki "prawilny" detektor czoła fali to w sumie prosta rzecz - zwykła matryca CMOS z siatką mikrosoczewek: https://en.wikipedia.org/wiki/Shack–Hartmann_wavefront_sensor

Można taki kupić za jakieś 17k zł :) https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=5287

Problemem jest deformowalne lustro...

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
9 minut temu, twegier napisał:

Jesliby te układy potraktować analogicznie (co niekoniecznie jest właściwe), to musiałbys mieć zmotoryzowany fokuser i zrobić stos obrazów po osi Z (czyli te przed, w i za ogniskiem).

Takie podejście w astro nie ma sensu. U nas cały kosmos jest w tej samej "odległości". Cały kadr jest idealnie ostry (jak trafimy z ostrością) i nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi. W mikroskopii obserwowany obiekt ma głębię, jego część jest ostra w jednym ustawieniu focusera, a inna część jest ostra w innym. Składając takie zdjęcia z różną ostrością możemy zrekonstruować obraz, jak gdyby cały obiekt był ostry. W astronomii mamy taki obraz już na starcie, nie musimy robić nic :) 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Robi się film 3-10 tys klatek, bez kompresji. Programy zajmują się resztą, czyli składają ostre fragmenty pojedynczej klatki w stosy itd.. Popatrz na wątki o planetach.

Co do pomysłu - rzadko w polu widzenia jest gwiazda obok planety, ale np. cień księżyca na Jowiszu pomaga w ostrzeniu itp. Falowanie obrazu dokucza właśnie przy planetach, skali obrazu liczonej w ułamku sekundy łuku na pixel. AS wygląda np. tak

Image2.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
6 minut temu, MateuszW napisał:

Takie podejście w astro nie ma sensu. U nas cały kosmos jest w tej samej "odległości". Cały kadr jest idealnie ostry (jak trafimy z ostrością) i nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi. W mikroskopii obserwowany obiekt ma głębię, jego część jest ostra w jednym ustawieniu focusera, a inna część jest ostra w innym. Składając takie zdjęcia z różną ostrością możemy zrekonstruować obraz, jak gdyby cały obiekt był ostry. W astronomii mamy taki obraz już na starcie, nie musimy robić nic :) 

Tu oczywiście masz rację. W mikroskopii głównym zadaniem dekonwolucji jest przyporządkowanie sygnału do odpowiednich płaszczyzn w osi Z "grubego" obiektu. Niebo jest płaskie, więc tego aspektu tu brak. Być może jednak analiza krążków dyfrakcyjnych, których zaburzenia są spowodowane aberacjami sferycznymi optyki i stanem atmosfery, byłaby pomocna w rekonstrukcji poprawnego obrazu. Tego nie wiem, bo nigdy się tym jeszcze nie zajmowałem...

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

ciekawy temat :)

2 minuty temu, MateuszW napisał:

nie ma nic przed i za ogniskiem. Dlatego też dokładanie informacji spoza ogniska nic nie wnosi.

po rozogniskowaniu widać jaki masz kształt lustra wtórnego i pająka i widać jak przesuwają się bąble seeingu, czyli na pewno uzyskujemy jakieś dodatkowe informacje wiążące efekty seeingu z określnym miejscem na powierzchni apertury.

ale czy to jest użyteczne przy odzyskiwaniu niezniekształconego obrazu to nie mam pojęcia!

 

20 minut temu, atnerun napisał:

@twegierto faktycznie problem bo trzeba by zrobić taki stos w ułamek sekundy żeby uchwycić przekrój stanu atmosfery

jakby ktoś chciał jednak zrobić z-stack łapiący w jednej chwili stan seeingu to prosze bardzo - taką możliwość miały aparaty lytro.

może nawet pójść na skróty - zamiast z lightfielda obliczać poszczególne obrazy stacka z ktorych z kolei obliczylibyśmy PSF i z którego dopiero byłby odtwarzany niezniekształcony obraz - po prostu obliczmy prawdziwy obraz prosto z lightfielda unikając utraty danych po drodze :)

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
8 minut temu, twegier napisał:

W mikroskopii głównym zadaniem dekonwolucji jest przyporządkowanie sygnału do odpowiednich płaszczyzn w osi Z "grubego" obiektu

obawiam się, że nie rozumiesz pojęcia dekonwolucja https://pl.wikipedia.org/wiki/Dekonwolucja

to po prostu metoda usuwania szumu, który jest wpleciony w użyteczny sygnał

 

pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
8 minut temu, szuu napisał:

widać jak przesuwają się bąble seeingu, czyli na pewno uzyskujemy jakieś dodatkowe informacje wiążące efekty seeingu z określnym miejscem na powierzchni apertury.

ale czy to jest użyteczne przy odzyskiwaniu niezniekształconego obrazu to nie mam pojęcia!

Teraz jak jeszcze raz o tym myślę to chyba nawet informacja o tym jakie zniekształcenia w obrazie daje atmosfera mało da skoro manipulujemy klatką gdzie już się piksele pozlewały ze sobą. Jedynie jest szansa na skorygowanie np. rozciągnięcia fragmentu obrazu.  

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
3 minuty temu, ZbyT napisał:

obawiam się, że nie rozumiesz pojęcia dekonwolucja https://pl.wikipedia.org/wiki/Dekonwolucja

to po prostu metoda usuwania szumu, który jest wpleciony w użyteczny sygnał

 

pozdrawiam

Ja pisałem o dekonwolucji 3D w mikroskopii. Obrazowany obiekt w płaszczyznie ogniska jest "zanieczyszczony" sygnałami pochodzącymi z innych płaszczyzn, z powodu dyfrakcji. Zadaniem mikroskopowej dekonwolucji jest przyporzadkowanie tego sygnału z powrotem gdzie jego miejsce. Tu nie chodzi głównie o losowy szum. Możliwe jednak, że w różnych dziedzinach nauki dekonwolucja ma różne znaczenie. 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
8 minut temu, atnerun napisał:

skoro manipulujemy klatką gdzie już się piksele pozlewały ze sobą. Jedynie jest szansa na skorygowanie np. rozciągnięcia fragmentu obrazu.  

Dokładnie to napisałem wcześniej :) Właśnie o to chodzi, że mamy już zlany obraz i nie odzyskamy informacji pierwotnej. A rozciąganie fragmentów obrazu można zrealizować na podstawie jedynie "zwykłych klatek" i to się robi powszechnie np w Autostakkercie. Program znajduje przesunięcia fragmentów planety względem referencji i deformuje klatki tak, aby jak najlepiej pasowały.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Pokażę w praktyce, o co chodzi z tymi zlanymi klatkami. Jeśli światło po drodze do teleskopu przeszło przez komórki turbulentne znacznie mniejsze od apertury, to faktycznie ulegnie wielokrotnej dyspersji (która sama z siebie rozmywa) i refrakcji (która pomiesza światło z różnych kierunków). To chyba nie jest odwracalne nawet przez optykę adaptatywną (a na pewno nie przez program stackujący).

 

To jak pierwsza część tego wideo (surowe prosto z teleskopu, Słońce w Hα, apertura 90 mm):

 

868eb643-dacb-4e6c-8dd9-da0b33b24d5d.gif

 

Natomiast jeśli komórek jest niewiele i są duże, jest szansa na samą nieznaczną refrakcję (druga część wideo), co jedynie zniekształca/wygina obraz - to łatwo skompensować (mierzymy położenie wybranych punktów na kilkuset obrazach, średnia każdego punktu odpowiada prawdziwej lokacji).

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
9 minut temu, WielkiAtraktor napisał:

To chyba nie jest odwracalne nawet przez optykę adaptatywną (a na pewno nie przez program stackujący).

To chyba jest odwracalne optyką adaptatywną, na ile ją rozumiem :) Jednak stosuje się to dla niezwykle małych pól widzenia - rzędu sekund łuku. Chyba najwięcej ma VLT i wynosi to 30", jak dobrze pamiętam. Myślę, że chodzi tu o to, że ten sygnał, który rekonstruujemy, pochodzi tutaj z mniej więcej jednego kierunku, a promienie biegnące do różnych fragmentów lustra przechodzą przez różne komórki powietrza - i to można skorygować wyginając lustro tak, żeby wszystkie te odchylone promienie trafiły w ten jeden, ustalony "punkt" obrazu. Natomiast, gdy mamy wiele "punktów" obrazu, czyli obiekt rozciągły, o dużej wielkości kątowej, to mamy promienie lecące z różnych kierunków, padające na różne fragmenty lustra i w efekcie robi się niemożliwa do opanowania sieczka - jeśli wygniemy jakiś fragment lustra tak, żeby odchylić w dobrą stronę promień pochodzący od danego fragmentu obiektu, to już inny promień, od innego fragmentu zostanie odchylony w złą stronę.

Ogólnie wydaje mi się, że wykonanie optyką adaptatywną korekcji "wielopunktowej" jest niemożliwe, to działa poprawnie tylko z jednym punktem obrazu. Są tutaj jakieś postępy, bo właśnie VLT z tego co pamiętam rozszerzyło kilka lat temu "korygowalny" obszar, więc pewnie da się tutaj coś ugrać, ale na pełną korekcję dużych połaci obrazu raczej bym nie liczył.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Racja, faktycznie jakoś rekonstruują. Wyczytałem, że instrumenty użyte do tego zdjęcia Neptuna (GRAAL i GALACSI) używają 4 sztucznych gwiazd, rzucanych na różne wysokości w atmosferze.

35 minut temu, MateuszW napisał:

Natomiast, gdy mamy wiele "punktów" obrazu, czyli obiekt rozciągły, o dużej wielkości kątowej, to mamy promienie lecące z różnych kierunków, padające na różne fragmenty lustra i w efekcie robi się niemożliwa do opanowania sieczka

A jednak duże teleskopy słoneczne (np. BBSO w Big Bear) też mają optykę adaptatywną, i to działającą dla dużych pól widzenia (do tego bez sztucznej gwiazdy). Ciekawe slajdy: Solar Adaptive Optics @ DST and BBSO

 

aktualizacja:

 

Znalazłem kolejny opis: Adaptive Optics System for 1.6 Meter Solar Telescope in Big...

 

Cytat

The telescope aperture is sampled by a lenslet array, which in turn forms an array of images of the object (e.g. granulation) to be imaged by a camera with kHz frame rate. Cross-correlations between subaperture-images and a selected reference subaperture-image are computed via a very fast computer-Digital Signal Processor (DSP). Local wavefront tilts are computed by locating the maximum or centroid of the cross-correlations (CC) to subpixel precision. Drive signals for the Deformable Mirror (DM) are derived from the wavefront sensor data using a modal wavefront reconstruction algorithm (e.g., Madec 1999). With sufficiently good seeing, the WFS is capable of using solar granulation, or other time varying, low contrast, spatially extended targets to measure the wavefront aberrations.

 

Ciekawe, czyli mając wiele obrazków (małej rozdzielczości) z subapertur (są pokazane na drugim slajdzie z pierwszego linku) wystarczy policzyć ich wzajemne przesunięcia i na tej podstawie giąć lusterko. Z zastrzeżeniem, że dla fali ~0,5 µm działa to tylko przy przyzwoitym seeingu (dla podczerwieni 1,6 µm jest łatwiej).

Edytowane przez WielkiAtraktor
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Ja jestem świeżak, ale wydaje mi się, że przy rozogniskowanym teleskopie będziesz miał równie niewyraźny obraz atmosfery. Natomiast to, co faktycznie zobaczysz, to tylko powietrze kotłujące się w twojej rozgrzanej tubie. Dlatego aby móc powiedzieć coś o strukturze atmosfery, musiałbyś ustawić za tą atmosferą kartkę w kratkę i na nią ostrzyć. Albo zamiast tej kartki znaleźć jakiś znany obiekt. Przykładowo Mars. Na podstawie dokładnej mapy Marsa mógłbyś określić, jak atmosfera zakrzywia obraz. Ale wtedy po co robić zdjęcia Marsa? 
Zdaje mi się, że przy aktywnej optyce obserwuje się zagięcia promieni laserowych. 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Przypominam coś, na co już @szuu wiele lat temu zwrócił mi uwagę:
Fala świetlna ma amplitudę i fazę. Sensory jakimi dysponujemy mierzą tylko amplitudę. (czy tam wartość bezwzględną? Moduł? No coś takiego)

Gdy światło przechodzi przez atmosferę, degradowana jest informacja o fazie.

W zasadzie więc dysponując informacją z kamery nie sposób odtworzyć oryginalnej informacji.

Pomiar przesunięcia fazy można zrobić zdaje się sensorem Shacka-Hartmanna (ogólnie wavefront sensor - detektor czoła fali).

Natomiast korekcja przesunięcia fazowego - to już potrafi tylko deformowalne lustro.*

Czasy korekcji o których mówimy, jak słusznie zauważono, są poniżej 50ms, a obszar, jaki w ogóle można "od biedy" skorygować to kilka, kilkanaście sekund łuku (bo np. przesunięcie fazy jest powyżej 2*pi i nie wiadomo, co gdzie miało być :D

Tutaj jest doskonała lektura w temacie:

http://www.ctio.noao.edu/~atokovin/tutorial/intro.html

 

* pierwsze trzy mody to przesunięcie X, Y i Z które można korygować przesuwaniem matrycy w tych osiach, więc może i bez deformowalnego lustra coś da się ugrać. 

Edytowane przez Behlur_Olderys
Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
58 minut temu, Behlur_Olderys napisał:

Przypominam coś, na co już @szuu wiele lat temu zwrócił mi uwagę:
Fala świetlna ma amplitudę i fazę. Sensory jakimi dysponujemy mierzą tylko amplitudę. (czy tam wartość bezwzględną? Moduł? No coś takiego)

Gdy światło przechodzi przez atmosferę, degradowana jest informacja o fazie.

W zasadzie więc dysponując informacją z kamery nie sposób odtworzyć oryginalnej informacji.

Pomiar przesunięcia fazy można zrobić zdaje się sensorem Shacka-Hartmanna (ogólnie wavefront sensor - detektor czoła fali).

Natomiast korekcja przesunięcia fazowego - to już potrafi tylko deformowalne lustro.*

Czasy korekcji o których mówimy, jak słusznie zauważono, są poniżej 50ms, a obszar, jaki w ogóle można "od biedy" skorygować to kilka, kilkanaście sekund łuku (bo np. przesunięcie fazy jest powyżej 2*pi i nie wiadomo, co gdzie miało być :D

Tutaj jest doskonała lektura w temacie:

http://www.ctio.noao.edu/~atokovin/tutorial/intro.html

 

* pierwsze trzy mody to przesunięcie X, Y i Z które można korygować przesuwaniem matrycy w tych osiach, więc może i bez deformowalnego lustra coś da się ugrać. 

Gdzieś w mojej starszawej głowie kołacze coś na temat fazy frontu falowego obrazowanej przez transformatę Fouriera, której w optyce dokonuje zwykła soczewka. Co do korekty przesunięcia to dawno dawno temu rozważano materiały o nieliniowym współczynniku załamania zmienianym pod wpływem np. silnego strumienia światła np. laserowego. Można sobie wyobrazić taki element optyczny bombardowany punktowo silnymi impulsami w celu zmiany współczynnika załamania w czasie rzeczywistym w celu korekcji obrazu. Ale raczej nie w amatorskim sprzęcie.

W ramach pracy magisterskiej robiłem filtry holograficzne do "zdejmowania" zniekształcenia analogowego obrazu transmitowanego przez światłowód wielomodowy, gdzie właśnie faza się rozjeżdżała, bo poszczególne mody miały różną drogę optyczną. Tyle, że to zniekształcenie było statyczne, a atmosfera raczej statyczna nie bywa ;-).  

Edytowane przez apolkowski
Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
Godzinę temu, dobrychemik napisał:

Bartek, gdyby dało się coś ugrać mikroruchami matrycy to byłoby świetnie. Takie coś spokojnie by działało nawet w sprzęcie amatorskim - koszt nie powinien być porażający. Pytanie zatem dlaczego tego nikt nie wcielił w życie? 

 

Wcielił, wcielił :)
https://diffractionlimited.com/product/ao-x/

Tylko że rezultat jest mizerny, bo przecież gwiazdka na środku matrycy będzie się ruszała w lewo, a na krawędzi - np. w dół.

To bardziej taki bajer do likwidacji drgań montażu.

 

Druga sprawa: gdy nagrywasz filmik i alignujesz do jednej gwiazdy - to też właśnie robisz korekcję tip-tilt.

 

A czy amatorsko dało by radę przeskoczyć rozwiązanie sbiga? Pewnie tak. Ale dobre podejście wymagałoby

- beamsplittera w środku toru optycznego

- piezoelektrycznej platformy do matrycy

- superszybkiego detektora przesunięcia (np quadruple avalanche photodiode)

- trochę softu, trochę toczenia, trochę taśmy klejącej, trochę drukarki 3d :)

No i efekt miałby - moim zdaniem - ograniczoną używalność, bo tylko do naprawdę dużej skali.

 

BTW:

zestawy w Thorlabs już od kilkunastu tysięcy euro :)
https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=3208

 

I takie lusterka:

https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=5056

 

PS
A tutaj jeszcze: o czym my mówimy, a o czym jeszcze można mówić:
https://www.eso.org/sci/facilities/develop/ao/ao_modes/.html

 

Amatorscy astronomowie mają sporo do nadgonienia :P

 

Edytowane przez Behlur_Olderys
  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

  • 0

Mamy tylu zdolnych ludzi zajmujących się modyfikacjami sprzętu i tabuny informatyków/programistów. Czy nie dałoby się stworzyć polskiego projektu i realizacji amatorskiej optyki adaptacyjnej? Mikromechanika tanieje, moc obliczeniowa laptopów rośnie, zdolni ludzie tracą czas na robienie rozmytych seeingiem fotek amelikana i M31... Ludzie, zróbcie coś poważniejszego, na czym przy okazji będziecie mogli zarobić.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 0
2 minuty temu, dobrychemik napisał:

Mamy tylu zdolnych ludzi zajmujących się modyfikacjami sprzętu i tabuny informatyków/programistów. Czy nie dałoby się stworzyć polskiego projektu i realizacji amatorskiej optyki adaptacyjnej? Mikromechanika tanieje, moc obliczeniowa laptopów rośnie, zdolni ludzie tracą czas na robienie rozmytych seeingiem fotek amelikana i M31... Ludzie, zróbcie coś poważniejszego, na czym przy okazji będziecie mogli zarobić.

Ile to już razy rozmyślałem nad tym :) Niestety, gotowe deformowalne lustra oraz detektory czoła fali są wciąż tak samo strasznie drogie... Jeśli ktoś potrafi zbudować takie lustro z pojedynczych siłowników za powiedzmy 10k, to zapraszam na PW :) Jedyne co wydaje się obecnie realne cenowo do stworzenia to rozwiązanie analogiczne do AO SBIGa - to urządzenie pozwala na szybkie korekty położenia całego kadru, więc jest to właściwie taki szybki guiding, który jednak nadąża za seeingiem - pozwala to na usunięcie głównego składnika seeingu oraz idealne guidowanie montażu - w efekcie ostrość zauważalnie rośnie. Niestety to tylko namiastka AO.

Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz na pytanie...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.