Skocz do zawartości

Piotr K.

Społeczność Astropolis
  • Postów

    1 055
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Piotr K.

  1. Darki nie usuną losowego szumu, co najwyżej dodadzą własny. Jakim teleskopem robiona była ta fotka? Jakie konkretnie to są filtry? Jaka szerokość pasma? Czy były mierzone przez @dobrychemik? Czy przepuszczają to, co mają przepuszczać, i czy pasują do światłosiły Twojego teleskopu? Moja hipoteza jest taka, że może filtry puszczają mniej sygnału NB niż powinny. Próbujesz wyciągać obiekty do odpowiedniego poziomu, ale ponieważ sygnału jest za mało, to wychodzi szum.
  2. W analogii z wiaderkami też jest szum - czyli niedokładność pomiaru tego, ile rzeczywiście z nieba leci kropel deszczu w jednostce czasu. "Szumem" w tej analogii są różnice w ilości wody w wiaderkach po zakończeniu "ekspozycji", czyli zamknięciu nad wiaderkami jakiegoś daszku, który nam odcina wpadanie kropel deszczu.
  3. A czy ja gdzieś napisałem, że 2400 jest lepsza od 2600? Przecież piszę tylko, że piksel kamery 2400 łapie 2,5x więcej światła. ALE równocześnie ta kamera traci na rozdzielczości względem 2600. Nie ma lepszych ani gorszych kamer, każda się nadaje do czegoś innego, i właśnie dlatego trzeba sobie zdawać sprawę z zależności, które wchodzą w grę, żeby móc podejmować świadome decyzje.
  4. W którym konkretnie miejscu moje wyliczenia nie zgadzają się z podstawową arytmetyką? Pokazałem na podstawowym przykładzie, jak się liczy SNR dla obrazu w astrofoto. Taka jest zasada - lecące z nieba fotony podlegają rozkładowu poissonowskiemu, a on ma właśnie taką cechę, że szum (niepewność) jest równy pierwiastkowi z wartości sygnału. Możesz dowolnie temu zaprzeczać, nie zgadzać się i odsyłać mnie do kąta, żebym się douczył, ale niestety jest tak jak piszę
  5. Wieśku, jeśli uważasz, że jest w tym jakiś błąd logiczny albo obliczeniowy, to wykaż go, proszę.
  6. Dobra, to jeszcze raz. Na jeden piskel o QE 60% padło 1000 fotonów, z czego zarejestrowało się 600. To jest nasz sygnał. Szum tego sygnału (nasza niepewność co do rzeczywistej liczby fotonów) wynosi pierwiastek z tego, czyli 24,5. SNR = 24,5. Jeśli masz 4 piksele na tej samej powierzchni, to na każdy z nich, średnio biorąc, padnie nie 1000, tylko 1/4 z tego, czyli ok. 250 fotonów. Z tego w każdym pikselu zarejestruje się 90%, czyli ok. 225 fotonów. Szum takego sygnału, czyli nasza niepewność co do rzeczywistej liczby fotonów lecących z nieba, ponownie wynosi pierwiastek z tego, czyli ok. 15. Czyli nasz SNR wynosi ok. 15. Czyli dla dwa razy mniejszych pikseli o QE 90% SNR jest ok. 1,6x gorszy, niż dla pikseli większych, ale o QE 60%. Masz bardziej szczegółowy, ale bardziej zaszumiony obraz. Mimo, że na obie matryce padła ta sama liczba fotonów.
  7. Kolego - tak. ALE SNR liczby tych fotonów będzie inny. Lepszy dla tych zsumowanych, bo jest ich więcej. Czy Ty w ogóle wiesz, co to jest sygnał, i co to jest szum? Skąd się to bierze, i dlaczego jest tak, że szum rośnie z pierwiastkiem?
  8. @holeris No i o to dokładnie chodzi. To jest w gruncie rzeczy banalnie proste, więc też nie rozumiem, dlaczego to budzi taką zażartą dyskusję. Na obie matryce z Twojego przykładu spadnie dokładnie tyle samo fotonów. Tyle że jedna da mało zaszumiony, ale mało szczegółowy obraz, a druga bardziej szczegółowy, ale też bardziej zaszumiony, bo na jeden piksel przypadnie mało fotonów. A obraz jest tworzony przez piksele, a nie przez matyce jako całość. Więc większy szum na pikselach = większy szum na całym obrazie. I nie ma znaczenia, że na obie matryce pada tyle samo fotonów, ważne jest to, ile pada na piksel.
  9. Kolejny bardzo merytoryczny i przemyślany argument
  10. Rozmiar matrycy nie, ale rozmiar piksela - jak najbardziej. Proszę bardzo, na przykładzie ED-ka 80: Mamy teleskop o aperturze 80 i ogniskowej 600 mm, zakładamy do niego reduktor ogniskowej 0,85x i mamy ogniskową 510 mm. Czyli światłosiła f/6.375. Gdy założymy do niego np. aparat Canon 1100D, z pikselem 5,2 um, to mamy skalę 2,10 arcsec/px. QE tego piksela wynosi 36%, czyli efektywna powierzchnia piksela to 5,2x5,2x0,36=9,73 um^2 To teraz zakładamy do tego samego teleskopu z reduktorem Canona 6D, z pikselem 6,54 um. Skala, czyli szczegółowość odwzorowania, spada nam do 2,64 arcsec/px. QE pikseli Canona 6D wynosi ok. 50%, więc efektywna powierzchnia tych pikseli to 6,54x6,54x0,5=21,38 um^2. To oznacza, że piksele Canona 6D łapią 21,38 / 9,73 = 2,19 więcej światła. Ale RÓWNOCZEŚNIE TRACIMY ROZDZIELCZOŚĆ, czyli tak, jakbyśmy robili binowanie, albo skracali ogniskową. A skrócenie ogniskowej, przy tej samej aperturze, to nic innego jak zmniejszenie światłosiły. No to liczymy - światłosiła 6,375^2=40,64, tę wartość dzielimy przez 2,19 i otrzymujemy 18,55. Z tego wyciągamy pierwiastek kwadratowy, i otrzymujemy światłosiłę ok. 4,3. Czyli dzięki założeniu do teleskopu ED80 z reduktorem, o światłosile f/6,375, Canona 6D zamiast Canona 1100D, uzyskujemy taki efekt, jakbyśmy z Canonem 1100D mieli teleskop f/4,3, który nam szybciej łapie światło. Oczywiście, teoretycznie podobny efekt uzyskamy, po prostu binując obraz z Canona 1100D. Ale nie wiem, jak bardzo to wpłynie na szczegółowość tak przekształconego obrazu w stosunku do natywnego obrazu z Canona 6D.
  11. Dobra, to odpowiedz mi na pytanie - czy 2,5x większy piksel złapie 2,5x więcej fotonów, czy nie? Gdzie napada więcej deszczu w tej samej jednostce czasu - do wiadra, czy do szklanki? W wartościach bezwględnych. Wciąż nie możemy się dogadać, ani z Tobą, ani z Wieśkiem we wcześniejszej dyskusji. Oczywiście, że na matryce o tych samych rozmiarach pada tyle samo fotonów. Tego nie kwestionuję. Ale jeśli dana matryca ma większe piksele, to automatycznie jest ich mniej, i każdy z nich złapie w siebie więcej padających fotonów, niż gdy piksele są mniejsze, i jest ich więcej. Jeśli w danym pikselu masz złapane 1000 fotonów, to szum tej informacji będzie równy pierwiastek z 1000 czyli 31, czyli SNR też jest równy 31. Jeśli w danym, mniejszym pikselu, złapiesz powiedzmy 500 fotonów, to szum tej informacji jest wyższy, bo pierwiastek z 500 to ok. 22, czyli SNR jest równy 22. Czyli w większych pikselach masz mniejszy szum, bo łapią więcej fotonów. Ale równocześnie przy większych pikselach tracisz informację przestrzenną, bo dają Ci niższą rozdzielczość. Jest to proces analogiczny do skracania ogniskowej - jeśli przy zachowanej średnicy apertury zmniejszysz ogniskową, to stracisz na rozdzielczości (bo skala odwzorowania stanie się mniej szczegółowa, bo zmaleje obraz padający na tą samą matrycę), ale zyskasz na SNR, bo na jeden piksel będzie leciało więcej fotonów. Równie dobrze to co piszę można przedstawić tak, że liczba fotonów jakie łapiemy w jednostce czasu w pikselu zależy od tego, z jakiej powierzchni nieba w arcsec^2 lecą nam na ten piksel fotony. Jeśli obejmujemy pikselem 2x większy kawałek nieba, to wpada nam w ten piksel 2x więcej fotonów. A 2x więcej fotonów to 1,4x mniejszy szum, bo pierwiastek z 2 to ok. 1,4. Pełna zgoda, że jest to również proces analogiczny do binowania. Ale pokaż mi kogoś, kto kupuje np. kamerę ASI183, z pikselem 2,4 um, tylko po to, żeby binować z niej obraz, żeby uzyskać odpowiednik piksela 4,8 um. Kamerę z małym pikselem kupuje się po to, żeby mieć bardziej szczegółowy obraz. Ale wtedy trzeba się liczyć z tym, że ten obraz będzie też bardziej zaszumiony, i że, aby uzyskać ten sam poziom SNR (bez binowania), to trzeba będzie proporcjonalnie palić dłuższe całkowite ekspozycje. O tyle dłuższe, o ile mniejsza jest powierzchnia piksela naszej ASI183 w porównaniu do piksela kamery, którą stosowaliśmy wcześniej, z uwzględnieniem QE obu tych kamer. To są podstawowe zależności, i arytmetyka na poziomie szkoły podstawowej, więc naprawdę nie wiem, czemu tak trudno jest mi wytłumaczyć o co w tym chodzi. I mega mnie też dziwi, że wygląda na to, że większośc użytkowników astrofoto w ogóle się nad tym nie zastanawia, i być może traktuje tego typu wyliczenia jak jakąś czarną magię, albo pseudonaukowy bełkot. Wg mnie zrozumienie podstaw tego, jak działa łapanie fotonów w piksele, i co z tego wynika, jest jak najbardziej pomocne i pomaga zrozumieć, co się tak naprawdę dzieje. Gdy czytam o tym, że matryca o QE = 80% łapie więcej światła niż matryca o QE=60%, to reaguję, ponieważ właśnie to jest dezinformacja - a raczej informacja niepełna. Bo jak masz matrycę z małym piskelem o QE=80%, to obraz z niej będzie bardziej szczegółowy, ale bardziej zaszumiony, niż obraz z matrycy z większym pikselem ale o QE=60%. Dopiero uwzględniając QE i rozmiar piskela, łącznie, można świadomie podejmować decyzje zakupowe. Zdając sobie sprawę, co się łączy z inwestycją w kamerę z mniejszym czy większym pikselem. W którym konkretnie miejscu wyginam pojęcia? Przedstawiam konkretne obliczenia, i tłumaczę, dlaczego są ważne i uzasadnione. Jeśli widzicie w tych obliczeniach jakiś błąd, logiczny albo obliczeniowy, to wskażcie go, proszę. Ale jak na razie z mojej strony są obliczenia, a z drugiej machanie rękami, powtarzanie "nie bo nie", "to tak nie działa" itp. Kolega ZbyT, który również rozumie o co w tym chodzi, a łeb ma nie od parady (znamy się osobiście), napisał toczka w toczkę to samo co ja - i został zagadany również machaniem rękami i tupaniem nóżką, oraz odesłaniem do kąta, żeby się douczył, zamiast merytorycznej dyskusji. Stoi za tym chęć wytłumaczenia userom, o co w tym chodzi. Żeby zrozumieli, jak to działa, i mogli podejmować świadome decyzje zakupowe. Żeby np. nie pojawiały się kwiatki typu "gdy jest gorąco, to należy palić krótkie klatki, żeby się nie kumulował szum termiczny", i tym podobne (wiem, że akurat ten temat nie ma większego związku z niniejszą dyskusją). A tego co piszę nie wyssałem sobie z palca - źródła, z których można się dowiedzieć co i jak podałem w poprzednim wątku, tym o wystarczającej ilości materiału. Ponadto polecam też ksiązki Deep Sky Imaging Primer oraz Digital SLR Astrophotography, tam są te rzeczy również omówione. Spędziłem nad tym wszystkim ze dwa miesiące, na przełomie 2022/2023, bo się uparłem, że zrozumiem wreszcie o co chodzi z magicznym symbolem e-/ADU. Rozkminiłem to, pomierzyłem parametry matryc moich aparatów i kamery, i śmiem twierdzić, że załapałem podstawy. Żadnym mega-fachowcem nie jestem, ale ideę rozumiem, i dlatego potrafię sobie policzyć, co do czego warto dobrać, żeby to miało sens. I dlatego piszę tu od czasu do czasu na forum, żeby się tą wiedzą podzielić.
  12. Nie bardzo rozumiem, co ma piernik do wiatraka... Czy u nas jakieś gorsze obiekty na niebie są? Bardziej krzywe? Światło z nich leci jakieś inne? Pełna klatka, o ile się chce korzystać z pełnego FOV, jakie zapewnia (a gdy się wydaje ogromne kwoty na chłodzoną kamerę FF, to raczej się chce, bo inaczej to nie ma sensu), wymaga dobrej optyki, kryjącej taki duży sensor. Tu zgoda. Ale z drugiej strony, w matrycach FF zwykle są duże piksele, które pomagają te wady trochę zamaskować. Poza tym te duże piksele łapią dużo światła (co z jakiegoś powodu nie może się przebić do świadomości dyskutantów ), więc umożliwiają szybsze łapanie wystarczającej ilości materiału. Więc jak najbardziej pod nasze polskie zaświetlone i zachmurzone niebo się nadają, i to nawet bardziej niż pod ciemne niebo. To prawda, im większy FOV, tym trudniej z gradientami. Ale jeśli ktoś ogarnia gradienty w ASI2600 podpiętej do ogniskowej ok. 400 mm, to ogarnie także gradienty w ASI2600 podpiętej do ogniskowej 600 mm, bo FOV obu tych zestawów są bardzo podobne. Wpiszcie sobie dane teleskopów i matryc w jakąś apkę typu Sky Safari czy inne Stellarium, albo w Telescopius.org, i sami sprawdźcie. Ja też nie miałem, ale zamierzam kupić Canona 6D, i podpiąć go do ED-ków 80 i 120 z reduktorami 0,85x. Zapewne będę musiał robić cropa do rozmiaru APS-C, bo wątpię żeby gwiazdki na rogach były akceptowalne - ale podpięcie matrycy z tak dużym pikselem pozwoli wykorzystać te teleskopy tak, jakby miały f/4,5 (w porównaniu do używania ich np. z Canonem 1100D).
  13. Oczywiście, że zbiera. Nie kamera, tylko piksel tej kamery. Piksel ASI2400 jest ok. 2,5x większy niż piksel ASI2600 - więc w tej samej jednostce czasu łapie 2,5x więcej fotonów. Równocześnie tracąc na szczegółowości obrazu. Jest to proces analogiczny do binowania. Pewnie, że mniejsze piksele można zbinować - ale nie mówimy o binowaniu, tylko o tym, ile fotonów w jednostce czasu leci na piksel w rozdzielczości natywnej. Gdzie tu widzisz dezinformację?
  14. A można też np. w Sirilu, po zrobieniu plate solve'a (albo kalibracji fotometrycznej, która też robi solve'a), zaznaczyć ramką wybrany fragment nieba z jakimś obiektem (trzeba się przełączyć na któryś kolor, w łączonym RGB nie działa), kliknąć prawym klawiszem myszy, wybrać "PSF" i "More details", i od razu przekierowuje nas na stronę Simbada.
  15. A czy dane są widziane na tych nośnikach z poziomu ASIair? Ja zawsze robię tak, że karty SD mam na stałe włożone w ASIair. Obrazy są widoczne w apce ASIair na smartfona w dziale Image Management, w osobnych katalogach. Jeśli chcę coś ściągnąć na dysk laptopa, to podłączam się laptopem do hotspota WiFi utworzonego przez ASIair, wchodzę w Eksploratora plików w Windowsie, wpisuję "\\asiair", żeby przejść do katalogów na nośniku włożonym w ASIair, i stamtąd ściągam dane na dysk lapka przez WiFi. Za moich czasów ZWO tę metodę zalecało jako najwłaściwszą, ale jak jest teraz, to nie wiem. Nie mam najnowszych wersji ASIair, korzystam z wersji Pro.
  16. Mieszkać gdzieś, gdzie często jest czyste niebo. Druga w kolejności jest zdalna buda pod czystym niebem, albo karnet na linie lotnicze, którymi np. w dwa weekendy w miesiącu mógłbym latać pod czyste niebo. Podkreślam - CZYSTE. Nie musi być ciemne, wystarczy mi czyste. Bo brak ciemnego nieba zrekompensuję sobie długością łącznej ekspozycji i/lub filtrami NB, a brak pogody jest jednoznaczny z niemożnością focenia.
  17. Jeśli rozważasz te kamery w kontekście ASKAR-a 600 mm z możliwością założenia reduktora 0,7x (ogniskowa spada do 420 mm), to wygląda to tak (teoretycznie, bo żadnej z tych kamer, ani takiego teleskopu, nie miałem i raczej nie zamierzam mieć, nawet gdyby mnie było stać): Po pierwsze, teoretyczna rozdzielczość optyczna idealnego obiektywu 108 mm wynosi plus/minus 1,06 arcsec (115/108, wg kryterium Dawesa). Założenie do ogniskowej 600 mm kamery ASI2600 z sensorem 3,76 um da Ci skalę obrazowania 1,29 arcsec/px, czyli trochę powyżej teoretycznego optycznego ideału - czyli wg mnie w sam raz, bo zawsze są jakieś aberracje optyczne, które ten ideał zaburzają. No i mamy jeszcze seeing w Polsce, dla którego skala 1,3" jest całkiem rozsądna, a już całkiem dokładna. Tyle że to będzie f/5,6, czyli dość ciemno - w porównaniu do np. f/4 musisz mieć dwa razy dłuższą łączną ekspozycję, żeby osiągnąć ten sam SNR. Po założeniu reduktora 0,7x ogniskowa spada do 420 mm, a z kamerą ASI2600 skala rośnie do 1,85 arcsec/px, czyli bardzo sensowna dla większości obiektów. No i masz wtedy f/3,9, czyli już jasny sprzęt. Natomiast zakładając do ASKAR-a 600 kamerę ASI2400 z pikselem 5,94 um to, pomijając większe pole widzenia, zyskujesz jedną, bardzo ważną w ciagle zachmurzonej Polsce rzecz - dzięki ogromnemu pikselowi ta kamera zbiera w tym samym czasie 2,5x więcej światła niż ASI2600. Czyli w godzinę zbierasz nią tyle samo materiału, co w 2,5 h kamerą ASI2600 (obie mają QE na poziomie 80%, więc decyduje różnica w powierzchni pikseli). ALE tracisz na rozdzielczości obrazu, bo przy ogniskowej 600 mm masz skalę 2,04 arcsec/px (całkiem sensowne, ale masz undersampling i nie wykorzystujesz w pełni rozdzielczości optycznej obiektywu), a po założeniu reduktora 0,7x skala jest jeszcze mniej dokładna, czyli 2,9 arcsec/px. Dobra do rozciągłych obiektów, ale galaktyczki będą pikselami. Ale za to zbierasz materiał 4x szybciej niż używając ASKAR-a 600 bez reduktora z kamerą ASI2600. No więc musisz sobie odpowiedzieć na pytanie, co jest dla Ciebie ważniejsze - szczegółowość obrazu (wtedy ASI2600), czy szybkość zbierania materiału (wtedy ASI2400). BTW, zakładając ASI2600 do ASKAR-a 600 z reduktorem 0,7x uzyskujesz mniej więcej to samo, co zakładając ASI2400 do ASKAR-a 600 bez reduktora. Podobna skala, podobny FOV, podobna szybkość zbierania materiału.
  18. @Behlur_Olderys tu jest wszystko opisane (dzięki @JKbooo za namiar na ten filmik): How I discovered the Hummingbird Nebula - YouTube
  19. Prawdopodobnie stożek rozogniskowanej podczerwieni jest węższy przy f/6 niż przy f/2,8. No i dodatkowo Twój refraktor może być lepiej skorygowany na podczerwień niż Samyang 135 mm.
  20. A masz możliwość dołożenia w zestawie dodatkowego filtra IR-cut? Tak żeby sprawdzić, czy to halo nie jest spowodowane rozogniskowaną podczerwienią. BTW, komuś już gdzieś na forum to pytanie zadawałem, ale Tobie chyba jeszcze nie (jeśli tak, to sorry za krótką pamięć ).
  21. A czy ten Twój filtr był może mierzony przez dobregochemika? Wiadomo, co tam się dzieje w paśmie podczerwieni?
  22. No to skoro już tak się nawymądrzałem , to jeszcze ostatnia uwaga, tym razem językowa - przy odmianie obcojęzycznych wyrazów apostrof dajemy tylko wtedy, gdy ostatnia litera obcego wyrazu jest niewymawiana. Np. iPhone -> iPhone'a, ponieważ ostatnie "e" w słowie iPhone jest niewymawiane (mówimy "ajfon"). Taka jest funkcja tego apostrofu - pokazać, że literka przed nim jest niewymawiana. Gdy wyraz kończy się na literę wymawianą, to odmieniamy go normalnie, bez apostrofu. Czyli używasz NoiseExterminatora Podobnie jak Facebooka, iOptrona, Taira (taki obiektyw), Samyanga itp. A swoją drogą zastanawia mnie, że prawie nikt nie próbuje używać przy odmianie obcych lub wątpliwych wyrazów np. myślników. W większości przypadków jest to apostrof - tak jakby nic innego nie przychodziło ludziom do głowy...
  23. Odpowiedzi pojawiły się już w tym wątku. Nie ma (a przynajmniej ja nic o tym nie wiem). Tzn. są kalkulatory optymalnego minimalnego czasu pojedycznej ekspozycji (tzw. suba), uwzględniające szumy kamery i poziom LP, ale nikt Ci nie policzy, ani nie powie, jaki jest optymalny czas łącznej ekspozycji np. dla Veila z takiego a takiego zestawu do astrofoto. Po prostu robisz sesję iluś-godzinną, w dzień to stackujesz, wyciągasz, i patrzysz czy poziom szumu jest dla Ciebie za wysoki, czy nie. Jeśli tak, to strzelasz drugą sesję, pamiętając o tym, że w miarę istotną zmianę uzyskasz nie po dwukrotnym wydłużeniu łącznej ekspozycji, tylko po czterokrotnym, i tak do skutku Ponadto pamiętaj też proszę, że od jakiegoś czasu są w obróbce w użyciu różne programy odszumiające, oparte na AI, które pozwalają idealnie wygładzić zdjęcia. Więc nie sugeruj się niemal zerowym poziomem zaszumienia zdjęć prezentowanych tu na forum - to jest wynik sztucznego odszumiania, a nie reprezentatywny efekt, wynikający z liczby godzin naświetlania. Myślę, że warto o tym wspomnieć, zanim ten czy ów początkujący zacznie się załamywać, że nigdy nie uzyskuje takich zdjęć
  24. Nie chcę się już w tym miejscu wdawać w rozważania nt. szumu odczytu. I tak dyskusja zrobiła się zbyt długa i skomplikowana, i pewnie mało kto wytrwale i ze zrozumieniem ją przeczyta. @dobrychemik, wiadomo, że jest tysiąc innych dodatkowych zmiennych, które wpływają na to, jak wygląda obraz. Ale nie chodzi w tej chwili o te różne dodatkowe szczegóły, tylko o podstawę. A podstawa jest taka, że SNR obrazu zależy od tego, ile fotonów zostanie złapanych przez piksele. A nie przez matrycę jako taką. Zainteresowanych pogłębieniem wiedzy i lepszym zrozumieniem jak to działa jak zawsze odsyłam do lektury artykułow z serii Fishing for photons na Cloudy Nights: Fishing for Photons - Articles - Articles - Cloudy Nights Wszystkich artykułów, zaczynając od tego na samym dole listy. W nich jest wyjaśnione to wszystko, co wyżej napisałem. Bardzo przydatna jest też lektura tego wątku: Sony IMX183 mono test thread - ASI, QHY, etc. - Beginning Deep Sky Imaging - Cloudy Nights Ma 48 stron, ale warto się przez to przegryźć, bo można tam wyłuskać dużo ciekawych rzeczy. Ale to raczej już po przeczytaniu i zrozumieniu serii Fishing for photons.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.