Od jakiegoś czasu nurtowało mnie pewne zagadnienie, mianowicie przez lata obserwacji byłem święcie przekonany, że wszelkie burze i ulewy omijały moje miasto.
Zawsze na wszelkiej maści mapach pogodowych, radarach, itp. burze i ulewne deszcze albo mnie omijały (skręcając w bok w ostatniej chwili), albo wygasały przede mną (czasami wznawiając aktywność kilkadziesiąt km dalej), albo front burzowy rozdzielał się na dwa skutecznie pozbawiając mnie możliwości złapania większej ilości wyładowań na zdjęciach.
Postanowiłem sprawdzić, czy tylko mi się wydaje, czy jednak jest coś na rzeczy.
Napisałem sobie skrypt, który ściąga ze strony https://www.blitzortung.org/pl/live_lightning_maps.php archiwalne obrazy z zaznaczonymi wyładowaniami. Każdy obraz zawiera wyładowania z ostatnich 120 minut z podziałem na 6 grup czasowych (aktualnie, -20min, -40min, -60min, -80min, -100min i -120min) oznaczonych różnymi kolorami.
Ściąganie danych z rozdzielczością 1 minuty po pierwsze zajęłoby za dużo czasu (i mógłbym dostać jakiegoś bana na IP), po drugie byłoby zbyt dużo materiału do obróbki i po trzecie dane na kolejnych "zdjęciach" pokrywałyby się co zaciemniłoby dodatkowo obraz. Postanowiłem pobierać dane z rozdzielczością 120 minut.
W ten sposób pobrałem 20 256 obrazów z okresu 2019-01-01 00:00 do 2023-08-15 23:00:00.
Przed stackiem musiałem wykonać jeszcze jedną, niezbędną akcję, żeby wyniki były jako tako miarodajne. Poszczególne serie czasowe na ściągniętych PNGach były oznaczane kolorami od białego, żółtego, przez pomarańczowy i czerwony aż do brązowego (czy karamazynowego jak kto woli). Zestackowanie takich danych spowodowałoby, że wyładowania starsze (sprzed 100 minut) będą miały ciemniejszy kolor, a co za tym idzie dadzą mniejszy wkład w ostateczny obraz. Trzeba było to jakoś znormalizować. Wykonałem na paczce 20k obrazów w Irfan View akcję batch conversion podnosząc saturację każdego obrazu. W ten sposób zestaw kolorów pomniejszył się do bieli, żółtego, pomarańczowego i czerwonego. W każdym z tych kolorów składowa R miała wartość 255.
Kolejnym krokiem było zestackowanie.
Próbowałem w APP, ale przy tej ilości materiału wysypał się gdzieś chyba w 2/3 pracy, więc spróbowałem w Sirilu.
Krótki tutorial, załadowałem pliki png, przekonwertowałem na .fits (taki jest chyba wymóg, nie wiem, nie znam się) i następnie pomijając kalibrację, rejestrację i normalizację po prostu zestackowałem algorytmem sumacyjnym.
Tak wyplutego stacka wrzuciłem do APP, żeby go rozciągnąć (nie jestem biegły w Sirilu, a w APP wiedziałem jak to zrobić). Rozciągnąłem na oko, tak, żeby niczego nie przyciąć (za bardzo) ale żeby uwydatnić różnice w poszczególnych rejonach.
Rozciągnięty obraz zapisałem jako 16 bitowy TIFF RGB.
Kolejnym etapem było wrzucenie TIFFa do Photoshopa, żeby nanieść maskę granic i rzek, poprawić jeszcze poziomy i nanieść mapę gradientu (kolorowanie zamiast od czerni do bieli kolorami przypominającymi widmo promieniowania ciała doskonale czarnego). Mapa gradientu ma za zadanie uwypuklić jeszcze bardziej różnice pomiędzy poszczególnymi poziomami danych.
Przed naniesieniem mapy gradientu sklonowałem kanał R na pozostałe G i B uzyskując skalę szarości z kanału R.
W ten sposób powstał obraz, który (jak wierzę) pokazuje pewien jakościowy rozkład wyładowań atmosferycznych w naszym kraju na przestrzeni ostatnich 4,5 lat (~56 miesięcy).
Jest to jak dotąd mój najdłuższy stack .
Załączam do posta oryginalnego zestackowanego fitsa bez rozciągnięć gdyby ktoś chciał się pobawić sam danymi i rozciągnąć go sobie inaczej (nie wiem dlaczego, ale Siril odbił go w osi X).
BTW, moja teza się chyba potwierdziła - widać znacznie ciemniejszy obszar na północ od Torunia i na wschód od Bydgoszczy (ale przyczyny nie znam nadal).
blitz_stacked.fit