Skocz do zawartości

NewsBot - Aktualności

Społeczność Astropolis
  • Postów

    41
  • Dołączył

  • Ostatnia wizyta

Kontakt

  • Strona WWW
    http://www.astro-forum.org
  • Facebook / Messenger
    866426
  • Skype
    adam jesion

Informacje o profilu

  • Płeć
    Mężczyna
  • Skąd
    Warszawa
  • Zainteresowania
    Astronomia

Osiągnięcia NewsBot - Aktualności

17

Reputacja

  1. Dwa tygodnie mijają właśnie od publikacji poprzedniego wpisu. Wprawdzie w ostatnich czasach to nic niezwykłego, jednak mimo to poczułem się w obowiązku by w kilku słowach usprawiedliwić równie kiepską frekwencję. Jak to w życiu bywa najróżniejsze choróbska po ludziach chodzą i nie inaczej stało się ze mną - bez rozwodzenia się o o szczegółach miesiąc temu rozpocząłem leczenie, które niestety jest trudne i długotrwałe, przy okazji wymaga spożywania dzień w dzień sporej ilości dość wrednych farmaceutyków. Leki jak to leki bez skutków ubocznych obyć się nie mogą i przyjmowane przeze mnie nie są tutaj żadnym wyjątkiem, cała gama zróżnicowanych objawów powoduje, że codzienne życie kształtuje się inaczej, niż bywało wcześniej. Leczenie – optymistycznie – potrwa jeszcze kilka miesięcy, w związku z tym proszę Was o wyrozumiałość: psychika cierpi niestety również w pewnym stopniu w trakcie kuracji, co powoduje, że różnie z moją szeroko rozumianą aktywnością bywa, czy to przy codziennych zajęciach, czy też tutaj, na Cytadeli. Z tego względu najwcześniej latem spodziewać się można powrotu do stabilnej “formy” (jeśli taka kiedykolwiek istniała), co solennie też obiecuję. Pozdrawiam! Wyświetl pełny artykuł
  2. Stwierdzenie, iż światło przemieszcza się zawsze ze stałą, niezmienną prędkością, kwalifikuje się współcześnie do kategorii „truizm pierwszej kategorii”, warto jednak pamiętać o tym, że wbrew pozorom naukowcom względnie późno udało się potwierdzić to podejrzenie, wysunięte po raz pierwszy przez duńskiego astronoma Ole Rømera już w XII wieku. O znaczeniu tej stałej trudno dyskutować – niejaki Einstein oparł chociażby na tej fundamentalnej stałej gmach Szczególnej Teorii Względności. Istnieją co prawda wśród naukowców i tacy, którzy raz po raz próbują stałość prędkości światła kwestionować, są to jednak sporadyczne przypadki, które przez naukowe autorytety zbywane są machnięciem ręki. Akceptacja niezmiennej prędkości światła, zupełnie niezależnej od ruchu źródła je emitującego, wprowadza do świata fizyki sporo zamętu i w konsekwencji zmusza nas do pogodzenia się z istnieniem niekiedy mocno nieintuicyjnych zjawisk w rzeczywistości fizycznej, w której dane jest nam istnieć. Jedną z nich jest tzw. dylatacja czasu – zjawisko polegające na tym, że dokonując pomiaru czasu w dwóch układach odniesienia, z których jeden porusza się względem drugiego, nie otrzymamy identycznych wyników. O ile na naszej wygodnej planecie ze względu na jej maleńkość w kosmicznych skalach niełatwo o doświadczenie dylatacji w sposób mierzalny, o tyle astronomowie posiadają tutaj o wiele większe pole manewru – ogromne odległości dzielące obiekty kosmiczne pozwalają testować teorię względności do woli i jak dotąd – o ile mi wiadomo – potwierdzać tylko jej przewidywania z rosnącą dokładnością. Zastanówmy się przez chwilę, gdzie i w jaki sposób efekt dylatacji czasowej mógłby manifestować się w Kosmosie. Zgodnie z najbardziej prawdopodobną obecnie wersją zdarzeń Wszechświat powstał ok. 13,7 miliardów lat temu w trakcie wielce tajemniczego wydarzenia, określanego jako Wielki Wybuch. Od tego czasu Wszechświat, znów zawierzając twierdzeniom naukowców, stale podlega ekspansji, więcej nawet, ekspansja ta od bliżej nieokreślonego momentu w przeszłości zdaje się przyspieszać. Pisząc o dylatacji czasu znowuż wspomniałem, że decydującym założeniem związanym z tym zjawiskiem jest to, iż jeden z układów odniesienia musi poruszać się względem drugiego. Łącząc te dwa fakty otrzymujemy tym samym najwspanialsze laboratorium eksperymentalne, jakie tylko sobie można wymarzyć – staje się nim cały Wszechświat. Ekspansja Wszechświata powoduje, że (z kilkoma wyjątkami w lokalnej części Wszechświata) wszystkie galaktyki zdają się oddalać od Drogi Mlecznej, im taka galaktyka bardziej odległa, tym większa jest prędkość, z jaką obiekt ten zdaje się uciekać w dal. Ponieważ światło przemieszcza się, jak pamiętamy, ze stałą prędkością, coś dziwnego zdaje się zachodzić w takich warunkach z nim samym – światło docierające w bezchmurne noce do zwierciadeł teleskopów na naszej planecie ma do pokonania coraz większą odległość a poprzez ekspansję samej przestrzeni fale elektromagnetyczne ulegają wydłużeniu, tzw. przesunięciu ku czerwieni („redshift”). Im większe poczerwienienie światła docierającego z odległego obieku, tym większa jego odległość od Ziemi. Dylatacja czasu w tym przypadku oznacza jednak coś jeszcze – nie tylko dochodzi do poczerwienienia światła odległych galaktyk, zgodnie z teorią Einsteina bowiem zachodzące w nich zdarzenia muszą „trwać dłużej” w naszych oczach. Nie bez powodu użyłem cudzysłowu – zjawiska te przebiegają w takim samym czasie jak w każdym innym miejscu Wszechświata (zakładając, że przed wieloma miliardami lat przykładowo supernowe wybuchały w taki sam sposób jak obecnie), jednak ze względu na stałą prędkość światła oraz ekspansję Wszechświata ziemski obserwator rejestruje co innego. Eksperymentalnie potwierdzono zjawisko dylatacji czasu we Wszechświecie na podstawie supernowych – naukowcy podejrzewali, że bardzo odległe supernowe musiałyby blednąć zauważalnie wolniej niż supernowe które eksplodowały, załóżmy, w połowie drogi do supernowej odleglejszej. Zależność tą udało się zarejestrować, rzeczywiście wraz z rosnącą odległością supernowe zdają się przechodzić kolejne etapy swej ewolucji odpowiednio wolniej. Zawsze jednak znajdzie się taki jeden z drugim, kto drąży głębiej i głębiej oraz psuje harmonię w rajskim świecie fizyków. Kimś takim okazał się niedawno niejaki Mike Hawkins, pracujący w Royal Observatory of Edinburgh (Wielka Brytania). Czy to z braku zajęć czy też w ramach najprawdziwszej pasji astronom ten zabrał się za niełatwe zadanie – przeanalizował dane obserwacyjne dotyczące ok. 900 kwazarów, zebrane w ciągu ostatnich 28 lat. Kwazar to obiekt mimo wszystko ciągle jeszcze tajemniczy – są to najodleglejsze chyba obiekty kosmiczne, jakie jesteśmy w stanie zaobserwować, wszystko to dlatego, że są to źródła promieniowania o ogromnej mocy i jasności całych galaktyk. Jak podpowiada sama nazwa (pochodząca od angielskiego „quasar”, będącego znowuż skrótem od „quasi-stellar radio source”, czyli „pozornego gwiezdnego źródła radiowego”) mamy do czynienia z czymś, co w pewnym sensie przypomina zwykłą gwiazdę. Chwileczkę, powiecie, pojedyncza gwiazda którą widzimy z odległości miliardów lat świetlnych? Oczywiście, niewykonalne to zadanie, niemniej jednak kiedy odkryto pierwsze kwazary, do czego doszło już w XIX wieku, sądzono rzeczywiście, że chodzi o gwiazdy, znajdujące się we wnętrzu naszej Galaktyki. Jak okazało się z czasem, nic bardziej mylnego. Większość galaktyk, jak uważa się dzisiaj, posiada w swym centrum supermasywną czarną dziurę. W kontekście naszych rozważań najważniejsze jest, że owe monstra zachowują się w sposób bardzo zróżnicowany – czasem, jak w przypadku naszej Drogi Mlecznej, wiemy tylko, że są, bowiem smacznie śpią i ich aktywność jest niemal zerowa, czasem jednak stają się niezwykle aktywne i wówczas stają się centralnym elementem kwazarów właśnie. Jak obecnie przypuszczamy kwazary to hiperaktywne jądra pewnego rodzaju galaktyk, w których centralna czarna dziura dosłownie „wpada w szałâ€ i pożera zachłannie ogromne ilości materii. Materia ta, zmierzając na swej drodze bez powrotu ku czarnej dziurze, zostaje podgrzana do gigantycznych temperatur, co skutkuje znowuż emisją potężnych ilości promieniowania. Wiemy więc, czym z grubsza są kwazary. Biorąc pod uwagę to, co napisałem o supernowych powyżej, wydaje się być logicznym, że podobna zasada związana z dylatacją czasu powinna odnosić się również do kwazarów. I tutaj wspomniany wcześniej Mike Hawkins powiada stanowczo: nie. Ku zaskoczeniu astronoma przeprowadzona przez niego analiza danych wykazała, że okresowość zachowania kwazarów wydaje się być identyczna w przypadku kwazarów w odległości ok. 6 miliardów lat świetlnych oraz kwazarów niemal dwa razy dalej się znajdujących, bo w odległości 10 miliardów lat świetlnych. Stwierdzenie to jest dość kłopotliwe, bo trudno zaprawdę podać powód, dlaczego kwazary właśnie miałyby być tymi obiektami, które wyłamują się z ram teorii względności. Sam Hawkins w miarę ostrożnie wysunął kilka propozycji ze swej strony – można podzielić je na bardzo… „odważne” oraz „mniej odważne”. Pierwsza z nich brzmi naprawdę rewolucyjnie: Wszechświat po prostu się nie rozszerza. Mając jednak z jednej strony pojedynczą analizę Hawkinsa, z drugiej zaś niezliczone obserwacje potwierdzające fakt ekspansji, trudno wróżyć temu pomysłowi wielkie powodzenie. Trochę lżejszego kalibru, choć ciągle dość drastyczne, jest stwierdzenie, iż kwazary po prostu nie znajdują się w odległościach takich, na jakie wskazuje ich poczerwienienie. Sensowniejsze wydaje się w tym kontekście – mimo to ciągle mocno kontrowersyjne – założenie, że tak naprawdę mamy do czynienia ze złudzeniem optycznym: na drodze światła pomiędzy kwazarem a Ziemią znajdować się muszą dość kompaktowe (wielkości gwiazdy?) obiekty, które zniekształcają rejestrowany obraz i „pojaśniająâ€ odległe kwazary. Wydaje się to dość kuriozalne – skoro mowa o setkach kwazarów, badanych przez Hawkinsa, musielibyśmy założyć, że albo niezwykle dziwny przypadek ustawił owe tajemnicze obiekty dokładnie między nami a kwazarami, albo też… obiektów tych jest bez liku. I w tym właśnie tkwi haczyk – jeśli obiekty te rzeczywiście fałszowałyby obserwacje kwazarów, musiałoby ich być tak dużo, że cała ciemna materia Wszechświata zmagazynowana byłaby właśnie w nich. Najlepszym kandydatem wg Hawkinsa są tutaj tzw. pierwotne czarne dziury, które miały zgodnie z niektórymi teoriami powstawać tuż po Wielkim Wybuchu. Sęk w tym, że większość naukowców niechętnie podchodzi do takiego pomysłu – przeważająca ich ilość wierzy, że ciemna materia to raczej jakieś egzotyczne cząstki, nie czarne dziury. Przyznam szczerze, że praca Hawkinsa wydała mi się mocno intrygująca – na chwilę obecną nie istnieje żadne sensowne wytłumaczenie dla dokonanego przez niego odkrycia. Nie jestem co prawda wielbicielem „przełomowych” rozwiązań tej zagadki – sądzę, że Wszechświat i tak się rozszerza i kwazary niewiele w tym zmienią – jednak z przyjemnością poczekam na kolejnych badaczy, próbujących wyjasnić tajemnicę. Źródła: Link 1 Link 2 Wyświetl pełny artykuł
  3. Spoglądając na zdjęcie poniżej stwierdzicie pewnie w pierwszym momencie, że do nadzwyczajności mu całkiem daleko – ot, zdjęcie Księżyca jakich wiele. Kiedy jednak przyjrzycie mu się wnikliwiej zauważycie pewien drobny, aczkolwiek trochę niepokojący szczegół – element, dzięki któremu zdjęcie to warte jest jednak wyróżnienia. Drobna jasna plamka na tle części Księżyca kryjącej się w cieniu nie jest ani poświatą wybuchu jądrowego ani też blaskiem gorejącego wulkanu, można też wykluczyć z góry, że to obca cywilizacja, mająca siedzibę na Srebrnym Globie a przez nas dotąd niewykryta, organizuje jakiegoś sortu księżycowe dożynki. Wprawdzie plamka ta nie jest bogata w szczegóły i z tego względu może znaleźć się wśród Was malkontent, który mi na słowo nie uwierzy, jednak reszta jak sądzę z pewnym zaskoczeniem zaakceptuje stwierdzenie, iż plamka ta to nic innego jak wytwór ludzkiej cywilizacji – Międzynarodowa Stacja Kosmiczna (ISS), wędrująca w swej orbitalnej podróży na tle satelity Ziemi. Zdjęcie wykonane zostało przez fotografa Fernando Echeverria, który w tajemniczy sposób zdołał uchwycić maleńką stację przemykającą niezwykle szybko przed tarczą Księżyca. Fotograf wykonał zdjęcie zaledwie kilka dni temu – dokładniej 5. kwietnia, ok. kwadrans przed startem promu “Discovery” w kierunku rzeczonej stacji. Punktem obserwacyjnym było Kennedy Space Center na Florydzie, z którego to sam prom również startował. Źródło zdjęcia Credit: Fernando Echeverria/NASA Wyświetl pełny artykuł
  4. Choć rosnące w błyskawicznym tempie wyrafinowanie nowoczesnej technologii od kilkudziesięciu lat prowadzi do prawdziwego rozkwitu badań najodleglejszych zakątków Wszechświata, to nie oznacza to wcale, że wiemy już wszystko, ba, istnieje w dalszym ciągu sporo niejasności w naszej wiedzy o obiektach znacznie nam bliższych, wiele jeszcze pozostało nawet do odkrycia w związku z naszą ojczystą planetą. Uzupełnianie luk w tej wiedzy nie należy co prawda do zadań astronomów i kosmologów – których dokonania interesują nas w ramach Cytadeli mimo wszystko najbardziej – jednak nie samą astronomią człek w końcu żyje; przyznam szczerze, że o ile kiedyś dokonania szeroko pojętych geologów interesowały mnie średnio lub nawet wcale, to w ostatnim czasie zarówno geologia właśnie (oraz pozostająca z nią w jakimś tam luźnym związku paleontologia) zostały przeze mnie odkryte jako prawdziwa „terra incognita”. Z tego względu zmuszony jestem prosić Czytelników wyczekujących „kosmicznych” wieści o wybaczenie i wyrozumiałość – jak sądzę warto czasem wrócić z kosmicznych podróży na naszą planetę, a dokładniej skierować zainteresowanie na jej wnętrze. Jedną z ciągle nierozwiązanych do końca zagadek związanych z naszą planetą jest bez wątpienia prawdziwa istota najgłębiej ukrytej w jej wnętrznościach części, czyli planetarnego jądra. Dzięki badaniom sejsmologicznym wiemy co prawda sporo już o jego naturze, mimo to ambitni badacze nie muszą jeszcze przez bardzo długi czas martwić się o brak zajęć. Sejsmologia w ich rękach to naprawdę potężne narzędzie, nie jest to jednak jedyny instrument, dzięki któremu w stanie jesteśmy Ziemi wyrywać po kawałku jej tajemnice – w pierwszej chwili może okazać się to zaskakujące, jednak bardzo dobrze to zadanie realizuje również zmyślnie zastosowana wiedza z dziedziny fizyki cząstek. Międzynarodowy zespół naukowców, złożony z badaczy z Włoch, Stanów Zjednoczonych, Niemiec, Francji oraz Rosji wykorzystywał w swej pracy badawczej (o której za chwilę) dobrodziejstwa oferowane przez placówkę naukową pod dźwięczną nazwą Laboratori Nazionali del Gran Sasso, ukrytą we wnętrzu włoskiego masywu górskiego Gran Sasso (umiejscowioną w okolicy miejscowości L’Aquila). W ramach tej placówki funkcjonuje niecodzienny projekt pod „włosko” brzmiącym akronimem BOREXINO (od BORon EXperiment), który w istocie jest niczym innym, jak po prostu „najzwyklejszym na świecie” detektorem neutrin. Zanim powiemy słów kilka o samych badaniach, słów może kilka o „delikwentach” badaniom podlegającym. Neutrina to bardzo „specyficzne” cząstki elementarne – nie dość, pod względem liczebności są chyba bezkonkurencyjne w całym Wszechświecie, to mają do tego zaskakujące cechy: nie oddziaływują niemal w ogóle z materią, przenikając bez żadnego wysiłku obiekty wielkości na przykład Ziemi, do tego ich masa jest bardzo niewielka i bliska zeru. Biorąc pod uwagę taką charakterystykę cząstek nietrudno się domyśleć, że ich detekcja sprawia niemałe problemy – rzeczywiście, rejestrowanie neutrin do wdzięcznych zadań nie należy. Istnienie neutrin zostało przewidziane – w teorii – przez wybitnego szwajczarskiego fizyka Wolfganga Pauliego, który już w 1930 roku stwierdził, iż cząstki takie muszą istnieć (nie wnikajmy może dlaczego, bo to regiony, w których mogę się niemiłosiernie zaplątać). Zanim jednak potwierdzono eksperymentalnie ich obecność upłynęły niemal trzy dekady – dokonano tego w drugiej połowie lat pięćdziesiątych XX. wieku, i to nie bez wysiłku. Trudności związane z zarejestrowaniem cząstki mogą wydawać się niewiarygodne, gdy uzmysłowimy sobie (zgodnie z naszą obecną o niej wiedzą), że w kazdej sekundzie przez organizm każdego z nas „przelatuje” bez mała… 50 bilionów tych cząstek, jednak wymienione wcześniej egzotyczne cechy neutrin usprawiedliwiają całkowicie biednych badaczy. Wszystkich zainteresowanych szczegółowszymi informacjami o tych fascynujących cząstkach zachęcam do szperania w materiałach dostępnych w Internecie, tutaj dodam tylko, że neutrina powstają – między innymi – w trakcie tzw. rozpadów „beta”, rozróżniamy ich trzy rodzaje (neutrina elektronowe, mionowe i taonowe) i, co bardzo ciekawe, cząstki te potrafią w trakcie swej podróży zmieniać swój rodzaj, podlegają tzw. oscylacji neutrinowej. W kontekście tego wpisu jednak najważniejszym faktem jest pierwszy z wyżej wspomnianych – neutrina powstają przy radioaktywnym rozpadzie niestabilnych jąder atomowych. Kiedy do takiego rozpadu dochodzi, wydzielana jest między innymi energia cieplna. I tutaj szczęśliwie w końcu wracamy to zasadniczego tematu wpisu – mimo że sporo jeszcze tajemnic jądro Ziemi przed nami kryje, to raczej pewne wydaje się, iż duży udział w generowaniu ciepła we wnętrzu planety ma właśnie rozpad pierwiastków takich jak uran, tor oraz potas. Naturalna radioaktywność jądra Ziemi uważana jest za jeden z głównych „generatorów” ciepła naszej planety. Rozpad radioaktywny generuje więc neutrina – badając energię takiej ulotnej cząstki, docierającej do nas z wnętrza Ziemi (zwanej geoneutrinem, by odróżnić je od neutrin słonecznych, docierających do nas od naszej rodzimej gwiazdy, czy też neutrin atmosferycznych, powstających w wyniku kolizji promieniowania kosmicznego z cząsteczkami górnych warstw atmosfery), sporo można dowiedzieć się o charakterystyce jądra, które uległo rozpadowi. W ten sposób to naukowcy uzyskują dostęp do wiedzy o składzie tej części planety, której bezpośrednie badanie jest, jak łatwo się domyśleć, po prostu niemożliwe. Wykrywanie neutrin to zadanie ze względu na ich kłopotliwą charakterystykę niełatwe – w celu ich detekcji buduje się zaawansowane technologicznie detektory, wśród których najszerzej chyba znanym jest potężny detektor SuperKamiokande, umiejscowiony w Japonii. Zasada działania takiego detektora jest (oczywiście w uproszczeniu, i to znacznym) zwykle taka sama: głęboko pod ziemią, najlepiej z dala od sztucznych źródeł neutrin (którymi są elektrowni e jądrowe) umieszcza się potężne zbiorniki z płynem, tzw. scyntylatorem. Scyntylator to inaczej mówiąc substancja, która emituje światło, gdy przenika przez nią promieniowanie. Ogromne zbiorniki pełne scyntylatora umieszczane są więc pod ziemią, gdzie poza zbiornikiem drugim najistotniejszym elementem są fotopowielacze, inaczej mówiąc detektory światła o ogromnej czułości (rejestrujące pojedyncze fotony) i szybkości rejestracji. Takich fotopowielaczy komora zawierająca zbiornik posiada bez liku, wystarczy zajrzeć (gorąco polecam!) do galerii detektora BOREXINO pod tym adresem, by zobaczyć od groma fascynujących zdjęć. Dobrze więc, zbudowaliśmy w pocie czoła detektor, w jaki sposób jednak detektor ten wykrywa neutrina, które przecież nie są „światłem”, do tego niemal nie oddziałują z materią? Otóż wielkość zbiornika ma swoje uzasadnienie – ogromna ilość scyntylatora konieczna jest właśnie dlatego, że neutrina tak bardzo wymykają się detekcji: kiedy przypomnimy sobie, iż na każdy centymetr kwadratowy powierzchni na Ziemi w ciągu sekundy dociera kilkadziesiąt miliardów neutrin, liczba rejestrowanych przez detektory neurin będzie śmiesznie mała – w przypadku detektora BOREXINO mowa jest bowiem o kilku neutrinach słonecznych na dzień, nie wspominając już o geoneutrinach, których rejestrowane jest zaledwie ok. 10 na… rok. Działanie detektora neutrin wymaga więc ogromnej cierpliwości. Neutrina, jak już wiemy, niemal nie posiadają masy i niemal nie oddziaływują z materią, jednak to słowo – niemal – jest tutaj kluczowe. Stwarzając dla neutrin idealne warunki (ogromna ilość scyntylatora), przyprawiając to niezwykle czułą aparaturą (fotopowielacze) i dokładając do tego całe oprzyprządowanie i oprogramowanie oraz anielsko cierpliwą ekipę badaczy w końcu sprawimy, że jedno z nieliczonej liczby neutrin, przenikających w każdej chwili detektor, siłą rzeczy wychwycone zostanie przez szczęśliwe jądro w komorze i doprowadzi do jego rozpadu, a tym samym do wygenerowania ultrakrótkiego błysku światła. Detektor BOREXINO, który jest czternastometrową kulą zawierającą 300 ton scyntylatora otoczoną przez 2.200 fotopowielaczy, powstał właściwie w celu badania neutrin słonecznych, jednak nie powstrzymało to naukowców przed wykorzystaniem detektora do rejestracji geoneutrin. Jak poinformowali badacze biorący udział w kolaboracji nie było to zadanie pozbawione widoków na przysżłość – badacze poinformowali właśnie, że udąło się osiągnąć założony cel. Wnioskując o naturze rozpadających się jąder atomowych na podstawie „przechwyconych” neutrin badacze stwierdzili, że neutrina pochodziły z rozpadu uranu oraz toru, potwierdzając tym samym przypuszczenia geologów odnośnie składu chemicznego wnętrza planety. To jednak dopiero początek – aby poznać skład jądra oraz płaszcza Ziemi w szczegółach sam detektor BOREXINO nie wystarcza, do tego celu konieczne byłoby stworzenie globalnej sieci detektorów neutrin. Naukowcy przypuszczają, że wśród wówczas wykrytych neutrin powinne znaleźć się i takie, które powstały w trakcie rozpadu jąder potasu i rubidu. Wyniki zebrane przez badaczy we włoskich górach nie są wprawdzie pierwszą próbą rejestracji geoneutrin – podobne zadanie realizowane było już w 2004 roku w Japonii, jednak wyniki wówczas uzyskane były co najmniej kontrowersyjne, gdyż detektor zastosowany do ich uzyskania znajdował się w sąsiedztwie kilku elektrowni atomowych, mogących zafałszować rejstrację. Niezależnie od tego jednak dzięki takim badaniom naukowcy bliżsi są znów o krok do poznania prawdziwej natury tysięcy kilometórów skał, po których dzień w dzień stąpamy. Źródło: Link 1 Zdjęcie: Detektor BOREXINO w całej swej krasie Źródło zdjęcia Credit: BOREXINO-Collaboration Wyświetl pełny artykuł
  5. Co prawda mam jak najbardziej świadomość, że powyższe określenie ujęte w cudzysłowy nie brzmi zbyt poprawnie (a przynajmniej żaden ze słowników naszej pięknej ojczystej mowy, które „przewertowałem” w internecie, nie potrafił go zidentyfikować), jednak jestem w końcu panem i władcą udzielnym tej wspaniałej strony i każda fanaberia – tym razem związana z brakiem reguł językowych – zostać mi musi wybaczona, no i, niezależnie od tej swawolnej rozpusty, tytuł wpisu brzmi przez to jakoś tak… okrąglutko i gładziutko. Ale wystarczy tych bzdur i czczej pisaniny – przejdźmy do rzeczy, w końcu czas nagli i klawiatury szkoda. Podwójnych, czy generalnie rzecz ujmując, wielkrotnych układów gwiazdowych znamy w Kosmosie względnie sporo. Układy te są bardzo zróżnicowane – od relatywnie prostych układów dwóch gwiazd obracających się wokół wspólnego środka ciężkości do niezwykle skomplikowanych układó, gdzie składników jest kilka, w których trudno w pierwszym momencie dostrzec który z obiektów krąży wokół którego i jak w ogóle cały ten układ się nie „rozlatuje”. Zwykle jednak wyobrażamy sobie, że układy takie (podwójne czy większe) są, w porównaniu z rozmiarowo takim sobie Układem Słonecznym, dosyć spore – gwiazdy ze względu na swą wielkość niespecjalnie nadają się do egzystencji w naprawdę bliskim sąsiedztwie. Są jednak od tej reguły wyjątki – gwiazdy, które pod względem wymiarów są wręcz mikroskopijne, pod względem masy jednak wcale nie odstają od swych pełnowymiarowych kolegów. Mowa oczywiście – w tym przypadku – o białych karłach. Białe karły to pośmiertne szczątki „normalnych” gwiazd, których wielkość oscyluje wokół średnicy naszej maleńkiej Ziemi, masa natomiast porównwalna jest z masą Słońca. Jak nietrudno sobie wyobrazić gęstość materii w takiej gwieździe musi „co nieco” przekraczać znane nam z codziennego doświadczenia wartości – średnia gęstość materii w białym karle to podobno mniej więcej jedna tona na 1 centymetr sześcienny! Tak silnie upakowane obiekty są same w sobie fascynujące, kiedy jednak gromadzą się w pary, zaczyna się prawdziwie zadziwiający spektakl. W 1999 roku astronomowie wykorzystując dawno już zapomnianego satelitę ROSAT (ROentgen SATellite), który odliczał wówczas ostatnie dni swej aktywności zanim zastapił go nowocześniejszy – i z pewnością lepiej przez Was kojarzony - teleskop kosmiczny Chandra, zauważyli na niebie dziwne źródło silnego promieniowania rentgenowskiego. W ten sposób doszło do odkrycia układu podwójnego białych karłów, który uzyskał miano RX J0806.3+1527 lub, co brzmi chyba znacznie lepiej, HM Cancri. W odległości ok. 16 tysięcy lat świetlnych od Ziemi zaobserwowano wówczas układ karłów, który pod pewnym względem wydawał się mieć niesamowite właściwości – naukowcy przecierając oczy ze zdumienia stwierdzili bowiem, że wszystko wskazuje na to, iż obie gwiazdy obracają się wokół siebie w rekordowo krótkim czasie. Obserwacje z 1999 roku sugerowały, że gwiazdy w układzie HM Cancri wykonują pełen obrót wokół wspólnego środka masy w czasie zaledwie… niewiele ponad pięciu minut. Większość naukowców nie potrafiła uwierzyć, że coś takiego jest możliwe, prawdą jest też to, że obserwacje były dalekie od doskonałości i tym samym na ostateczny dowód – lub zaprzeczenie – czekać trzeba było jedenaście lat. W końcu jednak tajemnica została wyjaśniona a o jej rozwiązaniu międzynarodowy zespół naukowców postanowił napisać w ostatnim wydaniu „Astrophysical Journal Letters” z 10 marca tego roku. Grupa astronomów kierowana przez doktora Gija Roelofsa z Harvard-Smithsonian Center for Astrophysics w Cambridge (USA) ciekawa prawdziwej natury układu HM Cancri uzyskała dostęp do najpotężniejszych teleskopów na naszej planecie – teleskopów Kecka na Hawajach. Wykorzystując teleskop Keck I (jeden z dwóch gigantów o śrenicy lustra 10 metrów) i angażując najnowsze oprzyrzadowanie tych potężnych instrumentów obserwacyjnych, naukowcy prowadzili intensywne obserwacje układu gwiazd. O ile w latach wcześniejszych najczęściej warunki pogodowe zapobiegały odkryciu prawdziwej natury HM Cancri, o tyle tym razem, dzięki połączonym wysiłkom astronomów, pięknej pogodzie oraz potencjałowi teleskopu w końcu udało się potwierdzić niewiarygodne dane o tym gwiezdnym systemie. Naukowcy rejestrowali w krótkich odstępach czasu światło docierające z układu gwiazd, by analizować następnie linie spektralne HM Cancri. Poszukiwali oni w ten sposób ledwie widocznych przesunięć w widmie gwiazd, które – w wyniku wszędobylskiego efektu Dopplera – pojawiały się w wyniku ruchu składników układu. Wraz z przemieszczaniem się gwiazd linie spektralne regularnie przesuwały się to w stronę niebieską to w stronę czerwoną widma, pozwalając w ten sposób precyzyjnie obliczyć prawdziwy okres orbitalny gwiazd. Okazało się, że obie gwiazdy, choć brzmi to niedorzecznie w sumie, wykonują pełny obrót wokół wspólnego środka ciężkości w czasie krótszym zapewne niż poświęcacie na przeczytanie tego wpisu. HM Cancri to układ podwójny, w którym składniki układu potrzebują zaledwie 5,4 minuty na pełny obrót wokół wspomnianego środka! Ma to oczywiście przełożenie na inne, fascynujące cechy układu – szalona prędkość gwiazd wymaga, by sam układ był maleńki, i tak też jest w istocie – odległość pomiędzy gwiazdami jest nie większa niż 8 średnic Ziemi, mówiąc inaczej jedna czwarta odległości Ziemi od Księżyca lub – liczbowo – 100 tysięcy kilometrów. W skali kosmicznej wartości te są śmiechu warte – a jednak, doktor Gij wraz z ekipą udowodnili ich poprawność. Tym samym układ HM Cancri stał się z miejsca najmniejszym i posiadającym najkrótszy okres orbitalny układem podwójnym, jaki jest nam znany. Wedle naukowców jest to również układ, który ociera się o prawdziwe ekstremum – wygląda na to, że niewiele krótszy okres orbitalny prowadziłby nieuchronnie do niemal natychmiastowego zlania się obu karłów. Stanie się to zresztą najprawdopodobniej w trudnej do określenia przyszłości, gdyż taka bliskość gwiazd zmusza je do wyhamowywania się nawzajem i dodatkowo, ponieważ niemal „ocierająâ€ się o siebie, dochodzi do przepływu materii z partnera mniejszego, zniekształconego do formy kropli, na większego. Materia ta dociera w okolice równika większej gwiazdy, gdzie dochodzi do wytworzenia promieniowania rentgenowskiego silniejszego, niż emitowane jest przez nasze Słońce. Sama obserwacja była wielkim wyzwaniem – układ HM Cancri zgodnie z wypowiedziami naukowców jest układem niezwykle „bladym” o jasności miliony razy mniejszej niż najbledszej gwiazdy widocznej gołym okiem. Ultrakrótki okres obrotowy dodatkowo utrudniał wykonanie pomiarów. Astronomowie dumnie przyznają, że ich obserwacje były na granicy współczesnych możliwości sprzętu astronomicznego. Poza stwierdzeniem co do niezwykle egzotycznych cech układu nasuwa się tutaj oczywiście niemal natychmiast kolejna uwaga – skoro mamy do czynienia z tak ciasnym układem dwóch ciał niebieskich, krążących wokół siebie z szalonymi prędkościami, łatwo powiązać ten obraz z ideałem, poszukiwanym przez wytrawnych tropicieli fal grawitacyjnych. Zgodnie z założeniami projektów mających na celu udowodnienie istnienia tychże fal, przewidywanych przez Einsteina daawno już temu, ciasne układy gwiazd są idealnymi kandydatkami do tego celu. Można więc śmiało zakładać, że jeśli już w końcu komuś uda się zarejestrować efemeryczne fale, stać się to może wielce prawdopodobnie właśnie w przypadku układu HM Cancri. Artykuł naukowców Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Link 8 Link 9 Link 10 Link 11 Link 12 Grafika: Prawdopodobny wygląd układu (symulacja komputerowa) Źródło grafiki Credit: Rob Haynes, Louisiana State University Wyświetl pełny artykuł
  6. Choć szczerze przyznam, że najgorliwszym pod słońcem fanem uniwersum “Star Trek” nie jestem (wolę od niego mimo wszystko baśniowy kosmos „Gwiezdnych wojen”), to nie oznacza to wcale, że niezwykła wizja świętej pamięci Gene Roddenberry’ego jest mi zupełnie obca – trudną do oszacowania ze względu na moją słabą pamięć serię filmów kinowych (o malejącej regularnie z każdą częścią sagi jakości, choć chlubnym wyjątkiem jest ostatnia część z 2009 roku pod tytułem po prostu „Star Trek”, którą to nawet zobaczyłem z żoną w kinie ku jej i mojej niekłamanej uciesze) widziałem, a jakże, swego czasu w wieku nastoletnim śledziłem również z zapamiętaniem serial „Star Trek: Następne pokolenie” z niezapomnianym Patrickiem Stewartem, grającym kapitalnego kapitana-łysola Jean-Luc’a Picarda. Co prawda czasy się zmieniają i obecnie bardziej interesuje mnie pierwsza kultowa odsłona serialu „Star Trek: The Original Series” z lat sześćdziesiątych minionego wieku – jako produkcja o ogromnym potencjale „rozweselającym” (kto nie zna ten gapa i niech zobaczy choćby ten arcygenialny, jesli nie najlepszy w ogóle, ), jednak i tak trzeba sprawiedliwie przyznać, że obok mrocznych wizji Dartha Vadera i szlachetnej postawy rycerzy Jedi to świat Star Treka właśnie zdobył największą popularność wśród fanów kinowo-telewizyjnego science-fiction. Trudno się więc dziwić, że jako niedoszły „Trekkie” z niemałym zainteresowaniem wczytałem się w artykuł, który pojawił się na łamach portalu Space.com. W artykule tym autor donosi o niejakim Williamie Edelsteinie, fizyku z Johns Hopkins University (Baltimore, USA), który podczas konferencji Amerykańskiego Towarzystwa Fizycznego (American Physical Society), odbywającej się w Waszyngtonie 13-tego lutego, zaprezentował wyniki swego cokolwiek frapującego aczkolwiek kontrowersyjnego – o czym później – opracowania. Edelstein zaprezentował słuchaczom w pierwszej kolejności kultowy fragment każdego chyba z filmów „Star Trek”: kapitana Kirka rozkazującego Scotty’emu wejście w prędkość „warp”. Natychmiast po zademonstrowaniu tego soczystego kawałka filmowej klasyki skomentował widziane słowami: „Well, they’re all dead”. Dlaczego aż tak kiepsko? Dwadzieścia lat temu syn Edelsteina postawił mu pozornie błahe pytanie – czy w przestrzeni kosmicznej istnieje coś takiego jak tarcie? Edelstein bez namysłu odpowiedział, że tak, przestrzeń kosmiczna bowiem, mimo iż w porównaniu z warunkami dla nas swojskimi jest niemal idealnie „pusta”, to zawiera średnio dwa atomu wodoru na centymetr sześcienny, w przypadku poruszającego się „czegośâ€ atomy te „ocierają się” więc o „to”. Bardzo to niewielkie zagęszczenie atomów i w przypadku teoretycznych pojazdów, poruszających się z małymi prędkościami, nie gra żadnej roli, jednak w przypadku prędkości relatywistycznych już jak najbardziej. Jak się okazuje pytanie to nurtowało Edelsteina przez następne dwadzieścia lat (miejmy nadzieję, że znalazł w międzyczasie jeszcze czas na inne zajęcia) aż do momentu, gdy w ostatnim czasie – wspólnie z dorosłym już synem – zajął się fachowymi obliczeniami. Na tapetę obaj panowie wzięli scenariusz, w którym statek kosmiczny miałby przebyć połowę Drogi Mlecznej w czasie 10 lat. Powiecie: niemożliwe, jednak teoretycznie nie można temu pomysłowi nic zarzucić – teoria względności mówi w końcu, że w przypadku prędkości relatywistycznych (czyli bliskich prędkości światła w próżni) czas ulega znacznemu skróceniu. Załóżmy więc, że taki statek Edelstein wraz z synem Arthurem zbudowali i gnają przez otchłanie Galaktyki. Zdaniem Edelsteina taka podróż byłaby skazana z góry na niepowodzenie – podróż przy „tylko” 99% prędkości światła (ciągle za małej, by pokonać wspomniany dystans w ciągu 10 lat) powodowałaby, że statek kosmiczny byłby bombardowany cząsteczkami wodoru, które raziłyby pojazd promieniowaniem przekraczającym dawkę skuteczną 61 siwertów na sekundę. Jednostka ta brzmi dość egzotycznie i dla mnie – wystarczy powiedzieć, że już dawka 1 siwerta na cały organizm człowieka prowadzić może do ostrego zespołu popromiennego, co najczęściej kończy się śmiercią. Doświadczenia załogi na takim statku porównywalne stałyby się więc przeżyciom inżynierów placówki CERN, którzy przypadkowo dostali się pod „ostrzałâ€ Wielkiego Zderzacza Hadronów, „strzelającego” do nich wysokoenergetycznymi protonami. Niezależnie od wszystkich innych „kłopotów” związanych z podróżą kosmiczną promieniowanie to zabiłoby wszelakie życie na statku kosmicznym, nie wspominając o elektronice, która padłaby równie łatwo. Ratunkiem mogłyby być tutaj osłony przed zabójczym promieniowaniem, problem jednak wcale nie staje się przez to bliższy rozwiązania – osłony z ołowiu, pierwiastka cokolwiek ciężkiego, musiałyby posiadać grubość nawet do kilku kilometrów! Biorąc pod uwagę fakt, że wraz z rosnącą prędkością energia konieczna do przyspieszania obiektu rośnie w szalonym tempie, dodatkowe miliony ton (strzelam) z pewnością nie byłyby zbyt ekonomiczne. Warto tutaj zaznaczyć, że rewelacje Edelsteina nie są zbyt oryginalne – o tym, że promieniowanie byłoby bardzo kłopotliwe w trakcie podróży podświetlnych, wiadomo już od dawna. Kiedy jednak zajrzycie do gorącej dyskusji pod samym artykułem, dojrzycie również sedno problemu: nieporadne wiązanie przez Edelsteina czystego science-fiction z faktami naukowymi, przy czym Edelstein wybiórczo dobiera zarówno elementy tego pierwszego jak i drugiego. Fizyk twierdzi, że promieniowanie zabiłoby załogę statku Enterprise, kiedy to kapitan Kirk zleciłby Scotty’emu przejście w „warpa”. Otóż – pozostając w świecie „Star Treka” rzecz jasna – to całkowicie nieprawda, gdyż o problemie promieniowania myślał sam twórca serii, Roddenberry, wyposażając statek w osłony i deflektory, mające za zadanie eliminiowanie takich (i nie tylko) zagrożeń. Co gorsza jednak Edelstein trochę miesza pojęcia – napęd warp nie ma nic wspólnego z przyspieszaniem statku do prędkości świetlnej, ba, nie ma nic wspólnego z ruchem jako takim. Z samej definicji napęd warp sluży do zakrzywiania przestrzeni – statek Kirka nie przemieszcza się w „zwykłej” przestrzeni, jedynie napęd wytwarza podprzestrzenną bańkę, która przemieszcza się do miejsca przeznaczenia – sam statek nie porusza się w niej wcale. Można to zauważyć choćby wtedy, gdy Enterprise przechodzi do prędkości warp – samo przyspieszenie musiałoby z załogi pozostawić mokre plamy. Możemy sobie żartować ze „Star Treka”, jednak problem leży tak naprawdę w tym, że Edelstein jako naukowiec nie do końca przemyślał chyba swój referat – skoro już sięgamy do napędu rodem z fantastyki naukowej to trzeba go akceptować wraz z jego przypadłościami, a więc wspomnianymi deflektorami i podprzestrzenną podróżą. Wtedy przykładanie fizycznych właściwiości rzeczywistego Wszechświata do takiej technologii mija się z celem – to prawda, że próby przyspieszania statku kosmicznego w naszym świecie skończyłyby się ugrillowaniem załogi przez wodór, jednak w naszym świecie nie istnieje również napęd warp jako taki. Prezentacja tematu przez Edelsteina pozostawia pewien niesmak, gdyż brak w niej naukowej konsekwencji. Źródło: Link 1 Zdjęcie: Hm… Źródło zdjęcia Credit: locustsandhoney.blogspot.com Wyświetl pełny artykuł
  7. Minionej soboty późnym wieczorem mogliśmy stać się świadkami odrobinę kuriozalnego spektaktlu medialnego – mimo wcale nie zabawnej przyczyny, jaką było potężne trzęsienie Ziemi o sile 8,8 w skali Richtera zarejestrowane tego dnia w odległym Chile, to, co działo się w anglojęzycznych stacjach telewizyjnych CNN oraz Sky News kilka godzin później musiało mimowolnie wywołać u postronnego obserwatora co najmniej rozbawienie, jeśli nie odczucia gorsze. Zbliżające się z prędkością błyskawicy do Hawajów kolejne fale spodziewanego po trzęsieniu tsunami wygoniły na zalane słońcem plaże grupy żądnych sensacji gapiów z lornetkami i kamerami wideo, wszystko to natmiast wspomniane wyżej stacje telewizyjne przekazywały „na żywo” podpisując monotonne, niemal statyczne ujęcia fal docierających do brzegu sloganami w rodzaju „First tsunami wave to hit Hawaii any moment” albo – kiedy już okazało się, że mimo wytężonego wpatrywania się w smętne fale niewiele można było z tej pierwszej fali zobaczyć – „Second wave expected shortly to hit Hawaii”. Przyznam ze skruchą, że sam straciłem chwilę na intensywną obserwację obrazu z przemysłowych kamer, transmitowanych przez CNN, nie każdego dnia bowiem ma się szansę zobaczyć tsunami „na żywo”. Trochę wprawdzie chaotyczna gadka komentatorów, przerażonych wydłużającym się czasem oczekiwania na zbliżającą się falę i nie bardzo wiedzących, o czym jeszcze w tym czasie rozprawiać, była nużąca, jednak w końcu fala się pojawiła. Podobno, bo wizualnie fala o wysokości – jak podano 1,2 metra – niekoniecznie wyróżniała się spośród wszystkich innych i sam niczego nie zauważyłem. Samo wydarzenie, którego konsekwencją były – nawet jeśli niezbyt widoczne – fale tsunami, było piątym najsilniejszym trzęsieniem ziemi, jakie udało się dotąd zarejestrować. Zaskakująca – szczęście w nieszczęściu – jest w związku z tym względnie niska szacowana liczba ofiar, która obejmuje obecnie niespełna 1000 osób, mimo to wydarzenie to rzuciło Chile w chaos, dochodziło do sporych rozrób, plądrowania czego popadnie i aktów przemocy. Nie tylko jednak mieszkańcy Chile odczuli bezpośrednio to trzęsienie – okazuje się, że miało ono wpływ na całą planetę. Choć w żadnen sposób nie potrafię sobie wyobrazić w jaki sposób tak precyzyjne obliczenia są dokonywane, już w poniedziałek geofizycy z amerykańskiej agencji NASA opublikowali informacje, zgodnie z którymi trzęsienie ziemi w Chile przyczyniło się do skrócenia długości… doby. Zanim jednak zaczniecie psioczyć na coraz krótsze dni, w ciągu których i tak już zawsze jest za mało czasu na załatwienie spraw najpilniejszych, doczytajcie do końca – doba skrócona została bowiem o zaledwie… 1,26 milionowych sekundy. Prawda, że niewiele? Nie dość, że nie jest to jakaś nowa jakość w naszym codziennym życiu, to jeszcze podobno nie da się tego w żaden sposób wymiernie zmierzyć – obliczyć jednak, a jakże, się da (ale nie wiem jak). Ziemia obracając się wokół własnej osi robi to od miliardów lat stopniowo coraz wolniej – głównym winowajcą jest tutaj nasz naturalny satelita, Księżyc, który działa na Ziemię jak przysłowiowy papier ścierny i wyhamowuje prędkość obrotową planety. Z tego powodu co kilka lat dodajemy też w sylwestra jedną dodatkową sekundę (tzw. sekundę przestępną, o której pisałem jakiś czas temu tutaj). Czasem jednak dzieją się rzeczy „nadplanowe”, które – choć globalne – wpływają na ruch całej Ziemi w sposób niemal natychmiastowy. Trzęsienie ziemi w Chile nie było rzecz jasna pierwszym, które wpłynęło na ruch obrotowy naszej planety – potężne trzęsienie ziemi z 2004 roku w południowo-wschodniej Azji, po którym tsunami zabiło setki tysięcy osób, spowodowało skrócenie doby o całe 8 milionowych sekundy. Przyspieszenie to zrzucić można w obu przypadkach na karby, w znacznym uproszczeniu oczywiście, tzw. efektu łyżwiarza. Jak wiadomo osoba taka wyczyniając akrobacyjne cuda na lodzie i wykonując piruety ustala prędkość obrotową oddalając lub przybliżając kończyny do tułowia – na tej samej zasadzie działa to w przypadku Ziemi, gdzie trzęsienia ziemi, w szczególności te naprawdę wielkie, powodują przemieszczenie się ogromnych ilości skał w kierunku centrum planety. O ile jednak trzęsienie ziemi w Chile spowodowało mniejsze przyspieszenie obrotów planety niż trzęsienie w Azji, to – bo wpływ na Ziemię na tym się nie kończy – było silniejsze pod innym względem: poza rozkręceniem planety doszło bowiem również do przesunięcia osi obrotowej globu. Oś obrotowa Ziemi przemieściła się o 8 centymetrów (niestety w którą stronę to nie mam pojęcia). W przypadku wspomnianego trzęsienia z 2004 roku przesunięcie to wyniosło mniej (choć trzęsienie samo w sobie było o wiele potężniejsze), bo centymetrów siedem. Przyczyną takiego stanu rzeczy zgodnie z wypowiedzią badaczy z NASA jest fakt, iż w 2004 roku do katastrofy doszło znacznie bliżej równika, natomiast o Chile powiedzieć tego się nie da. Nie koniec jednak na tym – naukowcy obawiają się również, że obecne trzęsienie może mieć długotrwałe konsekwencje dla Chile: w przypadku tak silnych trzęsień niedługo po nich dochodzi również do rozbudzenia aktywności wulkanów, które dotąd spokojnie sobie spały. Podobna sytuacja, również w przypadku nieszczęsnego Chile, miała już miejsce – w 1960 roku bardzo silne trzęsienie ziemi u wybrżeży kraju spowodowało, że w ciągu następnych trzech miesięcy rozbudziło się aż 5 wulkanów, aktywność ta natomiast odczuwalna była jeszcze przez lata. Źródła: Link 1 Link 2 Link 3 Grafika: Lokalizacja epicentrum trzęsienia ziemi w Chile Źródło grafiki Credit: sanfranciscosentinel.com Wyświetl pełny artykuł
  8. Wszystko wskazuje na to, że umiejscowiony na pograniczu francusko-szwajcarskim Wielki Zderzacz Hadronów (LHC, Large Hadron Collider) zaczął robić w końcu to, po co został w zasadzie stworzony – w jego podziemnych wnętrznościach ponownie zaczynają krążyć wiązki protonów, by w końcu zderzać się z energiami dotąd nieosiągalnymi dla każdego z innych akceleratorów na Ziemi. Brzmi to zaprawdę pięknie, jednak pewna fałszywa nuta również tutaj pobrzmiewa – mimo że LHC i tak już pokonał Tevatron Fermilabu pod względem mocy, to ciągle jest to moc odległa od pierwotnych planów, ba, to zaledwie połowa maksymalnej planowanej mocy. Przez długi czas nie wspominałem o LHC z jednego jak sądzę istotnego powodu – po fatalnej usterce z końca 2008 roku niewiele ciekawego dla osób spoza samej organizacji CERN działo się wokół akceleratora. Naprawy zajęły bardzo wiele czasu, wszystko to spowodowało, że cały harmonogram projektu szlag trafił i mamy na tę chwilę ponadroczne opóźnienie, mimo jesiennego odpalenia akceleratora i pierwszych, udanych doświadczeń. Teraz jednak pojawiają się nowe kontrowersyjne wypowiedzi, którym jak sądzę warto poświęcić trochę uwagi. Jednym z wielu inżynierów biorących udział w budowie LHC był niejaki Lucio Rossi, którego działką było nadzorowanie produkcji nadprzewodzących magnesów niezbędnych do funkcjonowania urządzenia. Człek ten opublikował kilka dni temu mocno krytyczne opracowanie, którego wymowa stawia pod znakiem zapytania jakość całego projektu. Zdaniem Rossiego pamiętna awaria z 2008 roku nie była dziełem przypadku, lecz wynikała z nieprawidłowości w samym projekcie maszyny oraz braku fachowej kontroli jakości i diagnostyki. Jak wiadomo wszystko zaczęło się od zwarcia, do którego doszło w jednym z sektorów akceleratora – zwarcie połączenia dwóch nadprzewodzących kabli doprowadziło do tego, że kable te zaczęły wykazywać niewielki a jednak istotny opór. Oporność kabli spowodowała, że zaczęły się nagrzewać, co, w przypadku kabli wymagających temperatur bliskich zera absolutnego do prawidłowego działania spowodowało, iż przestały „nadprzewodzić”. Prąd o natężeniu tysięcy amperów „przeorałâ€ dosłownie maszynę, tworząc sporą dziurę w akceleratorze i, co miało fatalne konsekwencje, uwalniając kilka ton ciekłego helu służącego do chłodzenia całej maszynerii. Hel zmieniając błyskawicznie postać na gazową siał prawdziwe spustoszenie, wieńcząc całą demolkę. Wnikliwa analiza awarii wykazała, że fachowcy zajmujący się lutowaniem kabli nie wykonali swej roboty zbyt dobrze. Biorąc pod uwagę, że w całym akceleratorze takich połączeń są bez mała dziesiątki tysięcy, trudno oprzeć się wrażeniu, że skoro błąd został popełniony raz, musiał siłą rzeczy zostać popełniony przy takiej liczbie i gdzie indziej. Idąc dalej – zarówno zastosowana cyna (z dodatkiem srebra) jak i kontrola wykonanych połączeń daleko były od optymalnych. Dopiero też po szkodzie zaczęło się montowanie systemu awaryjnego (QPS), który nadzoruje i w razie potrzeby monituje operatorów o wzroście temperatury. Wiadomo już, że połączeń, które mogą prowadzić do „powtórki z rozrywki”, jest więcej – niestety musi się to odbić na terminie, w którym maszyneria osiągnie planowaną pełną moc. W tej chwili władze CERN szacują, że LHC pełną moc osiągnie w ciągu… 18 do 24 miesięcy, czyli, będąc realistami, możemy przyjąć, że dojdzie do tego gdzieś w okolicach 2013 roku! Rossi co prawda nikogo nie wytyka palcem i nie zarzuca bezpośrednio nikomu zepsucia „najdroższej zabawki świata”, mimo to część komentatorów przyznaje mu rację – wiele wskazuje na to, że podczas projektowania maszyny niektóre rozwiązania dobierane były tak, by zoptymalizować elementy pod względem łatwości montażu, bez odpowiedniego zabezpieczenia ich jakości. Z drugiej strony rację mają również ci naukowcy, którzy zaznaczają, iż przy tak ogromnej kompleksowości błędy są nieuniknione. Niezależnie od oceny sytuacji najbliższa przyszłość pokaże kto ma rację – Rossi ostrzega bowiem, że awaria z 2008 roku może powracać jeszcze nie raz w takiej czy innej formie, gdyż sama przyczyna usterki nie może być w tej chwili całkowicie wyeliminowana w całej maszynie. Pozostaje nam mieć tylko nadzieję, że usterek nie będzie wcale lub będzie ich jak najmniej, w oczekiwaniu na 2013 rok, w którym – być może – LHC zademonstruje w końcu swe możliwości. Praca Rossiego (PDF) Źródła: Link 1 Link 2 Link 3 Wyświetl pełny artykuł
  9. Abstrahując od barwnych konfabulacji nawiedzonych osobników pragnących wątpliwego gatunku sławy, którym w najdziwniejszych momentach przytrafiają się bliskie a nawet czasem bardzo bliskie spotkania z przedstawicielami obcych form życia, nasza odpowiedź na odwieczne pytanie o miejsce ludzi we Wszechświecie brzmiące dwojako – jesteśmy nieskończenie udanym i niepowtarzalnym arcydziełem w skali całego Kosmosu czy też jedną z niezliczonych, mniej lub bardziej pokracznych, manifestacji życia, od których dosłownie kipi każdy zakątek tegoż – zależy tylko i wyłącznie od jednego: osobistych preferencji osoby na to pytanie odpowiadającej. Oczywista poniekąd własność Wszechświata – jego niewyobrażalna wielkość i wynikające z niej skale odległości – udaremnia póki co każdą próbę uzyskania miarodajnej odpowiedzi; zapomnijmy o kontynuowanym już od sześćdziesięciu lat i bezsensownie marnotrawiącym fundusze projekcie SETI (a niby dlaczego obce cywilizacje miałyby wysyłać do nas sygnały na wybranych przez naukowców częstotliwościach?), zapomnijmy o słynnym równaniu Drake’a, w którym dowolnie dobierane zmienne mogą prowadzić do wyników akurat takich, jakie są nam na dany moment potrzebne – zapomnijmy w końcu o podróżach kosmicznych w celu eksploracji Galaktyki, które w przewidywalnej przyszłości nie będą możliwe (jeśli w ogóle kiedykolwiek będą) – faktem jest, że w chwili obecnej nasza opinia o tym, czy życie jest lub nie jest czymś „zwyczajnym” w skali Wszechświata, zależy tylko od naszych przekonań. Ponieważ moim niezaprzeczalnym przywilejem jest kształtowanie tego wpisu wedle mojej woli, dodam – propagując mój własny światopogląd – że powtarzalność fenomenu „życia” we Wszechświecie musi w zasadzie być czymś niezaprzeczalnym: wspomniana wcześniej własność Wszechświata, jego wielkość, miriady galaktyk, które go zasiedlają, wymuszają na rozsądnie myślącym cżłowieku akceptację faktu, że Ziemia nie jest jedynym miejscem, w którym powstało życie właśnie. Oczywiście, dowodu żadnego na poparcie tej odważnej tezy przedstawić nie mogę, jednak pomyślcie tylko – nasza Galaktyka, Droga Mleczna, zawiera kilkaset miliardów gwiazd – jaki procent z nich posiada układy planetarne ciągle jest kwestią niejasną – Droga Mleczna jest jedną z miliardów galaktyk w obserwowalnym – powtarzam, obserwowalnym! – Wszechświecie, przy tak przytłaczających liczbach trudno oczekiwać zaprawdę, że z pierwiastków obecnych na Ziemi (które nawiasem mówiąc nie wydają się być pierwiastkami zarezerwowanymi tylko dla tej planety, wręcz przeciwnie) powstało coś, co gdzie indziej powstać nie może. Tak jak napisałem wcześniej – jeśli ktoś chce wierzyć, że życie na Ziemi jest niepowtarzalnym cudem, nie przekona go i tak żadna argumentacja. Choć nasz Wszechświat jest tak przestronnym miejscem, w którym wszystko powinno być w zasadzie możliwe, naukowcom nawet taka gigantyczna piaskownica wydaje się nie wystarczać. Jedną sprawą jest bowiem zastanawianie się nad tym, jak często życie mogło zakwitnąć w naszym Wszechświecie, zupełnie inną parą kaloszy jest jednak spekulowanie co do tego, czy życie mogłoby powstać w innym Wszechświecie. Możecie zaoponować – jak to „innym”, jednak niektórzy z Was z pewnością słyszeli o współczesnych poglądach części kosmologów, którzy wcale nie wykluczają istnienia „innych” Wszechświatów właśnie. Mniejsza o mechanizmy, które za takim „wieloświatem” („multiverse” z angielska) miałyby stać – wymagałoby to rozdęcia tego wpisu do rozmiarów sporego artykułu, dodatkowo zapędziłoby autora w rejony, w których czuje się dość niepewnie – wystarczy przyjąć, że analiza współczesnych teorii naukowcy nie wyklucza istnienia nieskończonej wręcz liczby Wszechświatów, podobnych i niepodobnych zarazem do naszego. Niezależnie od genezy takich Wszechświatów bezpośrednie badanie ich „zawartości” nie jest i nie będzie możliwe – w związku z tym naukowcy mogą tylko swawolnie spekulować co do tego, jakie te Wszechświaty mogłyby być. Jednym z najważniejszych powodów, który pociąga naukowców w takich rozważaniach, nie jest wbrew pozorom sam fakt poszukiwania życia: przyczyną zdaje się być niepokojące (pozornie moim skromnym zdaniem) i bardzo subtelne „dostrojenie” naszego Wszechświata do życia. Co przez to rozumiemy? W filozofii i jednocześnie kosmologii od kilkudziesięciu lat istnieje pewna zasada, która ma wielu zwolenników, jak i również wielu zagorzałych przeciwników. Mowa o tzw. zasadzie antropicznej. Zasada ta jest niejako próbą odpowiedzi na odwieczne pytanie – dlaczego Wszechświat jest taki właśnie, jaki jest, dlaczego prawa fizyczne są takie a nie inne. Zgodnie z brzmieniem tej zasady wszystko to jest właśnie takie, bo… istniejemy. Gdyby ludzie jako tacy nie istnieli, wówczas nie istniałby obserwator, który mógłby stwierdzić, że Wszechświat jest taki lub owaki. Wynika z tego pośrednio wniosek, że Wszechświat jest taki właśnie, jakim go obserwujemy, bo my, ludzie, istniejemy. Mówiąc szczerze zasada antropiczna nigdy do mnie nie przemawiała – skądinąd nigdy nie potrafiłem znaleźć przyczyny, dla której prawa fizyki jak i cały Wszechświat NIE MOGŁYBY być takimi jakimi są, w związku z czym nic nie przemawia za tym, by ludzie nie mogli powstać. Problem jest oczywiście głębszy – tutaj w końcu wracamy do problemu „dostrojenia” Wszechświata. Polega on w skrócie na tym, że ogromna ilość stałych w przyrodzie wydaje się być niezwykle precyzyjnie „dopasowana” do tego, by życie jako takie mogło powstać na Ziemi. Ledwie zauważalne nawet zmiany tylko jednej z nich prowadziłaby nieuchronnie do zupełnie innego wszechświata, w którym – przykładowo – nie powstawałyby wcale gwiazdy lub który zapadłby się w chwilę po jego powstaniu, w każdym bądź razie takiego, w którym człowiek nie miałby racji bytu. Wiele hipotez wysunięto co do „precyzyjnego dostrojenia” – najoczywistszą dla wielu wydaje się ingerencja „wyższej siły”, która w taki a nie inny sposób poukładała wszystkie prawa fizyki. Ponieważ nie chciałbym zagłębiać się tutaj w otchłanie filozoficznych dywagacji, zostawię to pod Waszą rozwagę – superintelekt czy przypadek, każdy decyduje sam. Teorie „wieloświatów” wydają się być niezłą alternatywą dla wyżej opisanego podejścia – w przypadku, gdy Wszechświatów jest nieskończenie wiele (a przynajmniej bardzo ale to bardzo dużo), znika konieczność stosowania zasady antropicznej, dostrojenie staje się również bardziej „naturalne” – nie mówimy już w końcu o jednym Wszechświecie o takich a nie innych stałych fizycznych, a o wielu wszechświatach, gdzie każdy z nich charakteryzuje się innym „zestawem” stałych. Tym samym geneza życia sprowadza się do tego, iż powstało ono po prostu w takim z Wszechświatów, w którym warunki były akurat sprzyjające. Koniec, kropka. Nie raz i nie dwa naukowców badali konsekwencje, jakie niosłaby ze sobą zmiana pojedynczej stałej fizycznej dla całego Wszechświata. Wbrew pozorom cały ten misterny mechanizm skonstruowany jest w taki sposób, by funkcjonować doskonale, jednak tylko w bardzo wąskim przedziale. Naiwnie można by w końcu założyć, że zmiana, weźmy na to, poziomów energetycznych w atomie pierwiastka takiego jak węgiel nie powinna mieć dużego znaczenia – cóż, okazuje się, że taka zmiana oznaczałaby martwy Wszechświat. Rozważano więc konsekwencje zmiany pojedynczej stałej – pójdźmy jednak o krok dalej i zastanówmy się nad tym, co działoby się wówczas, gdyby naukowców dopuszczono do kilku lub więcej „pokrętełâ€ w maszynerii Wszechświata? O ile zmiana jednej tylko stałej prowadzi nieuchronnie do katastrofy, o tyle zmiana kilku stałych może doprowadzić do całkiem ciekawych wyników. W lutowym wydaniu „Świata Nauki” ukazał się bardzo ciekawy artykuł, w którym amerykańscy badacze z instytutu MIT (Massachusetts Institute of Technology) rozważali właśnie takie podejście. Co prawda artykuł ten jest ogólnie dostępny w czasopiśmie, jednak uznałem, że warto kilka słów naskrobać o nim samym, dodatkowo dotarłem również do tekstu opublikowanego przez samą uczelnię. W każdym bądź razie zainteresowanych odsyłam dodatkowo do samego pisma. Fizycy Robert Jaffe, Alejandro Jenkins oraz Itamar Kimchi przyjęli, że istnieje coś takiego jak „wieloświat”. To pierwsze założenie – drugim, może i dyskusyjnym, jednak upraszczającym analizę, było założenie, że analizujemy owe wszechświaty alternatywne biorąc pod uwagę ich „dostrojenie” dla życia opartego na węglu. Założenie to było w zasadzie konieczne, gdyż nie nakładając tego ograniczenia spekulacje stałyby się zupełnie dowolne. Idźmy dalej – praca naukowców z MIT jest wyjątkowa pod pewnym ważnym względem – o ile dotąd analizowano konsekwencje zmiany jednej stałej, o tyle badacze z USA zastanawiali się nad tym co by się stało, gdyby zmienić tych stałych kilka. Wbrew pozorom wnioski, do jakich doszli, były dość zaskakujące – nawet wszechświaty o zupełnie innym „zestawie” stałych nie musiałyby być automatycznie martwe. Przykłady? Proszę bardzo. Amerykańscy fizycy manipulowali przy masach kwarków – elementarnych składników materii. W naszym Wszechświecie tzw. kwark dolny jest mniej więcej dwa razy cięższy od tzw. kwarka górnego (nie pytajcie o więcej szczegółów!), z tego też powodu neutron posiada masę większą o 0,01 % od masy protonu. Tak to wygląda w przypadku naszego świata i jak widzimy to na własnym przykładzie działa to wyśmienicie. Jaffe z kolegami założył jednak, że w wyimaginowanym wszechświecie sprawy mają się inaczej – tam kwark dolny nie dość, że nie jest cięższy, to jest nawet lżejszy: protony stawały się tym samym cięższe od neutronów o 1%. I cóż się okazało? W takim scenariuszu byłoby ciągle hipotetycznie miejsce na życie oparte na węglu – najważniejsze z punktu widzenia naukowców pierwiastki – wodór, węgiel i tlen – istniałyby w stabilnych formach, umożliwiając powstawanie skomplikowanych cząsteczek. To tylko jeden z przykładów – manipulacji przy masach kwarków naukowcy podjęli więcej, znajdując grupę wszechświatów, w których mimo egzotycznej struktury cegiełek materii ciągle mogłoby powstać życie „węglowe”. Przy okazji naukowcy z MIT wspominają również o innych badaczach (z Lawrence Berkeley National Laboratory), którzy, można by rzec, poszli jeszcze dalej w swoich poszukiwaniach – naukowcy ci bowiem nie majstrowali przy masach cząstek a całkowicie wyeliminowali jedną z czterech fundamentalnych sił przyrody definiujących nasz Wszechświat – oddziaływanie słabe. I tutaj się okazało, że mimo braku fundantalnej w końcu siły niewielkie zmiany w pozostałych oddziaływaniach mogłyby prowadzić do powstawania stabilnych pierwiastków mających znaczenie dla życia. Oczywiście prace obu zespołów są czysto spekulacyjne – w żaden sposób nie uda nam się ani potwierdzić ani zanegować wyników tych opracowań z tego względu, że inne wszechświaty (o ile oczywiście w ogóle istnieją, co również podlega dyskusji) nie będą nigdy podlegać obserwacjom. Mimo to takie zabawy myślowe mają swoje znaczenie – nawiązując do zasady antropicznej oraz „dostrojenia” Wszechświata, o którym wspominałem na początku tego wpisu, może pomóc nam zrozumieć jakie naprawdę jest nasze miejsce we Wszechświecie. Fragment artykułu w “Świecie Nauki” Źródła: Link 1 Wyświetl pełny artykuł
  10. Świadomość tego, że dla porażającej większości istot ludzkich już sam dźwięk słowa „nauka” stanowi wystarczający powód do mimowolnego kręcenia nosem i rozpaczliwego poszukiwania sposobu ewakuacji z niewygodnej dla nich konwersacji, nie jest z pewnością naprzyjemniejszym doznaniem, na jakie na co dzień jestem narażony. Od razu dodam asekurancko – „nauka” w powyższym kontekście to bynajmniej nie katorżnicze zakuwanie materiałów edukacyjnych w trakcie zdobywania swego wykształcenia, w tym przypadku bowiem nie mogę sam udawać Greka i opowiadać bzdur o tym, jak bardzo uwielbiałem się swego czasu uczyć (bo nie lubiałem, taka okrutna to prawda) – mam raczej na myśli w tym konkretnym przypadku „naukę” jako pojęcie ujmujące całokształt naszej, gromadzonej od tysięcy lat, wiedzy o Wszechświecie. Nieskrywana niechęć przytłaczającej większości społeczeństwa do tematów związanych z wiedzą naukową wydaje mi się co najmniej dziwna – skądinąd uważam, że ciekawość jest mimo wszystko jednym z naszych wrodzonych instynktów i w takim świetle zupełny brak zainteresowania dokonaniami najtęższych głów może mocno zastanawiać. Jedną z przyczyn takiego stanu rzeczy jest zapewne królujące wśród wielu ludzi przekonanie, że „nauka” to takie skostniałe „cośâ€, co w zasadzie już mniej lub bardziej dawno zostało raz na zawsze zbadane, „stwierdzone” i ustalone, a cała robota współczesnych naukowców polega na tym, by dopieszczać szczegóły i ewentualnie wygładzać nierówności na tym nieskazitelnym tworze. Z tego względu „nauka” jawi się wielu jako coś niezmiernie nudnego, wypranego zupełnie z dynamiki, nagłych zwrotów i zmian – rzeczy, które w rzeczywistości są charakterystyczne dla kształtowania wiedzy ludzkości i bez których postep jako taki nie byłby chyba możliwy. Nie bez kozery ten przydługi wstęp kończę zdaniem o „nagłych zwrotach”, gdyż słowa te jak ulał pasują do tematu dzisiejszego wpisu. O tzw. świecach standardowych pisałem już kilkakrotnie, w wielce telegraficznym skrócie przypomnę więc tylko, że tym mianem nazywane są obiekty w Kosmosie, dzięki których dobrze poznanej charakterystyce i powtarzalności ich zachowania możemy w miarę dokładnie określać odległości w ogromnych skalach. Świecami standardowymi są między innymi tzw. supernowe Ia, o których również nie raz i nie dwa już pisałem. Supernowe Ia to supernowe mocno specyficzne – zgodnie z aktualnie wiodącą teorią to białe karły posiadające partnera w postaci gwiazdy –olbrzyma zasysające niejako materię od większego kooperanta, by po przekroczeniu pewnej krytycznej masy zapłonąć w ogniu termojądrowej eksplozji i zostać rozerwanym na strzępy. Miłą dla astrofizyków cechą takich supernowych jest bardzo charakterystyczna krzywa blasku, opisująca w miarę ściśle sposób, w jaki zmienia się jasność eksplodującej gwiazdy w czasie; w przypadku wszystkich supernowych tego typu krzywa ta wygląda bardzo podobnie. Dzięki temu, że supernowa Ia zachowuje się oględnie rzecz biorąc zawsze tak, jak każda inna przedstawicielka gatunku, możliwe jest wykorzystywanie takich gwiazd jako wspomniane wcześniej świece standardowe. Biorąc bowiem pod uwagę krzywą blasku i oceniając jasność eksplozji i jej zmiany w czasie łatwo można wywnioskować, w jakiej odległości sama gwiazda się znajduje. Co bardzo ważne w tym kontekście – supernowe należą do niezwykle jasnych obiektów, przyćmiewających w szczycie swej „działalności” całe galaktyki, tym samym widoczne są z ogromnych odległości, na których inne techniki pomiaru tejże zupełnie zawodzą. Dzięki świecom standardowym dowiedzieliśmy się sporo o Wszechświecie – najważniejszym jednak chyba odkryciem związanym z supernowymi Ia jest stwierdzenie w 1998 roku, że ekspansja Wszechświata przyspiesza. Jasność bardzo odległych supernowych nie do końca pasowała do wcześniej wspomnianej charakterystyki krzywej blasku, co zmusiło badaczy do zaakceptowania tego, iż Kosmos ekspanduje coraz szybciej. Na dzień dzisiejszy tak właśnie wygląda w ogromnym uproszczeniu nasz stan wiedzy w tej materii – okazuje się jednak, że wszystko to, co napisałem powyżej, może nie do końca być prawdą. W nobliwym piśmie „Nature” ukazał się bowiem niepokojący artykuł, który – jeśli potwierdzą się dane w nim przedstawione – może spowodować spore zamieszanie w światku kosmologów. Naukowcy z Max-Planck-Institut für Astrophysik w Garching (Niemcy), Akos Bogdan oraz Marat Gilfanov, postanowili pewnego pięknego dnia przyjrzeć się założeniom, leżącym u podstawy wcześniej opisanych mechanizmów. Precyzując – postanowili sprawdzić, czy obserwacje potwierdzają najbardziej „chodliwąâ€ obecnie teorię wyjaśniającą genezę supernowych Ia. W tym celu zaprzęgli do roboty amerykańskiego satelitę rentgenowskiego Chandra, który posłużył do obserwacji pięciu pobliskich galaktyk eliptycznych oraz centralnego obszaru galaktyki Andromedy. Jak wspomniałem wcześniej uważa się obecnie, że supernowe typu Ia powstają, gdy białe karły, podróżujące przez otchłanie Kosmosu z masywnym kompanem, nakradną od niego więcej materii, niż to dla nich zdrowe, co kończy się tragicznie. Ważną cechą tego procesu jest sam przepływ materii, który – jak uważają naukowcy – trwa względnie długo: do powstania supernowej Ia nie dochodzi w mgnieniu oka, biały karzeł zasysa materię nawet przez dziesiątki milionów lat, zanim dojdzie to wybuchowego finału. Ów przepływ materii powinien jednocześnie generować promieniowanie w zakresie rentgenowskim przez równie długi czas. Specyficzne ślady promieniowania rentgenowskiego stały się celem poszukiwań naukowców z Garching. Ku wielkiemu ich zaskoczeniu okazało się jednak, że promieniowanie rentgenowskie o takiej charakterystyce jest od 30 do 50 razy słabsze, niż powinno być, jeśli model przepływu energii do karła jest poprawny. Opierając się na wynikach swych obserwacji naukowcy doszli do cokolwiek zdumiewającej konkluzji, że – przynajmniej w przypadku obserwowanych systemów gwiezdnych – supernowe typu Ia musiały niemal wszystkie powstać w inny sposób: na drodze „zlania” się ze sobą dwóch białych karłów. Dotąd przypuszczano, że taki scenariusz ma miejsce w przypadku bardzo niewielu supernowych tego typu – winą za przeważającą większość obarczano białe karły kradnące materię od partnerów. Takie podejście zabezpieczało byt supernowych Ia jako świec standardowych, jednakże jeśli uznać, że jest odwrotnie, to świece te stają się nagle dość niepewne. Naukowcy oparli swe wnioski na fakcie, że zjawisku połączenia dwóch białych karłów towarzyszyć powinien krótki rozbłysk promieniowania rentgenowskiego, czym można by uzasadnić niewielką ilość tego promieniowania zaobserwowaną przez naukowców. Problem staje się poważny gdy zauważymy, że kolizje białych karłów są zróżnicowane pod względem jasności eksplozji – wszystko staje się zależne od masy białych karłów przed kolizją. Krzywa blasku staje się tym samym charakterystyczna tylko dla danego układu, nie jest natomiast reprezentantywna dla całego „gatunku” supernowych. Jeśli zaakceptujemy taki wniosek, musimy wykonać krok drugi i przyznać, że wyznaczanie odległości na podstawie pomiarów blasku supernowych Ia może być obarczone sporymi błędami. Zanim świat kosmologów stanie na głowie trzeba jednak jeszcze upewnić się co do tego, czy odkrycie astrofizyków z Niemiec jest reprezentatywne dla wszystkich galaktyk – ponieważ pięć z sześciu galaktyk obserwowanych przez Niemców było galaktykami eliptycznymi, nie można wykluczyć, że to cecha takich właśnie galaktyk, z wykluczeniem spiralnych, które odgrywają zazwyczaj o wiele ważniejszą rolę w naszych obserwacjach. W tym celu konieczne jest prowadzenie dalszych badań, zbyt wczesnie więc mówić już o małej rewolucji. Warto jednak przyglądać się rozwojowi sytuacji ze sporą uwagą – jeśli doniesnienia z Garching się potwierdzą, wówczas trzeba będzie na nowo przyjrzeć się danym, na podstawie których ekspansja Wszechświata uznana została za przyspieszającą. Artykuł w “Nature” (płatny!) Źródło: Link 1 Grafika: Teoretycznie tak dochodzi do kolizji białych karłów Źródło grafiki Credit: NASA/Dana Berry, Sky Works Digital. Wyświetl pełny artykuł
  11. Pisząc o tym jak wielką względnością charakteryzuje się nasza subiektywna percepcja upływającego miarowo w końcu czasu nie odkryję zapewne niczego niezwykłego – „chwilowa” przerwa od pisania, na jaką zdecydowałem się u finału minionego roku, okazała się być niezmiernie długą „chwiląâ€, rozciągającą się jak się okazało na koszmarnie długie dwa miesiące. Nie oznacza to bynajmniej, że Cytadela odeszła całkowicie w zapomnienie w tym czasie – niezwykle miło było zajrzeć co jakiś czas na stronę i odnaleźć nowe komentarze, świadczące o tym, że mimo wydłużającego się zastoju celowym jest powrót do aktywności. Serdecznie z tego względu dziękuję za owe komentarze, przepraszając jednocześnie za grobowe milczenie z mojej strony – przerwa w pisaniu jednak w założeniu miała być przerwą „totalnąâ€; nie objęła zresztą tylko samej Cytadeli ale dotyczyła niemal wszystkich miejsc, w których bywałem aktywny w Sieci. Wiele się zdarzyło w minionych dwóch miesiącach – naukowcy nie zważając na moje nieróbstwo pracowali dalej nad swymi tajemniczymi zadaniami, Wszechświat nie zatrzymał się nieoczekiwanie w miejscu (w jednych jego zakątkach niektóre gwiazdy umierały, w innych znowu inne rozpoczynały swój żywot) a nasze życia toczyły się oczywiście tak jak i wcześniej mniej lub bardziej beztrosko. Sporo czasu mi zajęło zastanawianie nad tym, o czym napisać w pierwszy wpisie po tak długiej – dotąd niespotykanej w końcu w już ponad dwa lata trwającej epopei pod nazwą Cytadela – przerwie: po długim namyśle doszedłem jednak do wniosku, że nie warto wracać do przesłości, tworząc wydumane podsumowania najciekawszych moim zdaniem informacji. Część z Was zresztą zapewnie nie poprzestawała na wizytach na mojej stronie, mam nadzieję, że źródła, podawane przeze mnie w każdym z wpisów, stały się dla najbardziej zainteresowanych miejscami, w które zaglądali nie raz i nie dwa (ze wskazaniem na doskonały portal UniverseToday.com, który nie od dziś jest moim faworytem w tej kategorii). Z tego względu niniejszy wpis jest niejako „grubą krechąâ€, oddzielającą to, co działo się w ostatnich dwóch miesiącach od tego, co dzieje się obecnie i dziać się będzie w interesującym nas świecie kosmicznych zagadek. Wpis ten służy również sprawom „organizacyjnym” w pewnym sensie – co prawda przygotowałem już sobie w zarysie tekst na następny wpis „tematyczny”, jednak uznałem, że warto wpierw ponownie się przywitać i wyjaśnić to i owo. Jedną z takich kwestii jest prośba od jednego z czytelników, dotycząca wpisu o jego ambitnym, amatorskim projekcie – proszę o wybaczenie, że dotąd nie odpowiedziałem, jednak nie zapomniałem o tym i wpis taki z pewnością wkrótce się pojawi. Kolejna sprawa to konkurs na Blogera Roku 2009 – chyba niezbyt rozsądną jest prośba o oddanie głosu na Cytadelę na kilka dni przed zakończeniem konkursu (bodajże 23 lutego zamyka się głosowanie), jednak mimo to nie odwiedzie mnie to od złożenia takiej prośby na Wasze ręce – w minionym roku udało mi się w końcu załapać na trzecie miejsce w kategorii, więc czemu nie miałoby się to udać ponownie? I oczywiście ważna uwaga – każda osoba, która zagłosuje, również może coś wygrać latpopa (chyba tak). Kończąc ten „powitalny” wpis chciałem jeszcze raz podziękować wszystkim czytelniczkom i czytelnikom za wytrwałość i wiarę w – cóż za fantazyjne porównanie – powrót marnotrawnej Godzilli (która, jak bardzo mnie rozbawiając tym komentarzem ujął jeden z czytelników, zaginęła w głębinach oceanu na długo) do Zatoki Tokijskiej. Cóż, Godzilla zawsze kiedyś powróci siać spustoszenie i zagładę, taka już kolej rzeczy. I tym optymistycznym akcentem… Wyświetl pełny artykuł
  12. Obecna – dobiegająca szczęśliwie, choć niestety tylko pozornie – przerwa w aktywności z pewnością jest jedną z najdłuższych, jeśli w ogóle nie najdłuższą, z jakimi mogliście mieć do czynienia obcując z tym blogiem; nie ma jednak sensu rozwodzić się zbytnio o przyczynach tej przewlekłej apatii autora, wystarczy zamiast rozwlekłych wynurzeń użyć jednego, jakże pojemnego słowa – życie. Jak w przypadku wszystkiego innego czasy dzielą się na lepsze i gorsze, wyjątkiem od tego nie jest również prowadzenie strony internetowej (szerzej nawet ogólnie pojęta aktywność w Internecie), przypadłość ta nie ominęła niestety i mnie samego – w ostatnich tygodniach moja obecność w Internecie osiągnęła swoiste minimum, choć trudno mi w zasadzie powiedzieć, dlaczego tak się dzieje, bo trudno to nazwać przesytem czy znudzeniem. Nie mogło w związku z tym być inaczej – Cytadela pokryła się na ponad już dwa tygodnie kurzem i pleśnią, poza sporadycznymi komentarzami nie byłem w stanie napisać czegoś więcej. Nie wspominam tutaj świadomie o pojawiających się komentarzach Czytelników, które z przyjemnością czytałem i za które serdecznie dziękuję. Przepraszam wszystkich rozczarowanych brakiem wpisów (przy założeniu, rzecz jasna, że tacy istnieją), miła niezmiernie jest świadomość, że pisze się coś, co kto inny czyta z przyjemnością, jeszcze milsza, że może tej koślawej twórczości komuś brakować. Niestety muszę przyznać, że wpis dzisiejszy jest bardziej pokraczną próbą wyłgania się od napisania o czymś konkretnym niż takim właśnie „zwyczajnym” wpisem, liczę na Waszą wyrozumiałość w tej kwestii. Z jednej strony zapewniam, że Cytadela jako taka nie dokona (przynajmniej w przewidywalnym dla mnie czasie) żałośnie żywota i stanie się jednym z milionów blogów, które straszą po Internecie datami ostatnich wpisów sprzed roku czy nawet dłuższego czasu. Włożyłem naprawdę sporo pracy zarówno w stworzenie strony w takiej formie, jaką ma obecnie, jak i w setki wpisów, nie byłoby dobrym pomysłem rzucić tym wszystkim i zmarnować dwa lata pracy. Z drugiej jednak strony chcę być wobec wszystkich szczery – poza ogólnie pojętą „Internetową apatiąâ€ istnieje coś bardziej niebezpiecznego – pomijając brak czasu, inne zajęcia i dee, brak mi w ostatnim czasie prawdziwej radości związanej z pisaniem, w pewnym sensie maszynka, która działała lepiej lub gorzej przez ostatnie dwa lata dostała zadyszki i pogubiła się trochę w swoim świecie. A ponieważ uważam, że tworzenie wpisów „dla porządku”, aby po prostu się mogły pojawiać, bez szczerego entuzjazmu, rozmija się z celem, jaki przyświecał mi podczas zakładania strony, wolę po prostu od pisania odpocząć. Mam nadzieję, że decyzja ta spotka się z Waszym zrozumieniem. Ponownie zastrzegam, że to nie koniec istnienia strony, w żadnym wypadku – jedynie bliżej niezdefiniowania „przerwa w działalności”, niezdefiniowana, bo nie potrafię teraz w żaden sposób oszacować, ile czasu minie aż syn marnotrawny powróci. Z pewnością nowe wpisy nie pojawią się jeszcze w tym roku – wyjeżdżam na dłuższy czas za granicę, gdzie odpoczynek i świąteczna atmosfera nie będą nakłaniać mnie do pisania. Trudno mi też powiedzieć, czy aktywność zwiększy się po Nowym Roku – mam jednak szczerą nadzieję, że nowe wieści o Wszechświecie pojawią się tutaj w okolicach połowy stycznia. Dziękuję wszystkim wytrwałym czytelnikom za wierność i wytrwałość, komentarze i aktywne motywowanie do pisania, to rzecz nieoceniona. Na czas świąt życzę wszystkim udanego, relaksującego odpoczynku od spraw życia codziennego, nie zapominając o udanym „ślizgu” w nowy, dziesiąty rok tego tysiąclecia. Do zobaczenia za kilka tygodni! Pozdrawiam serdecznie! Wyświetl pełny artykuł
  13. Swego czasu o Wielkim Zderzaczu Hadronów (Large Hadron Collider, LHC), gigantycznej machinie piekielnej zakamuflowanej w kazamatach szwajcarskiego instytutu naukowgo CERN, zadarzało mi się pisać i rzadziej i częściej (bardziej to drugie), z tego względu niektórzy z Was mogą być zaskoczeni tym, że i tym razem wpis o LHC jednak nie będzie – zbyt wiele hałasu, nawet w „szeroko dostępnych” mediach, wokół tej „maszyny końca świata” ostatnio było, by po raz kolejny mnożyć niepotrzebnie i tak już wtórne treści – wystarczy mi z wielkim zadowoleniem stwierdzić, że LHC ponownie działa po czternastu miesiącach przerwy, pierwsze wiązki w końcu spotkały się na swych przeciwbieżnych drogach a wszystko przebiegło zaskakująco dobrze – więcej nawet: dosłownie “przed chwilą” (informacja z wczoraj) urządzenie to ustanowiło rekord jeśli chodzi o energię przyspieszanych protonów, warto odnotować to i dlatego, że wbrew obawom sceptyków Ziemia jako taka ciągle istnieje i świat się nie skończył. Jeśli jednak tylko coś rzeczywiście ważnego w przyszłości w CERN’ie się wydarzy (pomijając, mam nadzieję, kolejną usterkę, mam tutaj na myśli bardziej przełomowe odkrycia) nie odmówię sobie przyjemności o tym rozwlekle jak to mam w zwyczaju napisać. Szampańska fiesta społeczności naukowej związana z rozkręceniem LHC na dobre nie jest jednak jedynym godnym uwagi, choć niewątpliwie najgłośniejszym, wydarzeniem ostatnich dni i tygodni w świecie – do takich przynależy w moim mniemaniu również jak najbardziej fakt, któremu wspomnianej wyżej uwagi poświęcono o wiele mniej – dwa tygodnie temu, 13 listopada, w odległości niespełna dwóch i pół tysiąca kilometrów od naszej planety przemknęła sobie po cichutku sonda kosmiczna Rosetta. Z pewnością samo wydarzenie jako takie nie rzuca na kolana i nie odbierze Wam spokojnego snu nocami, jednak to nie do końca tak, jak na pierwszy rzut oka wygląda – zazwyczaj mimo wszystko nie fatyguję się pisać o każdym przelocie sond kosmicznych wokół Ziemi (czy innej planety), musi więc chodzić o coś więcej. Niektórzy z Was pewnie już mogą przypuszczać, do czego zmierzam – do tzw. anomalii „fly-by”. Angielskojęzycznym, a jakżeby inaczej, pojęciem „fly-by” określa się manewr, służący do – oględnie mówiąc – przyoszczędzenia kilku wcale niemałych groszy w przypadku misji kosmicznych. Ponieważ sondy badawcze to z założenia względnie niewielkie urządzenia i wszystkim naukowcom zależy na tym, by jak najwięcej aparatury pomiarowej w nich upchać, ogranicza się ilość paliwa niezbędnego do wykonania całej misji do niezbędnego minimum. Pomaga w tym niewątpliwie właśnie wykorzystanie mechanizmu „fly-by”, polegającego na tym, że sonda kierowana jest (nawet kilkakrotnie) po precyzyjnie obliczonej trajektorii w pobliże masywnego obiektu (w naszym Układzie Słonecznym świetnie nadaje się do tego na przykład Jowisz, Ziemia spełnia również swoje zadanie całkiem dobrze), gdzie sonda ta, uchwycona w grawitacyjne łapy planety nabiera „darmowo” prędkości i jak z procy wystrzeliwana jest w dalszą podróż. Poprzez kilkakrotne powtórzenie tego manewru można wydatnie przyspieszyć urządzenie bez inwestowania w to wszystko zbyt wiele energii. Można więc powiedzieć, że manewr „fly-by” oddaje nieocenione przysługi wszystkim operatorom misji badawczych. I mogłoby tak pozostać na wieki wieków, jednak poza korzyściami zawdzięczamy mu również jedną z najbardziej frapujących tajemnic współczesnej eksploracji kosmosu – mianowicie anomalię z nim związaną. Jeśli jeszcze nie spotkaliście się z tym zagadnieniem, to pewnie zaskoczy Was fakt, iż nie jest to jakaś absolutna nowość – o istnieniu anomalii wiadomo już od niemal dwudziestu lat, tym bardziej może dziwić, że mimo najróżniejszych prób jej wyjaśnienia naukowcy ciągle są zasadniczo w tym samym miejscu, co wówczas – krótko mówiąc nie mają zielonego pojęcia co anomalię wywołuje. Anomalia „fly-by” polega w uproszczeniu na tym, że sondy kosmiczne, zbliżając się do Ziemi w celu nabrania prędkości, „głupiejąâ€ i ich prędkość zmienia się w sposób niezgodny z precyzyjnymi obliczeniami w oparciu o Ogólną Teorię Względności. Sondy niezwykle subtelnie zdają się przyspieszać – wartości o jakie zmienia się prędkość są niezwykle małe (rzędu milimetrów na sekundę), nie są to jednak wartości, które można by zaniedbać całkowicie (choć dla samej realizacji misji nie mają znaczenia) i jednocześnie wystarczają, by wykazać niezgodność z przewidywaniami. Wszystko zaczęło się w grudniu 1990 roku, kiedy to sonda kosmiczna Galileo zbliżyła się do Ziemi na odległość niespełna tysiąca kilometrów, wykazując przy tym nieznanego pochodzenia zwiększenie prędkości o 3,92 mm/s w stosunku do wartości przewidywanej. Zaskoczeni naukowcy sprawdzili wszystkie możliwości – wykluczono błędy pomiarowe, obliczeniowe lub inne możliwe przyczyny, nie udało się również znaleźć sensownej odpowiedzi na pytanie, dlaczego sonda zwiększyła prędkość. Kiedy ta sama sonda przybliżyła się ponownie do naszej planety w 1992 roku, była zbyt blisko (300 km nad powierzchnią), poprzez co znalazła się w wysokich warstwach ziemskiej atmosfery, tym samym wiarygodne pomiary tajemniczego efektu nie były po prostu możliwe. Kilka kat później, bo w 1998 roku, sonda NEAR Shoemaker przelatując obok Ziemi wykazała największe zmierzone dotąd zwiększenie prędkości – „ażâ€ o 13,46 mm/s. W 2005 roku sonda Rosetta, w odległości niemal dwóch tysięcy kilometrów od planety, przyspieszyła o zaledwie 1,82 mm/s. To jednak nie wszystko – obraz zdaje się zaciemniać dodatkowo zaskakujący fakt, iż zwiększenie prędkości nie dotyczyło wszystkich sond, gorzej nawet, nie zostało stwierdzone w przypadku wszystkich przelotów jednej i tej samej sondy. Pierwszy przypadek dotyczy na przykład przelotu sondy Messenger w sierpniu 2005 roku, kiedy zmierzona wartość była zbyt mała, by wyjść poza ramy możliwego błędu pomiarowego. Najciekawiej jednak przedstawia się historia wspomnianej na początku Rosetty – o ile w 2005 roku, podczas poprzedniego przelotu, sonda ta przyspieszyła, o tyle podczas kolejnego naukowców spotkało rozczarowanie – w 2007 roku zmian prędkości nie zanotowano. Można więc łatwo się domyśleć, że badacze zainteresowani rozwiązaniem zagadki anomalii z niecierpliwością wyczekiwali na listopad tego roku, kiedy to sonda Rosetta po raz ostatni zbliżyła się do Ziemi, by nabrać prędkości dla swego wojażu ku komecie okresowej 67P/Czuriumow-Gierasimienko, ku której w końcowej fazie projektu (w roku 2014) wysłany zostanie lądownik Philae. Oczekiwano nowych rewelacji, tymczasem… sonda zachowała się tak jak poprzednio, czyli „zwyczajnie”. Analiza danych zebranych przez naukowców śledzących przelot sondy w pobliżu Ziemi, dokonana wspólnie przez agencje kosmiczne NASA i ESA, wykazała, iż nie ma mowy tym razem o jakimkolwiek odchyleniu od przewidywanych wartości. Wszystko przebiegło zgodnie z planem i obliczeniami, tym samym tajemnica ciągle pozostaje nierozwiązana i poczekamy jeszcze trochę na jakieś konkretne wnioski (jeśli w ogóle kiedyś ją rozwikłamy). Pomysłów związanych z anomalią „fly-by” w ciągu minionych 20. lat było naprawdę wiele – agencje kosmiczne przeprowadzały szeroko zakrojone i bardzo skrupulatne badania, które pozwalały im zawsze wykluczać przyczyny leżące po naszej stronie, czy to związane z błędami sprzętowymi, oprogramowania czy obliczeniowymi. Odważniejsi naukowcy sugerowali coraz bardziej szalone wersje zdarzeń, między innymi chciano kwestionować podstawy współczesnej fizyki, związane z Ogólną Teorią Względności. Rozważano na przełomie lat wiele frapujących propozycji – jedne z nich rozważały wpływ sił pływowych naszej planety na obiekty w jej pobliżu, inne za winowajcę uznawały ciśnienie promieniowania emitowanego lub reflektowanego przez Ziemię, skrajni fantaści w tym miejscu widzieli nawet sławetną ciemną materię lub ciemną energię. Swego czasu pojawił się interesujący w rzeczy samej pomysł – stworzono wzór obliczeniowy, który brał pod uwagę wpływ kąta, pod jakim sonda zbliża i oddala się w stosunku do równika naszej planety, jednak kiedy Rosetta w 2007 nie wykazała żadnego odchylenia, równanie i to równanie okazało się niewypałem. Innym obiecującym rozwiązaniem może być założenie, że tzw. wleczenie czasoprzestrzeni przez ruch obrotowy Ziemi jest silniejszy, niż się spodziewano. Niezależnie jednak od tego, czy istnieją obiecujące pomysły czy też nie, jedno pozostaje faktem – od dwudziestu lat nikt nie podał wyczerpującego wyjaśnienia dla anomalii. Choć może w końcu się okazać, że to coś naprawdę kuriozalnego lub banalnego, to póki co nie mamy pojęcia, z czym mamy do czynienia. A czym byłaby nauka bez tajemnic? Źródła: Link 1 Link 2 Grafika: Sonda Rosetta Źródło grafiki Credit: ESA/AOES Medialab Wyświetl pełny artykuł
  14. Nie sposób mówić o współczesnej astrofizyce bez długiego orszaku modeli teoretycznych, stworzonych dla zrozumienia najróżniejszych procesów i zjawisk, jakie – jak przypuszczamy niekiedy „w ciemno” – miały, mają i będą mieć miejsce we Wszechświecie. Nie ma sensu tutaj odmawiać im znaczenia, które jest bezsprzeczne – mają one jednak przy okazji jedną, ogromną wadę, wynikającą już z samych założeń ich istnienia: do potwierdzenia prawidłowości wymagają prędzej czy później konfrontacji z rzeczywistością, zweryfikowania przewidywań na podstawie empirycznych obserwacji. Choć dziś nie o tym wpis akurat będzie, wrodzona złośliwość każe mi jednakże dodać, że to tylko jeden z wielu problemów, z jakimi borykać się muszą wielbiciele teorii strun. Wracając jednak do modeli – najlepszy nawet pozornie model teoretyczny wart jest czegoś dopiero, gdy znajduje potwierdzenie w obserwacjach. Nie inaczej sprawa ma się również w przypadku modeli opisujących ewolucję gwiazd. O ile istnieje spora zgodność pomiędzy najlepszymi modelami a obserwowanymi przez astronomami gwiazdami w zróżnicowanych fazach ich egzystencji, jest jeszcze sporo elementów, wymagających empirycznego potwierdzenia – jednym z nich jest model opisujący powstawanie szczególnego typu gwiazd, tzw. białych karłów. Białe karły to specyficzne kosmiczne „mumie” – zgodnie z naszym współczesnym rozumieniem procesów gwiazdowych powstają, gdy „lekkie” lub „średniomasywne” gwiazdy (o masie w granicach od drobnego ułamka masy Słońca do kilku mas Słońca) kończą swój długi żywot w miarę spokojnie (w porównaniu do supernowych niezwykle wręcz apatycznie), wypalając paliwo jądrowe w formie kolejnych, coraz cięższych pierwiastków w swym wnętrzu i odrzucając zewnętrzne powłoki. Taki sam los oczekuje nawiasem mówiąc również nasze macierzyste Słońce, nie warto jednak już teraz nad tym lamentować, gdyż zostało najprawdopodobniej kilka miliardów lat do tej smutnej chwili. Jakby jednak nie było, białe karły to pozostałości po niegdyś żywotnych gwiazdach, pozostałości fascynujące, warto dodać. Ponieważ powstaniu białego karła towarzyszy grawitacyjne zapadanie (zahamowane jednak w pewnym momencie przez ciśnienie zawartej w nim materii), mamy do czynienia z względnie maleńkimi obiektami – zakłada się, że białe karły to gwiazdy wielkości Ziemi, o ogromnej gęstości zawartego w nim niezwykle gorącego, zdegenerowanego gazu. Wolałbym nie wnikać w zawiłości związane ze stanem materii w białym karle – przekracza to moje zdolności pojmowania a co dopiero klarownego opisania, istnieje jednak w Internecie i różnych książkach sporo źródeł, z których taką wiedzę jej spragnieni mogą zaczerpnąć. Warto byłoby w końcu powiązać w jakikolwiek sposób wcześniejsze rozważania teoretyczne z białymi karłami – przystąpmy więc do dzieła. Najlepsze modele teoretyczne powiadają, że gwiazda, która w trakcie swego zejścia z tego świata odrzuciła zewnętrzne warstwy, gdyż spaliła zawarty w niej wodór i hel, zamienia się w białego karła. Koniec kropka. Nie do końca jednak jest to takie proste – białe karły, jak powiada teoria, składają się wówczas głównie z tlenu i neonu, przy czym jądro takiego karła otoczone jest przez cienką, zewnętrzną powłokę z takiego samego tlenu lub helu, kryjącą przed obserwatorami wewnętrzną “zawartość”. Większość modeli podpowiada również, że jądro powinno być otoczone również przez cienką, bogatą w węgiel warstwę, która zapobiega ucieczce tlenu w przestrzeń, jednocześnie obliczenia wskazują, że węglowa powłoka powinna stawać się coraz cieńsza im masa karła bliższa jest maksymalnej dopuszczalnej (ok. 1,4 masy Słońca, tzw. granica Chandrasekhara, powyżej której białego karła czeka los supernowej typu Ia). Brzmi to wszystko dość mętnie, jednak na mój chłopski rozum wygląda to w uproszczeniu tak – według modelu muszą istnieć białe karły, w przypadku których owa powłoka węglowa pozwala dominować tlenowi i w wyniku tego karły takie powinne być „szkieletami” względnie masywnych gwiazd. Nie będę ukrywał, że sam bym tego nie wymyślił – co prawda tok rozumowania źródeł, na których oparłem ten wpis, pozostaje dla mnie dość tajemniczy i trudno mi zrozumieć, co z czego wynika, faktem jednak jest, że jakiś związek między tym wszystkim istnieć musi (potrzebujących klarowności proszę o przeczytanie źródeł w oryginale). W każdym bądź razie wnioski są tutaj następujące – trzeba znaleźć białego karła o dużej zawartości tlenu, by potwierdzić mechanizm opisany wyżej. Demonstrując sprawność współpracy ponad narodowymi podziałami naukowcy z Universität Kiel (Kiel, Niemcy) oraz University of Warwick (Coventry, UK) postanowili poszukać takich właśnie gwiazd. Podjęli się w tym celu dość mozolnej roboty – wykorzystali dane, które od lat już zbiera wyspecjalizowany teleskop pracujący na rzecz wielkiego przeglądu nieba pod nazwą Sloan Digital Sky Survey (SDSS). Teleskop został dobrany nieprzypadkowo – urządzenie pozwala bowiem pstrykać zdjęcia obiektom kosmicznych w pięciu odmiennych długościach fali i, co ważne w kontekście wspomnianych badań, analizować ich widmo. Niemiecko-brytyjscy kooperanci wykorzystali takowe zdolności teleskopu, sortując wpierw zebrane przez niego dane pod względem barwy gwiazd – w ten sposób wytypowanych zostało, bagatela, 25 tysięcy kandydatek. Kolejnym etapem przesiewowych badań było badanie widm tej grupy (zautomatyzowane, warto dodać) pod względem linii spektralnych tlenu. Po zakończeniu tej fazy badań pozostało ok. tysiąc wyselekcjonowanych gwiazd, które tym razem ku utrapieniu badaczy były już analizowane manualnie. Na koniec na polu bitwy zostały… dwie gwiazdy. Białe karły o lirycznych nazwach SDSS 0922+2928 oraz SDSS 1102+2054 to gwiazdy znajdujące się odpowiednio w odległościach 400 i 220 lat świetlnych od Ziemi. O ile wszystkie dotychczas obserwowane białe karły charakteryzowały się zawsze mniejszą zawartością tlenu w stosunku do węgla, o tyle w przypadku nowo odkrytych stosunek ten jest odmienny – tlenu dopatrzono się na podstawie analizy widmowej więcej. Najprawdopodobniej odkryto w ten sposób po raz pierwszy „nagie” białe karły, neonowo-tlenowe jądra, w których otoczka węglowa jest w zaniku. Odkrycie to potwierdziło przewidywania modeli, wedle których w przypadku względnie dość masywnych gwiazd niemal cały węgiel w gwieździe został „skonsumowany”, dzięki czemu gwiazdy o masie bliskiej wartości granicznej (powyżej której czeka je los supernowej) zamiast wybuchać w oślepiającej eksplozji w spokoju zamieniają się w białego karła. Z tego też względu wszystko wskazuje na to, że w przypadku obu wspomnianych karłów mamy do czynienia z masywnymi przedstawicielami tego gatunku – ich masa prawdopodobnie zbliżona jest do masy Słońca, natomiast gwiazdy, które w takie karły się przemieniły, musiały mieć od 7 do 10 mas Słońca. W przypadku gwiazd o wspomnianej wyżej masie (7-10 mas Słońca) istnieją zgodnie z modelami dwie drogi, w zależności od tego, jakiego mają farta (i pewnie poważniejszych czynników, które są dla mnie jednak niejasne): jedną z nich jest żywot białego karła, drugą gwałtowne zejście pod postacią słabej supernowej typu II. I jakkolwiek ciągle nie do końca wiem o czym piszę i co z czego tutaj tak naprawdę wynika, to bezsprzecznie cieszy mnie fakt, że naukowcom po raz kolejny udało się dowieść, iż ich mozolnie opracowywane modele znajdują potwierdzenie w obserwacjach. I tym optymistycznym akcentem dzisiejszy wpis zakończę ku uciesze zdezorientowanych podobnie do mnie czytelników. Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Zdjęcie: Nie wygląda to co prawda spektakularnie, ale ten niebieski placek wskazany strzałką to właśnie jeden z białych karłów, o których mowa wyżej Źródło zdjęcia Credit: SDSS Wyświetl pełny artykuł
  15. Po przejrzeniu ostatnich wpisów ze skruchą zmuszony jestem przyznać, że na długi czas zadomowiłem się w bezkresnych przestrzeniach Wszechświata, z upodobaniem egzaltując się odległościami rzędu milionów i miliardów lat świetlnych od Ziemi, zaniedbując przy tym nasze najbliższe kosmiczne otoczenie, z pewnością warte zainteresowania – mam rzecz jasna na myśli nasz przytulny Układ Słoneczny. Chcąc naprawić to niedopatrzenie chciałbym tym razem przedstawić garść informacji o aktualnych badaniach naszej życiodajnej gwiazdy – Słońca. Choć o gwiazdach jako takich wiemy już sporo, niewspółmiernie więcej niż kilkadziesiąt nawet lat temu, to ciągle istnieją niemałe wcale luki w tej wiedzy – mechanizmy pozwalające funkcjonować tym fascynującym obiektom przez niewyobrażalne miliardy lat nie są przez nas w pełni zrozumiane. Wiele projektów badawczych ma na celu poprawę tego niewygodnego stanu – jednym z takich projektów jest niewątpliwie projekt pod nazwą SUNRISE (czyli „wschód Słońca”), wspólne dzieło badaczy z Niemiec, w szczególności naukowców z Max-Planck-Institut fürs Sonnensystemforschung (Kaltenburg-Lindau), Hiszpanii oraz USA. SUNRISE to w rzeczywistości teleskop zawieszony na… ogromnym balonie, milionie metrów sześciennych helu o średnicy 130 metrów zamkniętych w odpowiedniej powłoce. Warto tutaj wspomnieć, że teleskop ten jest jednocześnie największym instrumentem badawczym przeznaczonym do badania Słońca, jaki kiedykolwiek oderwał się od Ziemi – waga startowa całego sprzętu przekraczała 6 ton. Teleskop uniósł się w przestworza 8 czerwca 2009 roku z bazy o nazwie ESRANGE, będącej w posiadaniu Europejskiej Agencji Kosmicznej i znajdującej się w północnej Szwecji, sięgając niebagatelnej wysokości 37 km, czyli „zanurzając się” w stratosferze. W tej warstwie ziemskiej atmosfery warunki zbliżone są do tych panujących w przestrzeni kosmicznej, można więc uzyskać doskonałej jakości zdjęcia Słońca niezakłócone kłopotliwymi turbulencjami atmosfery, można również swobodnie prowadzić obserwacje w zakresie ultrafioletowym, który na powierzchni planety jest po prostu niedostępny dla obserwacji – skądinąd pożyteczna bardzo warstwa ozonowa połyka promieniowanie z tego zakresu widma. Ponieważ balon to jednak nie to samo co satelita unoszący się w przestrzeni kosmicznej, misja trwała pozornie bardzo krótko – już po sześciu bowiem dniach została planowo, jak mniemam, zakończona, kiedy to całe instrumentarium wylądowało bezpiecznie posiłkując się spadochronem na Somerset Island, wielkiej wyspie kanadyjskiego terytorium Nunavut w Arktyce. Niezwykle krótki na pierwszy rzut oka czas działania teleskopu może jednak srodze mylić – w ciągu tych kilku dni bowiem teleskop zebrał ok. 1,8 terabajta danych obserwacyjnych i ich weryfikacja ciągle trwa w najlepsze. Już jednak pierwsze wyniki zdają się wiele obiecywać – szczególnie interesujący okazał się ścisły związek łączący intensywność pola magnetycznego z jasnością najmniejszych rozpoznawalnych struktur na obserwowalnej powierzchni Słońca. Warto w tym miejscu przypomnieć, że Słońce przy dokładniejszym się mu przyjrzeniu nie do końca przypomina uśmiechnięte słoneczka malowane przez każdego z nas w dzieciństwie – nie mamy do czynienia z niemal jednolitą kulą gazu, oślepiająco jasną. To, co naprawdę dzieje się na (i wewnątrz) Słońcu, przypomina raczej wrzącą, gęstą zupę przyprawianą ogniami piekielnymi – powierzchnia Słońca jest wyraźnym tego dowodem, można wręcz powiedzieć, że mamy do czynienia z „gotowaniem” się Słońca. Jedną z cech charakterystycznych powierzchni Słońca jest jej „granulacja”, inaczej mówiąc wyraźnie widoczne są pojedyncze, maleńkie struktury, które są w zasadzie „pakietami” gorącego gazu, bez ustanku unoszące się i opadające, wszystko to napędzane jest natomiast niezwykle skomplikowanymi układami pola magnetycznego. Dysponujemy co prawda na Ziemi coraz wydajniejszymi komputerami, o których jeszcze kilkadziesiąt lat temu nikomu się nawet nie śniło, kompleksowość zjawisk na powierzchni Słońca jest jednak tak wielka, że nawet najlepsze symulacje borykają się wieloma problemami i nie ma jak to zwykle w takiej sytuacji bywa nic lepszego, niż solidne potwierdzenie ich wyników w ramach obserwacji. I tutaj właśnie misja SUNRISE może oddać naukowcom nieocenione usługi. Instrumenty obserwacyjne SUNRISE z niespotykaną dotąd rozdzielczością ukazały niezwykle kompleksowe oddziaływania na powierzchni Słońca; wspomniany wcześniej związek pomiędzy siłą pola magnetycznego a jasnością pojedynczych „cegiełek” jest w końcu i dla nas wszystkich o tyle ważny, że natężenie pola zmienia się w ramach cykli słonecznych, tym samym wyraźny staje się związek pomiędzy natężeniem pól, jasnością „ziaren” a ilością ciepła, docierającego do naszej planety. Szczególnie wyraźne wahanie to jest w zakresie ultrafioletowym, warto dodać, że w zakresie, którym zajmował się SUNRISE (od 200 do 400 nanometrów), obserwacje takie nie były dotąd wcale prowadzone. Instrumenty obserwacyjne dzięki swej wyśmienitej jakości pozwoliły na odwzorowanie maleńkich struktur z dużym kontrastem – wystarczy powiedzieć, że najmniejsze rozpoznawalne struktury na zdjęciu powyżej mają wielkość kątową porównywalną z wielkością monety oglądanej z odległości 100 km. Ponieważ obserwacje prowadzone były przez dwa bardzo czułe instrumenty jednocześnie – jeden z nich, pod nazwą SUFI, rejestrował „ziarenka” w ultrafiolecie, drugi, IMaX, rejestrował rozkład pola magnetycznego oraz prędkość przepływu gorącego gazu w tych strukturach – naukowcy uzyskali tym samym dostęp do ogromnej ilości danych, na podstawie których z pewnością dokonane zostaną kolejne postępy w procesie zrozumienia kompleksowych procesów generujących – nie zapominajmy mimo wszystko o tym – życiodajną energię dla naszej maleńkiej planety. Artykuł o misji SUNRISE (zdjęcia ze startu) w j. angielskim Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Zdjęcie: Sfotografowana przez teleskop SUNRISE powierzchnia Słońca w czterech różnych długościach fali w “bliskim” ultrafiolecie Źródło zdjęcia Credit: MPG/MPS Wyświetl pełny artykuł
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.