CZY NEUTRINO MA MASĘ?
Na początku 1995 roku wielką sensację wywołało doniesienie z Los Alamos o wynikach przeprowadzonego w tym laboratorium eksperymentu dotyczącego oddziaływań neutrin (patrz: \”Sygnały\”, \”WiŻ\” nr 7/1995). Dokładniej w tym eksperymencie chodziło o badanie oddziaływań cząstek powstających przy rozpadzie pionu.
Przypomnijmy w skrócie, że według naszej obecnej wiedzy istnieją trzy różne generacje leptonów: elektronowa, mionowa i taonowa. W każdej generacji mamy lepton naładowany i odpowiednie neutrino, a więc elektron i neutrino elektronowe, mion i neutrino miodowe oraz taon i neutrino taonowe. Leptony naładowane mają niezerową masę spoczynkową, natomiast zwykle przyjmuje się, że wszystkie neutrina mają masę spoczynkową równą zeru, chociaż z eksperymentów otrzymuje się tylko górne granice ich masy. Generacje leptonów różnią się od siebie liczbą leptonową, która może być elektronowa, mionowa i taonowa. Tak więc, oba leptony danej generacji mają odpowiednią liczbę leptonową równą +1, a pozostałe liczby leptonowe równe zeru. Dodajmy jeszcze, że każdej generacji leptonów odpowiada właściwa jej generacja antyleptonów o przeciwnym znaku liczby leptonowej.
Dla przykładu: w pierwszej generacji mamy elektron i neutrino elektronowe (obie cząstki o liczbie leptonowej elektronowej równej +1); pierwsza generacja antyleptonów to antyelektron (który nazywamy pozytonem) oraz antyneutrino elektronowe (obie cząstki o liczbie leptonowej równej 1). Różne od leptonów cząstki nie mają liczby leptonowej (można przyjąć, że wynosi ona dla nich zawsze zero). Wyniki wszystkich dotychczas przeprowadzonych doświadczeń prowadzą do uogólnienia jakim jest zasada zachowania liczby leptonowej, która w reakcjach między cząstkami nie może ulegać zmianie.
Tyle streszczenia obecnego stanu wiedzy. Zgodnie z podręcznikami piony badane przez fizyków z Los Alamos rozpadają się na mion i antyneutrino mionowe (tak jest ze względu na zasadę zachowania liczby leptonowej mionowej, która dla mionu wynosi +1, dla antyneutrina mionowego 1, a więc ich suma wynosi zero, tyle co przed rozpadem pionu). Fizycy z Los Alamos poszukiwali wśród produktów rozpadu innych cząstek antyneutrin elektronowych.
Gdyby takie cząstki znaleziono w wiązce pochodzącej z rozpadu pionów, mogłoby to być wynikiem albo pogwałcenia przy tym rozpadzie zasad zachowania liczb leptonowych elektronowej i mionowej, albo przekształcania się w locie antyneutrin mionowych w elektronowe. Pierwszej z tych możliwości nie bierze się pod uwagę, natomiast druga mogłaby okazać się prawdziwa pod warunkiem, że neutrina (i antyneutrina) mają niezerową masę spoczynkową, gdyż wtedy mogłyby występować tzw. oscylacje, czyli mieszanie się ich typów.
Problem jest bardzo ważny, ponieważ gdyby istotnie neutrina miały choćby niewielką masę, można by w ten sposób wyjaśnić tzw. brakującą masę we Wszechświecie oraz znaleźć wytłumaczenie dla obserwowanego niedoboru neutrin ze Słońca oba te problemy od wielu już lat spędzają sen z oczu fizykom i astrofizykom. Ale cena byłaby wysoka, trzeba by bowiem znacznie przebudować podstawy fizyki cząstek.
Fizycy z zespołu LSND (od nazwy Liquid Scintillator Neutrino Detector) podali nieoficjalne wyniki swojego doświadczenia na konferencji prasowej w lutym, utrzymując, że znaleźli wyraźny sygnał pochodzący od antyneutrin elektronowych, i na tej podstawie wywnioskowali, iż masa tego neutrina zawiera się między 0.5 i 5 elektronowoltów.
Z niecierpliwością oczekiwano na oficjalną publikację wyników. Nastąpiło to dopiero jesienią i przyniosło nie lada sensację. Otóż w tym samym numerze \”Physical Review Letters\” ukazał się nie tylko \”oficjalny\” artykuł zespołu LSND, w którym podtrzymano wcześniej ogłoszony wniosek, lecz także artykuł jednego z członków zespołu, Jamesa Hila z Pennsylvania University, który podał inny wynik. Ten \”dysydent\” nie zgodził się na umieszczenie swego nazwiska wśród autorów artykułu, ponieważ przeprowadził niezależną analizę danych i doszedł do wniosku, że \”sygnał\” oscylacji neutrin to tylko 5 zarejestrowanych zdarzeń, gdy oczekiwane \”tło\” od innych procesów (choćby promieni kosmicznych) powinno wynosić 6 zdarzeń. Krótko mówiąc żadnego znaczącego sygnału nie było. Reszta zespołu LSND utrzymuje, że obserwowany sygnał to 9 zdarzeń, przy oczekiwanym tle 2, a więc wniosek o istnieniu oscylacji jest statystycznie uzasadniony.
Wypada więc poczekać na dalsze wyniki LSND i innych eksperymentów. Dodajmy, że wszystkie pozostałe eksperymenty przynosiły dotychczas wyniki wykluczające oscylacje neutrin (a dokładniej: narzucające na ewentualne oscylacje bardzo skrajne granice).
Żaden inny wynik ogłoszony w 1995 roku nie wzbudził tyle sensacji co doniesienie z Los Alamos, ponieważ w pozostałych nie było mowy o podważaniu obecnej fizyki, lecz raczej o potwierdzaniu jej poprawności.
Przypomnijmy więc, że w marcu oba, liczące po kilkuset fizyków, zespoły CDF i D0, prowadzące badania przy akceleratorze Tevatron w Laboratorium im. Fermiego w Batavii pod Chicago, oddały do publikacji artykuły podsumowujące poszukiwania szóstego kwarka \”top\”. W połowie 1994 roku zespół CDF ogłosił o odkryciu kwarka t, natomiast zespół D0 oznajmił o wyniku świadczącym o braku sygnału (patrz: \”Szósty kwark\”, \”WiŻ\” nr 6/1994, \”Top na szczycie\”, \”WiŻ\” nr 1/1995).
Po przeanalizowaniu kilkakrotnie większej liczby zderzeń proton-antyproton niż w 1994 roku, oba zespoły otrzymały znaczący statystycznie sygnał o produkcji kwarka t w tych oddziaływaniach. Grupa CDF znalazła sygnał 37 zdarzeń przy oczekiwanym tle 12, natomiast grupa D0 sygnał 17 zdarzeń przy oczekiwanym tle 4. Ten znaczący statystycznie sygnał został przez oba zespoły otrzymany po żmudnej analizie, w której musiano \”odfiltrować\” poszukiwane zdarzenia z łącznej liczby około 6 bilionów (6 x 1012) zderzeń proton-antyproton zarejestrowanych przez detektory! Tak skomplikowane są współczesne eksperymenty w fizyce cząstek elementarnych, i dlatego, by je przeprowadzić potrzeba paroletniej pracy kilkusetosobowych zespołów.
Masa kwarka t obliczona przez zespół CDF wynosi 176 +/- 8 GeV, a według D0 jest ona równa 199 +/- 20 GeV, przy czym oba przytoczone błędy są statystyczne. Ponadto w pomiarach występują także możliwe błędy systematyczne (np. skali pomiaru masy), które wynoszą 10 GeV dla CDF i 22 GeV dla D0. Tak więc wyniki obu zespołów są, w granicach sporych jeszcze błędów, dobrze zgodne z sobą.
Przypomnijmy, że według obecnego przekonania fizyków kwark t jest już ostatnim, ponieważ istnieją tylko trzy generacje kwarków (podobnie jak trzy generacje leptonów).
W lipcu wielką sensację wzbudziło doniesienie z Boulder (Colorado), gdzie zespół fizyków z Joint Institute for Laboratory Astrophysics pod kierunkiem Erica Cornella i Carla Wiemana zdołał uzyskać tzw. kondensację Bosego-Einsteina w układzie około 2000 atomów rubidu ochłodzonych do temperatury zaledwie 170 nanokelwinów. Takie \”ultrazimne\” atomy można uzyskiwać chłodząc je w przeciwbieżnych wiązkach laserowych (patrz: \”Top na szczycie\”, \”WiŻ\” nr 1/1995).
Zgodnie z mechaniką kwantową atomy, podobnie jak elektrony i inne cząstki elementarne, wykazują właściwości falowe. Długość fali de Broglie\’a lB jest odwrotnie proporcjonalna do pędu obiektu, wobec tego dla \”ultrachłodnych\” atomów, których prędkości są bardzo małe, długość fali może być bardzo duża. W latach dwudziestych fizyk indyjski Satyendra Bose i Albert Einstein przewidzieli, że w dostatecznie niskiej temperaturze ta długość fali może okazać się większa niż zwykłe odległości między atomami. Wtedy to atomy tracą swą identyczność, stają się nierozróżnialne mogą się znaleźć w jednakowym stanie kwantowym.
Dla bozonów (cząstek podległych statystyce Bosego-Einsteina) prawdopodobieństwo znalezienia się w danym stanie kwantowym rośnie wraz z liczbą cząstek już znajdujących się w tymże stanie. (Inaczej jest dla fermionów, dla których obowiązuje tzw. zakaz Pauliego i w danym stanie może się znajdować tylko jedna cząstka). Tak więc, kondensacja Bosego-Einsteina powstaje samorzutnie, jeżeli tylko atomy znajdują się dostatecznie blisko siebie w objętości rzędu lB3.
Kondensacje Bosego-Einsteina były już obserwowane wcześniej, na przykład w zjawiskach nadciekłości helu 4 i nadprzewodnictwa, ale w tych przypadkach właściwości makroskopowe układów są zdominowane przez wzajemne oddziaływanie bozonów. W celu lepszego zrozumienia procesu powstawania kondensacji Bosego-Einsteina fizycy z Boulder starali się ją uzyskać w idealnym gazie nieoddziałujących z sobą atomów. W tym celu atomy \”ochłodzone\” do temperatury 170 nanokelwinów umieszczano w pułapce magnetycznej, która umożliwiała usuwanie z próbki najszybszych, a więc \”najgorętszych\” atomów, co powodowało dalsze \”schładzanie\” układu.
Po wyłączeniu pułapki magnetycznej układ atomów oświetlono bardzo krótkim impulsem światła laserowego, dzięki czemu, wykorzystując częściowe pochłanianie tego światła przez atomy, uzyskano \”cień\” rozkładu gęstości atomów w badanym układzie. Z analizy uzyskanych zdjęć wywnioskowano, że kondensacja Bosego- Einsteina trwała przez około 15 sekund, przy czym układ około 2000 atomów w tej kondensacji miał temperaturę zaledwie 20 nanokelwinów, najniższą, jaką kiedykolwiek wytworzono.
Wynik fizyków z Boulder to triumf wyrafinowanej techniki eksperymentalnej. Autorom eksperymentu udało się zwyciężyć w wyścigu do otrzymania kondensacji Bosego-Einsteina z zespołami z Amsterdamu, MIT w Cambridge (Massachusetts) i Stanfordu.
Zespół kierowany przez Josepha Jacobsona w Stanford University planuje natomiast otrzymanie \”cząsteczki\” światła, w której 100 lub więcej fotonów zachowywałoby się jak jeden złożony obiekt (przypomnijmy, że fotony są też bozonami). Na razie planowana jest konstrukcja odpowiedniego interferometru, ale czerwcowy artykuł Jacobsona i kolegów w \”Physical Review Letters\” wywołał bardzo duże zainteresowanie.
Z innych osiągnięć 1995 roku warto wspomnieć o \”kiloelektronie\” otrzymanym w University of Washington w Seattle przez zespół Hansa Dehmelta. Fizyk ten wyspecjalizował się w eksperymentach z umieszczaniem atomów i innych cząstek w specjalnych pułapkach magnetycznych. Dzięki utrzymywaniu w takiej pułapce pojedynczych elektronów i pozytonów przez całe miesiące, można było wykonywać niezwykle dokładne pomiary ich właściwości. Za te osiągnięcia Dehmelt, z pochodzenia Niemiec, otrzymał już w 1989 roku Nagrodę Nobla w dziedzinie fizyki. Tym razem Dehmeltowi udało się zamknąć w pułapce 1000 elektronów, które zachowują się jak punktowy obiekt o ładunku tysiąc razy większym od ładunku pojedynczego elektronu. Ta \”kropla\” ładunku ujemnego, nazwana przez Dehmelta \”kiloelektronem\”, umożliwi dalsze zwiększenie dokładności pomiarów momentu magnetycznego elektronu.
Eksperymenty z pojedynczymi atomami i cząstkami lub z ich niewielką liczbą stają się coraz powszechniejsze. W marcu zespół fizyków z CERN w Genewie doniósł o pomiarach tzw. częstości cyklotronowej dla pojedynczego antyprotonu utrzymywanego w specjalnej pułapce. Otrzymany wynik, 45 000 razy dokładniejszy od poprzednich, potwierdza identyczność tej częstości dla protonów i antyprotonów z dokładnością do jednej bilionowej części (tzn. do 1012). Ma to wielkie znaczenie dla sprawdzania tzw. twierdzenia CPT stanowiącego fundament współczesnej fizyki.
Natomiast grupie fizyków z Harvard University udało się opanować technikę utrzymywania w pułapce powolnych pozytonów, co jest pierwszym krokiem do stworzenia w warunkach laboratoryjnych pierwszego antyatomu. Dalszy krok będzie polegał na dodaniu do tej samej pułapki powolnych antyprotonów, tak żeby mogło dojść do ich połączenia w atomy antywodoru. Technika utrzymywania powolnych antyprotonów jest już opanowana w CERN, gdzie w najbliższym czasie planuje się wobec tego dalszy ciąg eksperymentu. Zespołowi Theodora Hanscha w Instytucie Maxa Plancka w Monachium udało się już zamknąć w tej samej pułapce jednocześnie elektrony i dodatnio naładowane jony. Tak więc wszystko wydaje się już gotowe do wytworzenia w laboratorium pierwszego antyatomu, co ma nastąpić w 1996 roku.
Z ciekawych wyników, mogących szybko prowadzić do ważnych zastosowań, warto wspomnieć o badaniach materiałów wykazujących właściwość fotostrykcji, tzn. zmiany rozmiarów pod wpływem światła. Kenji Uhcino z Bostonu ogłosił wyniki swoich badań nad substancją zwaną PLZT (od składających się na nią: ołowiu Pb, lantanu La, cyrkonu Zr i tytanu Ti). Został już wykonany działający model \”fotofonu\”, w którym energia światła zostaje bezpośrednio przekształcona w dźwięk.
W 1995 roku uzyskano też pewne wyniki dokładnych pomiarów, które niezbyt są zgodne z przyjmowanymi obecnie teoriami fizycznymi. Pomiary prawdopodobieństwa rozpadu bozonu pośredniczącego Z0 na różne pary kwarków wykazują znaczące odchylenia od przewidywań tzw. Modelu Standardowego, akceptowanego przez fizyków już od wielu lat. Wielu z nich uważa, że jest to wyraźny ślad \”nowej fizyki\”, na przykład istnienia cząstek \”supersymetrycznych\”. Szansa znalezienia takich cząstek pojawia się wraz ze wzrostem energii akceleratora LEP w CERN. Już obecnie prowadzi się pomiary przy energii 130 GeV, oznacza to wzrost niemal o 50 % w stosunku do dotychczasowych 92 GeV.
Innym bulwersującym wynikiem było porównanie bardzo dokładnych pomiarów tzw. przesunięcia Lamba dla wodoru i jonu He+, wyraźnie niezgodnych z elektrodynamiką kwantową. Przesunięcie Lamba to bardzo drobna zmiana energii elektronu w atomie wskutek oddziaływania z próżnią traktowaną jako siedlisko cząstek wirtualnych. Elektrodynamika kwantowa jest najdoskonalszą teorią fizyczną, która była zgodna z dotychczasowymi doświadczeniami z ogromną dokładnością. Zdaniem Malcolma Boshiera z Yale University, jednego z autorów artykułu zamieszczonego we wrześniu w \”Physical Review Letters\”, nie jest jasne czy wszystko jest w porządku z tą teorią, więc dalsze pomiary przesunięcia Lamba służą także poszukiwaniu \”nowej fizyki\”.
Czas pokaże czy wspomniane niezgodności są istotnie przejawem nieznanych jeszcze zjawisk, czy też chodzi tylko o jakieś przeoczone niedokładności w eksperymentach.
O tym, że pomiary mogą być obarczone systematycznymi niepewnościami, które uchodzą uwadze autorów, świadczą choćby ogłoszone w 1995 roku nowe pomiary stałej grawitacyjnej G. Ta jedna z najbardziej podstawowych stałych fizycznych jest znana z dokładnością zaledwie setnej części procenta, znacznie gorzej od innych stałych, jak stała Plancka, ładunek elektronu itd. Występująca obecnie w tablicach wartość G została przyjęta jeszcze w 1980 roku. Trzy zespoły eksperymentatorów, dwa z RFN (Uniwersytet w Wuppertalu i Niemieckie Biuro Standardów), a trzeci z Biura Standardów Nowej Zelandii, otrzymały wyniki bardzo niezgodnzystobecną wartością tablicową, ale również niezgodne ze sobą. We wsi dlkich przypadkach chodziło o rażące różnice siedmiu lub więcej odchyleń standardowych. W związku z tą sytuacją planowane są kolejne pomiary, które może wreszcie doprowadzą do wyjaśnienia problemu.