Mittwoch, 6. März 2013
Wikinger-Sonnensteine gab es wirklich
Wie konnten die Wikinger tausende von Kilometern auf den Meeren zurücklegen, ohne einen Kompass zu besitzen? Lange wurde diese Fähigkeit durch die Benutzung sogenannter Sonnensteine vermutet. Nun hat ein Fund und dessen Auswertung, diese Legende über die Sonnensteine belegt, wie welt.de berichtet:

Seit Jahrzehnten wird über solch transparente "Sonnensteine" spekuliert, die den Wikingern dabei geholfen haben sollen, mit ihren Schiffen Tausende von Kilometern in Richtung Island und Grönland zurückzulegen und vermutlich lange vor Christoph Kolumbus Amerika zu entdeckten. Einen Beweis für die Existenz solcher Steine gab es aber nicht.

Im November 2011 berichteten Forscher um Guy Ropars von der Universität Rennes in der Bretagne von dem Fund eines Kristalls in einem britischen Schiffswrack im Ärmelkanal, der in ihren Augen die Theorie erhärtet, dass solche "Sonnensteine" tatsächlich genutzt wurden.

Über eine chemische Analyse eines kleinen Teils des Kristall wies eine Forschergruppe um Ropars nun nach, dass der gefundene, rund fünf Zentimeter lange Stein ein Calzit ist. Der auch Kalkspat oder Doppelspat genannte Kristall kommt in Skandinavien häufig vor. Abhängig vom Fundort kann Calzit unter Einwirkung von UV-Licht blau, gelb oder rot fluoreszieren.

Mit einem ähnlich beschaffenen Kristall, wie jenem aus dem Schiffswrack, konnten die Forscher auch bei schwachem Sonnenlicht den Stand der Sonne mit großer Genauigkeit feststellen. Dies gelang sogar 40 Minuten nach Sonnenuntergang. "Für uns gibt es keine Zweifel: Calzit ist magisch", sagte Ropars.

Auch die legendären Seefahrer nutzten vermutlich Calzit, um die genaue Position der Sonne auszumachen und sich daran zu orientieren. Bekannt ist, dass die Wikinger auch unter den widrigsten Wetterverhältnissen mit ihren Schiffen Tausende von Kilometern in Richtung Island und Grönland zurücklegten.

Calzit bricht Sonnenlicht in Abhängigkeit von seiner Position zur Sonne. Wer durch den transparenten Stein blickt, sieht zwei unterschiedlich starke Lichtbündel des Sonnenlichts, einen ordentlichen und einen außerordentlichen Strahl.

Durch Drehen des Calcits, der wegen dieser zweifachen Brechung der Lichtbündel auch Doppelspat genannt wird, kann eine Position erreicht werden, in der die Intensität beider Lichtbündel gleich stark ist. In diesem Moment zeige der Stein genau die Richtung der Sonne an. Selbst bei geringem Sonnenlicht oder bei Nebel sei es möglich, mit Hilfe des transparenten Steins die Position der Sonne zu bestimmen.

Nach Überzeugung der Forscher haben die Wikinger diese Methode auch noch verwendet, nachdem der Kompass erfunden wurde. Dass der "Sonnenstein" im 16. Jahrhundert – und damit Jahrhunderte nach Erfindung des Kompasses – an Bord eines britischen Schiffes mitgeführt wurde, erklären die Wissenschaftler damit, dass über die Funktionsweise von Kompassen damals noch wenig bekannt war.

... link (0 Kommentare)   ... comment


Donnerstag, 21. Februar 2013
Mondwasserrätsel verstärkt sich
Die bevorzugte Entstehungstheorie des Mondes - die durch einige Isotopenmessungen gestützt wird - scheint nicht das letzte Wort zu sein. Es wurden im Inneren von Mondgestein Wasser-Moleküle gefunden, die zeigen, dass Wasser schon von Anfang an auf dem Mond vorhanden war und auch nach seiner Entstehung nicht verschwand, wie astronews.com berichtet:

Jetzt haben amerikanische Geowissenschaftler dem lunaren Wasserrätsel eine weitere Komponente hinzugefügt: Ihnen ist es nämlich gelungen, in Bodenproben aus den Hochländern des Mondes signifikante Mengen an Wasser nachzuweisen. Die Proben waren im Rahmen der Apollo-Missionen zur Erde gelangt. In den Hochländern findet sich noch die ursprüngliche Kruste des Mondes, wie sie einst aus dem lunaren Magmaozean auskristallisierte, der den gesamten Mond direkt nach seiner Entstehung überzog.

Ihre Entdeckung würde, so die Wissenschaftler in einer Pressemitteilung, nicht nur darauf hindeuten, dass es auf dem jungen Mond Wasser gab, sondern dass das Wasser offenbar auch nicht bei der Entstehung des Mondes in größerem Umfang verloren gegangen ist. Dies würde allerdings - zumindest auf den ersten Blick - der derzeit bevorzugten Theorie über die Entstehung des Mondes widersprechen. Danach entstand der Erdtrabant aus den Trümmern einer Kollision der Erde mit einem etwa marsgroßen Objekt.

... link (0 Kommentare)   ... comment


Dienstag, 19. Februar 2013
Nachlese zum Meteoritenereignis in Russland
Eine interessante Nachlese zum Meteoritenregen in Russland bringt Kosmologs:

Wir wissen ja alle, was jetzt geschehen wird. Das Tscheljabinsk-Ereignis wird noch ein paar Wochen präsent bleiben und dann wieder langsam in Vergessenheit geraten, weil sich das öffentliche Interesse anderen wichtigen Dingen wie Promiskandalen widmet. In der Wissenschaft allerdings wird das jähe Ende dieses Himmelskörpers einen nachhaltigen Eindruck hinterlassen. Ich plädiere dafür, nicht nur die Vermessung und Bahnbestimmung energisch voranzutreiben, sondern auch die Antwicklung von Abwehrmaßnahmen. Was auch immer man vorsieht, die Ablenkung oder gar die kontrollierte Zerlegung potenziell gefährlicher Asteroiden - dies sollte nicht nur auf dem Papier stattfinden, sondern in tatsächlichen Missionen sozusagen am lebenden Objekt. Die Technik muss zur Einsatzreife gebracht und dann auch kurzfristig verfügbar sein.

Ich glaube nicht, dass kleine, unbemannte Sonden hier eine wirkliche Option darstellen. Lasst uns doch bitte mal Nägel mit Köpfen machen. Erdnahe Asteroiden sollten mit grossen, bemannten Raumschiffen besucht und untersucht und mit einer Vielzahl von Messinstrumenten gespickt werden. Dabei sollten auch Prototypen von Systemen getestet werden, die die kontrollierte Zerlegung zulassen. Wir reden hier von fliegenden Geröllhalden von zumeist nur einigen Hundert metern Durchmesser, deren Bestandteile Monolithen von wahrscheinlich maximal 100 Metern sind. Genau wissen wir das nicht, es hat noch nie eine Langzeituntersuchung des inneren Aufbaus eines oder gar vieler Asteroiden gegeben. Wir haben also keine in-situ-Daten, schon gar nicht statistisch aussagekräftige. Allenfalls können wir versuchen, aus indirekten Beobachtungen Rückschlüsse zu ziehen. Das reicht aber einfach nicht.

Also: Das nächste Ziel für bemannte Missionen nach dem Mond sollten erdnahe Asteroiden sein. Von denen kann eine große Zahl erreicht werden, wenn man eine Missiondauer von einem Jahr, inklusive Hin- und Rückflug und Aufenthalt von einigen Wochen vorgibt. Der Aufwand pro Mission, gemessen in Delta-v ist in etwa vergleichbar mit einer bemannten Mondmission. Eine Asteroidenmission dauert länger als eine Mondmission, also braucht man ein Habitat und muss sich mehr Gedanken um den Schutz vor kosmischer Strahlung machen. Andererseits entfallen die komplexen, risikoreichen Opereationen zur Landung und zum Rückstart, die man bei Mondmissionen hat. Über den Daumen gepeilt sollten Aufwand und Kosten voin Mond- und Asteroidenmissionen sich nicht wesentlich unterscheiden.

Also los Leute, packen wir's. Durch Abwarten ist nichts zu gewinnen. Wir haben alle technischen Kenntnisse, die wir brauchen. Wir müssen nur noch loslegen.

... link (0 Kommentare)   ... comment


Donnerstag, 31. Januar 2013
Überraschender Pulsar
Astronomen haben einen lang bekannten Pulsar mit neuen Instrumenten vermessen und dabei eine überraschende Enttdeckung gemacht, wie u.a. raumfahrer.net berichtet:

Es ist das erste Mal, dass ein Intensitätswechsel der Röntgenemission bei Pulsaren gemessen wurde. Dieses veränderte Verhalten dieser beiden extremen Zustände, einer dominiert von Röntgenpulsen, der andere von Radioemission, „ist sehr überraschend“, so Joanna Rankin. Zum einen konnte an einem weiteren Pulsar die Emission von Photonen im Röntgenbereich festgestellt werden, zum anderen, dass es sich um einen Umschaltprozess zwischen zwei verschiedenen Modi zu handeln scheint. Kein aktuelles Modell ist in der Lage dies zu erklären.

Über den Ursprung der Radiostrahlung an Pulsaren herrscht allgemein Einigkeit: hochenergetische Elektronen, Positronen und Ionen werden in der Magnetosphäre des Pulsars entlang der Feldlinien beschleunigt und emittieren Strahlung im Radiobereich. Wie die Partikel von der Oberfläche des Neutronensterns in dessen Magnetosphäre gelangen, ist jedoch unklar.

Mit dem Studium der Emissionen bei unterschiedlichen Wellenlängen hatte das Team herausfinden wollen, welche verschiedenen physikalischen Prozesse in der Nähe der magnetischen Pole von Pulsaren stattfinden.

Die Tatsache, dass der Pulsar nicht nur einmalig, sondern dauerhaft mit einer Periode von wenigen Sekunden zwischen beiden Modi, Radio- und Röntgenemission, wechselt, legt den Schluss nahe, dass hier etwas Grundsätzliches vorhanden sein muss, dass bisher nicht verstanden wurde.

... link (0 Kommentare)   ... comment


Montag, 28. Januar 2013
Proton kleiner als gedacht
Neueste Messungen, die im Fachjournal Science präsentiert werden, bestätigen Messungen von vor drei Jahren, nachdem das Proton doch kleiner sein soll, als bislang angenommen.

Dies melden u.a.

Welt der Physik

und

Pro Physik

Selbstverständlich hätte eine geringere Protonengröße einen enormen Einfluss auf bisherige Theorien in der Physik. Einmal mehr droht ein in der Physik sicher geglaubtes Fundament verloren zu gehen.

Doch möchte ich noch einen anderen Aspekt betonen:
Zur Zeit geht die offizielle Debatte der Physiker so: Entweder sind die althergebrachten Messungen via Elektronenstreuung korrekt und dafür die bestätigten Ergebnisse der neuen Messungen falsch, oder umgekehrt: Die neuen Messungen sind korrekt und die alten falsch.

Nun möchte ich einen dritten Vorschlag machen: Beide Messkampagnen sind korrekt: Die Größe der Protonen ist dann abhängig von dem mit ihnen in Wechselwirkung tretenden Teilchen auf den Bahnen des Atoms. Es ist also davon Abhängig, ob um dem Atomkern ein Elektron oder ein Myon läuft. Damit wäre das Elektron/Myon elementarer als das Proton (was es ja auch ist, da das Proton selbst aus kleineren Teilchen zusammengesetzt ist). Zum anderen wäre eine solche Variabilität sehr gut mit der Elektronentheorie von Jean Emile Charon zu vereinbaren.

In jedem Fall, wenn die Myon-Ergebnisse weiter abgesichert sind, reichen die bisherigen Theorien in der Atomphysik - insbesondere die QED - nicht aus...!

... link (1 Kommentar)   ... comment


Donnerstag, 10. Januar 2013
Apophis: 75% mehr Masse als gedacht!
Der Asteroid Apophis, der 2029 und 2036 der Erde sehr sehr nah kommt, hat eine viel größere Masse, als zunächst angenommen wurde. Dadurch ändern sich natürlich die bisherigen Berechnungen für eine Einschlagswahrscheinlichkeit auf die Erde. Gerade der sehr dichte Vorbeiflug 2029 dürfte nun eine stärkere Veränderung erfahren, so dass man schauen muss, was dann 2036 geschieht.

Zu den neuen Massedaten berichtet u.a. space.com.

Update und Entwarnung bis einschließlich 2036

... link (0 Kommentare)   ... comment


Freitag, 4. Januar 2013
Gas mit negativer Kelvin-Temperatur
Nichts ist kälter als 0° Kelvin, somit kann es auch keine negativen Kelvin-Grade geben.

Forscher haben nun aber in einem Gas Eigenschaften gemessen, die nur mit einer negativen Kelvin-Temperatur erklärbar sind. Das Paradoxe: Diese negative Temperatur ist heißer als jede endliche positive Kelvin-Temperatur.

Besonders interessant ist diese Entdeckung auch für die Kosmologie, weil sie womöglich die sogenannte Dunkle Energie erklären hilft, wie pro physik berichtet:

Was für die meisten Menschen im Winter normal ist, war in der Physik bislang unmöglich: eine negative Temperatur. Auf der Celsius-Skala überraschen Minus-Grade nur im Sommer. Auf der absoluten Temperatur-Skala, die von Physikern verwendet wird und auch Kelvin-Skala heißt, kann der Nullpunkt jedoch nicht unterschritten werden – zumindest nicht in dem Sinne, dass etwas kälter als null Kelvin wird.

Physiker der Ludwig-Maximilians-Universität München und des Max-Planck-Instituts für Quantenoptik in Garching haben nun im Labor ein atomares Gas geschaffen, das trotzdem negative Kelvin-Werte annehmen kann. Diese negativen absoluten Temperaturen haben einige scheinbar absurde Konsequenzen: Obwohl die Atome in dem Gas sich anziehen und damit ein negativer Druck herrscht, kollabiert das Gas nicht – ein Verhalten, das auch für die dunkle Energie in der Kosmologie postuliert wird. Mit Hilfe von negativen absoluten Temperaturen lassen sich auch vermeintlich unmögliche Wärmekraftmaschinen realisieren, etwa ein Motor, der mit einer thermodynamischen Effizienz von über 100 Prozent arbeitet.

Die Physiker um Ulrich Schneider und Immanuel Bloch haben ein Gas realisiert, in dem die Boltzmann-Verteilung genau umgedreht ist: Viele Teilchen weisen darin eine hohe Energie auf und nur wenige eine niedrige. Diese Umkehrung der Verteilung der Energie bedeutet nun gerade, dass die Teilchen eine negative Temperatur angenommen haben.
„Die umgekehrte Boltzmann-Verteilung ist genau das, was eine negative absolute Temperatur ausmacht, und die haben wir erreicht“, sagt Ulrich Schneider. Das Gas sei dabei aber nicht kälter als null Kelvin, sondern heißer, wie der der Physiker erklärt: „Es ist sogar heißer als bei jeder beliebigen positiven Temperatur –die Temperaturskala hört bei unendlich einfach noch nicht auf, sondern springt zu negativen Werten.“


Materie bei negativer absoluter Temperatur hat eine ganze Reihe von verblüffenden Konsequenzen: Mit ihrer Hilfe könnte man Wärmekraftmaschinen wie zum Beispiel Motoren bauen, deren Effizienz über 100 Prozent beträgt. Das heißt jedoch nicht, dass der Energieerhaltungssatz verletzt wird. Vielmehr könnte die Maschine im Unterschied zum üblichen Fall nicht nur Energie aus einem heißen Medium ziehen und damit Arbeit verrichten, sondern auch aus dem kalten.

Bei rein positiven Temperaturen heizt sich im Gegensatz dazu das kältere Medium zwangsläufig auf, nimmt also einen Teil der Energie des heißen Mediums auf und limitiert dadurch die Effizienz. Ist das heiße Medium dagegen bei einer negativen Temperatur, so kann gleichzeitig aus beiden Medien Energie entnommen werden. Die Arbeit, die die Maschine verrichtet, ist somit größer als die Energie, die nur dem heißen Medium entnommen wird – die Effizienz liegt bei über 100 Prozent.

Die Arbeit der Münchner Physiker könnte zudem für die Kosmologie interessant sein. Denn die negative Temperatur weist in ihrem thermodynamischen Verhalten Parallelen zur „dunklen Energie“ auf. Diese postulieren Kosmologen als jene rätselhafte Kraft, die den Kosmos dazu bringt, sich immer schneller auszudehnen, obwohl er sich aufgrund der anziehenden Gravitation der Materie im Universum eigentlich kontrahieren sollte. In der Atomwolke des Münchner Labors gibt es ein ähnliches Phänomen: Das Experiment beruht unter anderem darauf, dass sich die Atome des Gases nicht abstoßen, wie in einem gewöhnlichen Gas, sondern anziehen. Das heißt, sie üben einen negativen und keinen positiven Druck aus; die Atomwolke will sich also zusammenziehen und sollte eigentlich kollabieren – genauso wie man das vom Universum unter dem Einfluss der Schwerkraft erwarten würde. Doch wegen ihrer negativen Temperatur tut sie dies gerade nicht. Sie bleibt ebenso vor dem Kollaps bewahrt wie das Universum.



Wer mehr mathematischen Hintergrund möchte: Die Boltzmann-Verteilung ist im Wiki unter dem Begriff Boltzmann-Statistik zu finden!

... link (0 Kommentare)   ... comment


Freitag, 14. Dezember 2012
Nur drei Teilchengenerationen
Wieviele Teilchen gibt es? Genauer: Wieviele Generationen von Fermionen? Auf diese Frage machen nun Forscher ihre aus Messergebnisse des LHC gewonnenen Daten Antwort:

Es gibt nur drei Fermionen-Generationen in der Natur, aber nur im Rahmen des Standardmodells!

Dies berichtet pro physik.

Doch eine viel wichtigere Frage ist doch: Warum nur drei? Theoretisch wären auch mehr möglich gewesen.

Die Frage, warum genau drei Fermionen-Generationen existieren und nicht mehr oder weniger, kann aber im Rahmen des heutigen Standardmodells nicht beantwortet werden, und bleibt ebenso bestehen wie die Frage nach den Unterschieden zwischen Materie und Antimaterie. Supersymmetrische Modelle, die diese Probleme zu lösen suchen, werden von den neuen Ergebnissen aber nur bedingt berührt. So kann in manchen dieser Ansätze nicht ausgeschlossen werden, dass weitere schwere Fermionen existieren, die ihre Masse nicht durch Kopplung an das Higgs-Boson, sondern durch Brechung der Supersymmetrie erhalten. Jenseits des Standardmodells bleiben also weiterhin viele Baukästen denkbar.

... link (0 Kommentare)   ... comment


Donnerstag, 29. November 2012
Schwarzes Loch hebelt Galaxienentstehungtheorie aus
Wieder steht ein Theoriegebäude vor dem Aus, denn es wurde ein Schwarzes Loch entdeckt, das im Verhältnis zu seiner Galaxie viel zu Massereich ist, jedenfalls wenn es nach den etablierten Theorien der Galaxienbildung geht. Dies berichtet pro-physik.de:

Untersuchungen der Massen ferner Galaxien und ihrer schwarzen Löcher haben einen interessanten Zusammenhang aufgedeckt: Danach erreicht ein schwarzes Loch typischerweise nur einen winzigen Bruchteil – etwa 0,1 Prozent – der Gesamtmasse aller Sterne, die der Muttergalaxie angehören. Diese Beziehung ist zwar nur unvollständig verstanden, spielt aber eine wichtige Rolle in allen derzeit gängigen Modellen der Galaxienentwicklung. Jetzt hat das Team um Remco van den Bosch im Rahmen einer seit 2010 laufenden systematischen Suche ein schwarzes Loch aufgespürt, das diesen allgemein akzeptierten Zusammenhang aushebeln könnte. Die Astronomen nutzten dafür Spektren vom Hobby-Eberly-Teleskop in Texas sowie archivierte Bilder des Weltraumteleskops Hubble.

Die Spektren gestatteten Rückschlüsse auf die Bewegungen der Sterne, die direkt von der Schwerkraft des schwarzen Lochs abhängen. Denn anhand spezifischer Veränderungen wie dem Dopplereffekt konnten die Astronomen etwa auf die Geschwindigkeit schließen. Dabei gilt: Je massereicher das schwarze Loch, desto schneller die Bewegung der Sterne im Herzen der Galaxie. Auf diese Weise identifizierte das Team sechs Kandidatengalaxien, die vergleichsweise klein waren und große schwarze Löcher besitzen mussten. Für eine davon, NGC 1277, waren im Archiv des Weltraumteleskops Hubble bereits detailreiche Bilder vorhanden.

Um die Masse des schwarzen Lochs zu bestimmen, erstellten van den Bosch und seine Kollegen ein dynamisches Modell der Galaxie, das alle möglichen Sternumlaufbahnen einschließt. Systematische Vergleiche von Modell und Beobachtungsdaten zeigten dann, welche Umlaufbahnen in Kombination mit welchem Massenwert für das schwarze Loch die Beobachtungen am besten erklären. Im Fall der Scheibengalaxie NGC 1277 kamen die Astronomen auf rund 17 Milliarden Sonnenmassen.

Die größte Überraschung: Die Masse der mächtigen Schwerkraftfalle macht ungefähr 14 Prozent der Gesamtmasse von NGC 1277 aus – was deutlich über den oben genannten 0,1 Prozent liegt und einen Faktor von mehr als zehn bedeutet. Mit anderen Worten: Die Astronomen hätten ein schwarzes Loch dieser Größe in einer mindestens zehnfach größeren elliptischen Galaxie erwartet – aber nicht in einer kleinen Scheibengalaxie wie NGC 1277.

Ist das eine seltene Laune der Natur, eine Ausnahme? Vorläufige Analysen weiterer Daten weisen in eine andere Richtung: Bis dato hatten Remco van den Bosch und seinen Kollegen noch fünf weitere Galaxien entdeckt, die vergleichsweise klein sind, aber dennoch ungewöhnlich massereiche zentrale schwarze Löcher beherbergen dürften. Definitiv wird sich das aber erst sagen lassen, wenn detaillierte Abbildungen dieser Sternsysteme vorliegen.

Bestätigen sich diese weiteren Fälle und gibt es in der Tat noch mehr schwarze Löcher wie das von NGC 1277, dann müssen die Astronomen ihre Modelle der Galaxienentwicklung grundlegend überdenken. Insbesondere müssen sie dabei das frühe Universum ins Auge fassen: NGC 1277 hat sich anscheinend vor mehr als acht Milliarden Jahren gebildet und seither nicht sehr verändert. Wie immer dieses gigantische schwarze Loch entstanden ist – es muss vor langer Zeit passiert sein.

... link (0 Kommentare)   ... comment


Freitag, 23. November 2012
Subatomare Zeitasymmetrie
Erstmals konnte direkt eine Zeitasymmetrie auf subatomerer Bassis beobachtet werden, wie welt der physik berichtet:

In der Zeitschrift „Physical Review Letters“ wurde jetzt eine neue Auswertung der Daten des BaBar-Experiments am Stanford Linear Accelerator Center (SLAC) in Kalifornien vorgestellt, die diese Zeitasymmetrie klar bestätigt.

Das BaBar-Experiment wurde ursprünglich geplant, um dem Ungleichgewichts zwischen Materie und Antimaterie auf den Grund zu gehen. Dabei ist die Untersuchung von Mesonen besonders interessant, weil Mesonen instabile, subatomare Teilchen sind, die jeweils aus einem Quark und einem Antiquark aufgebaut sind. Damit bestehen sie zur Hälfte aus Materie und zur anderen Hälfte aus Antimaterie. Seit Mitte der 60er Jahre wussten Physiker aus Experimenten mit sogenannten K-Mesonen, dass Materie und Antimaterie nicht exakt die gleichen Eigenschaften besitzen. Den Effekt, dass sich ein Teilchen bei einem Zerfallsprozess anders verhält als sein Antiteilchen, nennen sie CP-Verletzung. Gemeint ist die Verletzung zweier Symmetrien, die das Standardmodell beschreibt: Die C-Symmetrie der Ladung (englisch: charge) und die P-Symmetrie der sogenannten Parität, die eine Eigenschaft von Teilchen charakterisiert, die man mit der Rechts- oder Linkshändigkeit vergleichen kann. Vertauscht man bei einem physikalischen Prozess jedes Teilchen mit seinem Antiteilchen, und spiegelt es dazu noch, sodass links und rechts ihre Rollen wechseln, läuft der Vorgang unter Umständen anders ab. Physiker konnten mithilfe der BaBar-Daten, die von 1999 bis 2008 gesammelt wurden, dieses Phänomen bei sogenannten B-Mesonen nachweisen. Ein Team von Wissenschaftlern erhielt daraufhin 2008 den Physiknobelpreis für die Erklärung der beobachteten Asymmetrie.

Im Gegensatz zur CP-Symmetrie hatte es bislang nur indirekte Hinweise auf eine weitere Symmetrieverletzung gegeben, die Verletzung der Zeit- oder T-Symmetrie (englisch: time). Während es auf makroskopischen Skalen einen klaren Unterschied zwischen Vergangenheit und Zukunft gibt, verschwindet diese Ungleichheit für ein subatomares Teilchen oft. Wenn die Reaktion der Teilchen also rückwärts in der Zeit ablaufen würde, wäre der Vorgang physikalisch genauso plausibel. Dass nicht alle Prozesse so symmetrisch bei Zeitumkehr sind, wurde zwar schon lange theoretisch vermutet, doch der Effekt ist in Experimenten nicht leicht von der CP-Verletzung zu trennen. „In der Vergangenheit hatte man angenommen, dass ein wirklicher Test zur Symmetrie der Zeitumkehr mit instabilen Teilchen unmöglich ist“, erklärt José Bernabéu von der Universität Valencia, der bei der Auswertung der BaBar-Ergebnisse mitgearbeitet hat.

Mit den Daten zu über 400 Millionen B-Mesonen-Zerfällen gelang es den Physikern der BaBar-Kollaboration jedoch trotzdem, die Brechung der T-Symmetrie direkt nachzuweisen. Sie werteten dazu spezielle Umwandlungsprozesse der B-Mesonen aus, in denen die Teilchen zwischen zwei Zuständen wechseln. Dabei stellten sie fest, dass die untersuchten Transformationen sechsmal häufiger in einer Richtung als in der anderen stattfinden – ein deutlicher Hinweis auf die Zeitasymmetrie. Die Ergebnisse sind dabei extrem aussagekräftig, sie haben eine Signifikanz von 14 Sigma – um ein neues Resultat in der Physik offiziell als Entdeckung bezeichnen zu dürfen, reichen schon zwischen fünf und sechs Sigma aus. „Das ist eine neue Art und Weise, die Daten zu verstehen, die wir schon zur Messung der CP-Verletzung benutzt hatten,“ erklärt BaBar-Koordinator Abner Soffer von der Universität Tel Aviv. „Indem wir unseren Blickwinkel leicht verändert haben, konnten wir zweifellos auch die Zeitverletzung sehen. Besonders schön ist die Tatsache, dass dieser Effekt die ganze Zeit da war, aber das niemand zuvor richtig erkannt hatte.“

... link (0 Kommentare)   ... comment