Samstag, 14. Juli 2012
Higgs-Masse im Rahmen der Urwort-Theorie und ihre Konsequenz
Mit dem Wissen der neu Entdeckten Bosonen-Masse von 126 GeV/c^2 des Higgs-Kandidaten gelangt man zu einem neuen Abschätzungsmechanismus im Rahmen der Urwort-Theorie. Die in meiner Urwort-Abhandlung utsusy_v1 (pdf, 290 KB) , Abschnitt 4 verwendeten Berechnungsprinzipien kann man auch für die Higgs-Massen-Abschätzung verwenden, wenn man das Vorzeichen der Exponenten ändert (da man nun bei Bosonen bleibt und nicht zu den Fermionen wechselt):

Masse_Z_Boson = 91 GeV/c^2

Masse_W_Boson = 80 GeV/c^2

Faktor analog zu Abschnitt 4

(2^0 + 2^(-1))

Massen-Abschätzung:

Higgsmasse-Obergrenze = 91 GeV * (2^0 + 2^(-1)) = 136,5 GeV/c^2

Higgsmasse-Untergrenze = 80 GeV * (2^0 + 2^(-1)) = 120 GeV/c^2

Massen-Mittelwert = (136,5 GeV/c^2 + 120 GeV/c^2)/2 = (256,5 GeV/c^2 )/2 = 128,25 GeV/c^2

Das hat auch Auswirkung auf meine Massen-Abschätzung für das Stop Squark. Im Wesentlichen führt das zu einer Halbierung, wie ich in einer neuen Abhandlung kurz erläutern werde, da nun auch der Summand 2^1 für V_min erlaubt ist. Das Stop-Squark ist damit unter der o.a. Voraussetzung also auch bei 344 +- 86 GeV/c^2 zu suchen!

... link (0 Kommentare)   ... comment


Sonntag, 8. Juli 2012
Higgs-Mechanismus und die Bedeutung fundamentaler Skalarfelder
Persönlich hatte ich stets das Problem, den als Higgs-Mechanismus populär gewordenen Effekt für voll zu nehmen, da man ja auch mit ihm nicht die Werte der vierschiedenen Massen der Elementarteilchen berechnen kann, so auch nicht die Masse des Higgs-Teilchens. Was mich dann aber mit diesem Konzept versöhnt hat und auch erkennen ließ, wie großartig dieser Mechanismus ist, erschloss sich mir aus der Tatache des Meißner-Ochsenfeld-Effekts für Supraleiter.

Um es kurz zu machen: In einem Supraleiter erscheint die Masse des Photons, das ja keine Ruhemasse besitzt, als mit Ruhemasse behaftet und somit wird seine Reichwarte stark beschränkt. Unterhalb der Sprungtemperatur bilden sich im Supraleiter Cooper-Paare, die dann mit den Photonen wechselwirken. Entsprechendes gilt nun für den Higgs-Mechanismus: Alle Bosonen haben bei entsprechend hohen Temperaturen keine Masse. Sinkt diese jeweils hinreichende Temperatur so bilden sich vier Higgsfelder und es kommt zu einer Wechselwirkung zwischen Bosonen und Higgsfeldern. Dadurch verlieren die Bosonen ihre Reichweite und man muss ihnen eine Masse zuschreiben. So weit, so gut: Aber was ist mit dem Photon? Es besitzt ja keine Ruhemasse, ist aber ein Boson. Genau aus diesem Grunde muss es noch ein freies Higgs-Boson geben. Und nach diesem hat man gesucht und es wohl auch gefunden...

Übrigens: Das m.E. Ultraspannende ist bei der ganzen Sache, dass die Higgs-Felder Skalarfelder sein müssen. Denn man müsste ja sonst fragen, woher denn das Higgs-Boson seine Masse hat. Der Higgs-Mechanismus gilt aber für Vektorbosonen. Ein Skalarboson bezieht seine Masse aus dem Potential, während ein Vektorboson dies nicht kann und den Higgs-Mechanismus braucht.

Mit dem Higgsfeld haben wir damit erstmals ein fundamentales Skalarfeld in der Natur indirekt nachgewiesen. Das ist wichtig, denn zum Beispiel das Inflaton-Feld, das für die Inflationsphase der Expansion des Universums verantwortlich zeichnet, ist auch ein Skalarfeld. Doch solange man nicht wusste, dass es fundamentale Skalarfelder in der Natur gibt, war diese skalare Inflaton-Feld-Lösung eher ein Ad-hoc-Postulat. So aber hat das alles eine experimentelle Grundlage. Die Natur nutzt wirklich fundamentale Skalarfelder!

... link (0 Kommentare)   ... comment


Donnerstag, 5. Juli 2012
LHC: Teilchen mit ca. 125 GeV entdeckt
Wie schon vorweggenommen, wurde also am LHC ein Teilchen mit ca. 125 GeV entdeckt. Es ist nur noch nicht sicher, ob es sich wirklich um das Standardmodell-Higgs handelt oder doch um ein SM-Higgsartiges Teilchen.

CMS hat insgesamt eine Signifikanz von 4,9 Sigma und ATLAS eine Signifikanz von 5,0 Sigma, so dass schon von daher korrekterweise eine Entdeckung vorliegt.

Interessant ist dabei, dass in beiden Experimenten im Gamma-Gamma Kanal eine viel höhere Energie gemessen wurde, als für das SM-Higgs zu erwarten wäre. Das kann sich noch um eine statistische Fluktuation handeln, es kann aber auch ein Hinweis auf neue Physik sein. Immerhin hat dieser stärkere Ausschlag eine Signifikanz von 2 Sigma. Damit haben auch erste Hinweise begonnen, als es um die Energie eines Teilchens von 125 GeV im Herbst letzten Jahres ging...

Für neue Physik würde auch sprechen, dass beim CMS-Experiment im Tau-Antitau-Kanal kein Ausschlag gesehen wurde, dies aber bei einem SM-Higgs sein müsste. Es bleibt also spannend.

Auf jeden Fall herzliche Gratulation an alle Beteiligten!

... link (0 Kommentare)   ... comment


Mittwoch, 4. Juli 2012
Erste Higgs-Teilchen Bestätigung per Video!
Cern: We have observed a new particle!

... link (0 Kommentare)   ... comment


Higgs-Gerüchte
Bevor nun morgen die offizielle Verlautbarung des Cern abgegeben wird, möchte ich die neuesten Gerüchte besprechen. Es geht dabei um die Signifikanz der 2012er Ergebnisse bezogen auf die einzelnen Detektoren ATLAS und CMS des LHC.

Die Gerüchte gehen nun dahin, dass jedes einzelne Experiment für sich ein 125 GeV Higgs-Teilchen mit einem Sigma größer als 4 sieht, aber eben noch nicht die 5 Sigma erreicht hat. Doch auch so wäre dies schon mehr als ausreichend, denn nehmen wir an beide Experimente hätten jedes für sich 4,1 Sigma erreicht (was sicherlich zu tief gestapelt ist), dann können wir die Gesamtsignifikanz berechnen, indem wir einfach die Einzelsignifikanzen quadrieren, addieren und daraus die Wurzel ziehen:

Sigma_Gesamt = (4,1^2 + 4,1^2)^(1/2) = (33,62)^(1/2) = 5,798...

Was einer gesicherten Entdeckungsgüte von 5 Sigma übersteigt. Aber ich kann schon nachvollziehen, dass man bei einer solch einschneidenden Entdeckung wenigstens in einem der Experimente selbst eine 5 Sigma sehen möchte, bevor man offiziell von einer Entdeckung sprechen wird. Doch das hat eher psychologische und keine physikalisch-technisch-statistischen Gründe...

... link (0 Kommentare)   ... comment


Montag, 25. Juni 2012
Cern: Seminar zu neuen Such-Ergebnissen nach dem Higgs Boson
In letzter Zeit gibt es ja Gerüchte nach weiteren Hinweisen zur Suche nach dem Higgsboson in den neuen Daten der 2012er Kollisionen am LHC.

Vermutet wurde eine entsprechende Bekanntgabe auf der ICHEP-Konferenz in Melbourne vom 4. bis 11. Juli 2012.

Nun hat das Cern aber mitgeteilt, dass es selbst ein Seminar am 4.7.2012 abhalten will, um weitere Ergebnisse bezüglich der Higgs-Suche öffentlich zu machen (siehe auch hier).

... link (0 Kommentare)   ... comment


Donnerstag, 21. Juni 2012
BaBar: Neue Physik entdeckt
Während man wieder über neue Ergebnisse mit größerer Signifikanz zum Higgs-Boson spekuliert (und gesicherte Auskunft wird auf der Konferenz in Melbourne zu finden sein, siehe ab 4.7.12 hier) wurde mittels der BaBar-Kollaboration ein Zerfall beobachtet, der viel größer ist, als die Standardtheorie der Teilchenphysik erlaubt. Ausführlich berichtet science daily darüber:

In this type of decay, a particle called the B-bar meson decays into a D meson, an antineutrino and a tau lepton. While the level of certainty of the excess (3.4 sigma in statistical language) is not enough to claim a break from the Standard Model, the results are a potential sign of something amiss and are likely to impact existing theories, including those attempting to deduce the properties of Higgs bosons.

"The excess over the Standard Model prediction is exciting," said BaBar spokesperson Michael Roney, professor at the University of Victoria in Canada. The results are significantly more sensitive than previously published studies of these decays, said Roney. "But before we can claim an actual discovery, other experiments have to replicate it and rule out the possibility this isn't just an unlikely statistical fluctuation."

The BaBar experiment, which collected particle collision data from 1999 to 2008, was designed to explore various mysteries of particle physics, including why the universe contains matter, but no antimatter. The collaboration's data helped confirm a matter-antimatter theory for which two researchers won the 2008 Nobel Prize in Physics.

Researchers continue to apply BaBar data to a variety of questions in particle physics. The data, for instance, has raised more questions about Higgs bosons, which arise from the mechanism thought to give fundamental particles their mass. Higgs bosons are predicted to interact more strongly with heavier particles -- such as the B mesons, D mesons and tau leptons in the BaBar study -- than with lighter ones, but the Higgs posited by the Standard Model can't be involved in this decay.

"If the excess decays shown are confirmed, it will be exciting to figure out what is causing it," said BaBar physics coordinator Abner Soffer, associate professor at Tel Aviv University. Other theories involving new physics are waiting in the wings, but the BaBar results already rule out one important model called the "Two Higgs Doublet Model."


Nun wird noch eine unabhängige Bestätigung benötigt, die aber bald vorliegen kann, wie New Scientist berichtet:

The BaBar team's results are not statistically significant, yet, but they hope a Japanese experiment called Belle will confirm their results soon. If it is confirmed, the standard model may need a revamp, even if the Higgs is discovered to fit neatly into it.

... link (0 Kommentare)   ... comment


Mittwoch, 20. Juni 2012
Das Lithium-Problem des Urknalls
Nun bin ich kein ausgesprochener Gegner des Urknallmodells. Aber es ist mir stets wichtig immer wieder zu zeigen, dass die als zustreffend bezeichneten Modelle des Kosmos auch ihre empirischen Angriffspunkte haben. Beim Urknall ist das u.a. das Lithium-Problem. Im Rahmen des Urknalls hätte viel mehr Lithium entstanden sein müssen, als man durch Beobachtung nachweisen kann. Auf der Suche nach Lithiumvernichtungsmechanismen im All ist man aber nun auf ein Mechanismus gestossen, dass den Lithiumwert im Universum noch weiter erhöhen sollte, was das Lithiumproblem des Urknalls weiter verschärft.

'Welt der Physik' berichtet in einem Artikel:

„Lithium ist eines der wenigen Elemente im Kosmos, deren Häufigkeit entscheidend durch die Nukleosynthese beim Urknall beeinflusst wurde“, erläutern Fabio Iocco von der Universität Stockholm und Miguel Pato von der Technischen Universität München. In den ersten Minuten nach der Entstehung des Universums war die Materie so heiß, dass durch Fusionsprozesse aus Protonen und Neutronen das Wasserstoff-Isotop Deuterium, Helium und in kleinen Spuren auch Lithium entstehen konnten.

Theoretische Modelle der Nukleosynthese sind in hervorragender Übereinstimmung mit der beobachteten Häufigkeit von Wasserstoff und Helium in sehr alten Sternen. Bei dem Element Lithium versagen die Modelle jedoch: Sie sagen dreimal mehr Lithium voraus, als in den Außenschichten alter Sterne tatsächlich beobachtet wird. Astronomen haben eine Vielzahl von Lösungen für dieses Problem vorgeschlagen – doch keiner dieser Ansätze liefert befriedigende Ergebnisse. Denn Prozesse, die den Lithiumanteil verändern, führen oft zu neuen Widersprüchen bei der Häufigkeit anderer Elemente.

Die Arbeit von Iocco und Pato verschärft nun das Lithiumproblem zusätzlich. Denn die beiden Forscher finden keinen Prozess, der Lithium abbaut, sondern im Gegenteil einen, der zusätzliches Lithium herstellt. In der Milchstraße gibt es nach theoretischen Schätzungen mehrere hundert Millionen stellare Schwarzer Löcher – Überreste alter, kollabierter Sterne. Wenn diese Schwarzen Löcher einem nahen Stern Materie entreißen, bildet sich ein heißer, rotierender Materiering um das Schwarze Loch. In diesem Ring ist die Temperatur so hoch, dass durch Kernfusion aus Wasserstoff Lithium entstehen kann, zeigt das Forscherduo. Die Frage, wo dieses Lithium geblieben ist, können auch Iocco und Pato nicht beantworten. Aber sie weisen darauf hin, dass die Produktion von Lithium bei Schwarzen Löchern bei jedem Versuch der Lösung des Lithiumproblems berücksichtigt werden muss.

... link (0 Kommentare)   ... comment


Freitag, 8. Juni 2012
Halbwertzeit des neutrinolosen Doppelbetazerfalls
Es ist schon interessant: Wenn man englische und deutsche Wissenschaftsmeldungen vergleicht, dann ist es meist so, dass die deutschen Meldungen - gerade in Wissenschaftsjournalen - sehr viel pessimistischer daher kommen als jene auf englisch.

Ein weiteres Beispiel ist der neutrinolose Doppelbetazerfall. In englischen Artikeln freut man sich, dass man eine neue untere Grenze der Halbwertszeit für diesen Zerfall geunden hat und man so der eigentlichen Entdeckung näher kommt (zum Beispiel sciencedail.com Artikel). Auf deutsch wird so gar der neutrinolose Doppelbetazerfall als ganzes sofort infrage gestellt.

So das eigentlich recht nüchterne Portal pro-physik.de setzt in der Artikel-Überschrift so ein Fragezeichen.

Dazu besteht keine Veranlassung. Wie im Artikel selbst erwähnt wird, hat der normale Doppelbetazerfall eine Halbwertszeit von 10^21 Jahre. Nun konnte man die Halbwertszeit des neutrinolosen Doppelbetazerfalls auf ca. 10^25 als Untergrenze festlegen, der eigentliche Zerfall wurde noch nicht gesichtet.

Erklärung aus der Urwort-Theorie

Für mich ist das gar kein Problem, denn wenn es wirklich stimmt, dass das Neutrino aus dem Eta-Teilchen des G4 der Urwort-Theorie hervorgeht (und damit sein eigenes Antiteilchen sein muss), dann würde man eher mit Halbwertszeiten des neutrinolosen Betazerfalls - aufgrund der gegenseitigen Annihilierung der Neutrinos, die ihre eigenen Anti-Teilchen sind - in einem Bereich von 10^29 bis 10^31 Jahren rechnen.

Warum? Neutrino und Antineutrinos annihilieren sich nicht so leicht, wie man in der Mainstream-Wissenschaft annimmt, da sie - ähnlich wie Elektron und Positron als Essenzgemeinschaft - entsprechend 'innerlich strukturiert' sein können. Das ergibt sich schon daraus, dass es eben zu jedem Elektron ein Elektron-Neutrino gibt usw.

Aber auch ohne die Kenntnis aus der Urwort-Theorie, sollte eine Halbwertszeit von ca. 10^27 für den neutrinolosen Doppelbetazerfall keine Überraschung sein.

... link (0 Kommentare)   ... comment


Dienstag, 29. Mai 2012
Kane: STOP- und SBOTTOM- Squarks > 10 TeV/c^2
Gordon Kane hatte ja auf der Grundlage von Berechnungen im Rahmen der M-Theory eine Higgs-Bosonenmasse von ca. 125 GeV/c^2 vorhergesagt (mein Beitrag dazu hier). Für diese Masse hat das LHC ja auch tatsächliche starke Hinweise auf ein Higgs-Boson gefunden.

Nun habe ich erfahren, dass die selben Berechnungsgrundlagen, mit denen Kane scheinbar Erfolg hatte, zudem noch angeben, dass die Superpartnerteilchen der dritten Generationenquarks größer als 10 TeV/c^2 sind.

Das würde nicht nur einen direkten Nachweis der Supersymmetrie sehr erschweren und für das LHC gar ganz unmöglich machen, sondern es widerspricht meinen Berechnungen auf Grundlage der Urwort-Theorie, denn demgemäß liegen die Massen unter 1 TeV/c^2 (siehe utsusy_v1 (pdf, 290 KB) ).

Wir haben also einen Unterschied von einer Zehnerpotenz im Massenbereich. Das sollte reichen um anhand der Resultate des LHC klar entscheiden zu können, welche Vorhersage und damit welches Modell verworfen werden muss.

Das sehe ich sehr gelassen: Schließlich spielen wir hier nicht 'Wünsch dir was', sondern machen anhand von Modellrechnungen voraussagen, die dann empirisch überprüft werden. Warten wir also einfach die Experimente ab...!

... link (0 Kommentare)   ... comment