Dienstag, 23. November 2010
Konzentrische Kreise in Hintergrundstrahlung...
klauslange,21:53h
... wurde bei Datenauswertung von WMAP und einer der Boomerang Mission entdeckt. Wenn diese Kreise wirklich vorhanden sind, ist das in der Tat eine interessante Neuigkeit. Doch wie in den Meldungen gemutmaßt wird, dass dies von einem Vorgängeruniversum vor dem Urknall stammen könnte, halte ich für gewagt.
Hier die Meldungen:
http://www.astronews.com/news/artikel/2010/11/1011-016.shtml
http://www.weltderphysik.de/de/4245.php?ni=2263
Zitat:
Penrose und Gurzadyan sind nun bei einer umfangreichen Analyse der WMAP-Daten auf eine Vielzahl konzentrischer Ringe gestoßen, in denen die Temperatur deutlich weniger schwankt als im Durchschnitt. Die Wahrscheinlichkeit für ein zufälliges Auftreten solcher Muster in den Daten sei geringer als 1 : 10 Millionen, so die Forscher. Nochmal erheblich niedriger sei die Wahrscheinlichkeit dafür, dass - wie beobachtet - mehrere Ringe konzentrisch auftreten, sich also um den gleichen Mittelpunkt gruppieren. Um ihren Fund weiter zu untermauern, haben Penrose und Gurzadyan außerdem Daten der Boomerang-Mission ausgewertet, eines Ballon-Teleskops, das die Hintergrundstrahlung in Teilbereichen des Himmels mit hoher Genauigkeit untersucht hat. Tatsächlich zeigten sich in den Boomerang-Daten die Ringe an den gleichen Stellen wie in den WMAP-Daten. Um einen Instrumenten-Effekt der WMAP-Detektoren kann es sich also nicht handeln.
Hier die Meldungen:
http://www.astronews.com/news/artikel/2010/11/1011-016.shtml
http://www.weltderphysik.de/de/4245.php?ni=2263
Zitat:
Penrose und Gurzadyan sind nun bei einer umfangreichen Analyse der WMAP-Daten auf eine Vielzahl konzentrischer Ringe gestoßen, in denen die Temperatur deutlich weniger schwankt als im Durchschnitt. Die Wahrscheinlichkeit für ein zufälliges Auftreten solcher Muster in den Daten sei geringer als 1 : 10 Millionen, so die Forscher. Nochmal erheblich niedriger sei die Wahrscheinlichkeit dafür, dass - wie beobachtet - mehrere Ringe konzentrisch auftreten, sich also um den gleichen Mittelpunkt gruppieren. Um ihren Fund weiter zu untermauern, haben Penrose und Gurzadyan außerdem Daten der Boomerang-Mission ausgewertet, eines Ballon-Teleskops, das die Hintergrundstrahlung in Teilbereichen des Himmels mit hoher Genauigkeit untersucht hat. Tatsächlich zeigten sich in den Boomerang-Daten die Ringe an den gleichen Stellen wie in den WMAP-Daten. Um einen Instrumenten-Effekt der WMAP-Detektoren kann es sich also nicht handeln.
... link (0 Kommentare) ... comment
Samstag, 20. November 2010
Durchbruch in der Quantentheorie!!!
klauslange,18:59h
Erst einmal nur kurz:
Wie berichtet wird gibt es einen erstaunlichen Durchbruch in der Quantentheorie. Unbestimmtheitsrelation und die sogenannte spukhafte Fernwirkung verschränkter Teilchen hängen zusammen, wobei letztere durch ersteres limitiert wird.
Hier ein Link zur Meldung:
http://www.sciencedaily.com/releases/2010/11/101118141541.htm
Zitat:
Stephanie Wehner of Singapore's Centre for Quantum Technologies and the National University of Singapore and Jonathan Oppenheim of the United Kingdom's University of Cambridge published their work in the latest edition of the journal Science.
The strange behaviour of quantum particles, such as atoms, electrons and the photons that make up light, has perplexed scientists for nearly a century. Albert Einstein was among those who thought the quantum world was so strange that quantum theory must be wrong, but experiments have borne out the theory's predictions.
One of the weird aspects of quantum theory is that it is impossible to know certain things, such as a particle's momentum and position, simultaneously. Knowledge of one of these properties affects the accuracy with which you can learn the other. This is known as the "Heisenberg Uncertainty Principle."
Another weird aspect is the quantum phenomenon of non-locality, which arises from the better-known phenomenon of entanglement. When two quantum particles are entangled, they can perform actions that look as if they are coordinated with each other in ways that defy classical intuition about physically separated particles.
Previously, researchers have treated non-locality and uncertainty as two separate phenomena. Now Wehner and Oppenheim have shown that they are intricately linked. What's more, they show that this link is quantitative and have found an equation which shows that the "amount" of non-locality is determined by the uncertainty principle.
"It's a surprising and perhaps ironic twist," said Oppenheim, a Royal Society University Research Fellow from the Department of Applied Mathematics & Theoretical Physics at the University of Cambridge. Einstein and his co-workers discovered non-locality while searching for a way to undermine the uncertainty principle. "Now the uncertainty principle appears to be biting back."
Non-locality determines how well two distant parties can coordinate their actions without sending each other information. Physicists believe that even in quantum mechanics, information cannot travel faster than light. Nevertheless, it turns out that quantum mechanics allows two parties to coordinate much better than would be possible under the laws of classical physics. In fact, their actions can be coordinated in a way that almost seems as if they had been able to talk. Einstein famously referred to this phenomenon as "spooky action at a distance."
However, quantum non-locality could be even spookier than it actually is. It's possible to have theories which allow distant parties to coordinate their actions much better than nature allows, while still not allowing information to travel faster than light. Nature could be weirder, and yet it isn't -- quantum theory appears to impose an additional limit on the weirdness.
"Quantum theory is pretty weird, but it isn't as weird as it could be. We really have to ask ourselves, why is quantum mechanics this limited? Why doesn't nature allow even stronger non-locality?" Oppenheim says.
The surprising result by Wehner and Oppenheim is that the uncertainty principle provides an answer. Two parties can only coordinate their actions better if they break the uncertainty principle, which imposes a strict bound on how strong non-locality can be.
"It would be great if we could better coordinate our actions over long distances, as it would enable us to solve many information processing tasks very efficiently," Wehner says. "However, physics would be fundamentally different. If we break the uncertainty principle, there is really no telling what our world would look like."
How did the researchers discover a connection that had gone unnoticed so long? Before entering academia, Wehner worked as a 'computer hacker for hire', and now works in quantum information theory, while Oppenheim is a physicist. Wehner thinks that applying techniques from computer science to the laws of theoretical physics was key to spotting the connection. "I think one of the crucial ideas is to link the question to a coding problem," Wehner says. "Traditional ways of viewing non-locality and uncertainty obscured the close connection between the two concepts."
Wehner and Oppenheim recast the phenomena of quantum physics in terms that would be familiar to a computer hacker. They treat non-locality as the result of one party, Alice, creating and encoding information and a second party, Bob, retrieving information from the encoding. How well Alice and Bob can encode and retrieve information is determined by uncertainty relations. In some situations, they found that and a third property known as "steering" enters the picture.
Wehner and Oppenheim compare their discovery to uncovering what determines how easily two players can win a quantum board game: the board has only two squares, on which Alice, can place a counter of two possible colours: green or pink. She is told to place the same colour on both squares, or to place a different colour on each. Bob has to guess the colour that Alice put on square one or two. If his guess is correct, Alice and Bob win the game. Clearly, Alice and Bob could win the game if they could talk to each other: Alice would simply tell Bob what colours are on squares one and two. But Bob and Alice are situated so far apart from each other that light -- and thus an information-carrying signal -- does not have time to pass between them during the game.
If they can't talk, they won't always win, but by measuring on quantum particles, they can win the game more often than any strategy which doesn't rely on quantum theory. However, the uncertainty principle prevents them from doing any better, and even determines how often they lose the game.
The finding bears on the deep question of what principles underlie quantum physics. Many attempts to understand the underpinnings of quantum mechanics have focused on non-locality. Wehner thinks there may be more to gain from examining the details of the uncertainty principle. "However, we have barely scratched the surface of understanding uncertainty relations," she says.
Wie berichtet wird gibt es einen erstaunlichen Durchbruch in der Quantentheorie. Unbestimmtheitsrelation und die sogenannte spukhafte Fernwirkung verschränkter Teilchen hängen zusammen, wobei letztere durch ersteres limitiert wird.
Hier ein Link zur Meldung:
http://www.sciencedaily.com/releases/2010/11/101118141541.htm
Zitat:
Stephanie Wehner of Singapore's Centre for Quantum Technologies and the National University of Singapore and Jonathan Oppenheim of the United Kingdom's University of Cambridge published their work in the latest edition of the journal Science.
The strange behaviour of quantum particles, such as atoms, electrons and the photons that make up light, has perplexed scientists for nearly a century. Albert Einstein was among those who thought the quantum world was so strange that quantum theory must be wrong, but experiments have borne out the theory's predictions.
One of the weird aspects of quantum theory is that it is impossible to know certain things, such as a particle's momentum and position, simultaneously. Knowledge of one of these properties affects the accuracy with which you can learn the other. This is known as the "Heisenberg Uncertainty Principle."
Another weird aspect is the quantum phenomenon of non-locality, which arises from the better-known phenomenon of entanglement. When two quantum particles are entangled, they can perform actions that look as if they are coordinated with each other in ways that defy classical intuition about physically separated particles.
Previously, researchers have treated non-locality and uncertainty as two separate phenomena. Now Wehner and Oppenheim have shown that they are intricately linked. What's more, they show that this link is quantitative and have found an equation which shows that the "amount" of non-locality is determined by the uncertainty principle.
"It's a surprising and perhaps ironic twist," said Oppenheim, a Royal Society University Research Fellow from the Department of Applied Mathematics & Theoretical Physics at the University of Cambridge. Einstein and his co-workers discovered non-locality while searching for a way to undermine the uncertainty principle. "Now the uncertainty principle appears to be biting back."
Non-locality determines how well two distant parties can coordinate their actions without sending each other information. Physicists believe that even in quantum mechanics, information cannot travel faster than light. Nevertheless, it turns out that quantum mechanics allows two parties to coordinate much better than would be possible under the laws of classical physics. In fact, their actions can be coordinated in a way that almost seems as if they had been able to talk. Einstein famously referred to this phenomenon as "spooky action at a distance."
However, quantum non-locality could be even spookier than it actually is. It's possible to have theories which allow distant parties to coordinate their actions much better than nature allows, while still not allowing information to travel faster than light. Nature could be weirder, and yet it isn't -- quantum theory appears to impose an additional limit on the weirdness.
"Quantum theory is pretty weird, but it isn't as weird as it could be. We really have to ask ourselves, why is quantum mechanics this limited? Why doesn't nature allow even stronger non-locality?" Oppenheim says.
The surprising result by Wehner and Oppenheim is that the uncertainty principle provides an answer. Two parties can only coordinate their actions better if they break the uncertainty principle, which imposes a strict bound on how strong non-locality can be.
"It would be great if we could better coordinate our actions over long distances, as it would enable us to solve many information processing tasks very efficiently," Wehner says. "However, physics would be fundamentally different. If we break the uncertainty principle, there is really no telling what our world would look like."
How did the researchers discover a connection that had gone unnoticed so long? Before entering academia, Wehner worked as a 'computer hacker for hire', and now works in quantum information theory, while Oppenheim is a physicist. Wehner thinks that applying techniques from computer science to the laws of theoretical physics was key to spotting the connection. "I think one of the crucial ideas is to link the question to a coding problem," Wehner says. "Traditional ways of viewing non-locality and uncertainty obscured the close connection between the two concepts."
Wehner and Oppenheim recast the phenomena of quantum physics in terms that would be familiar to a computer hacker. They treat non-locality as the result of one party, Alice, creating and encoding information and a second party, Bob, retrieving information from the encoding. How well Alice and Bob can encode and retrieve information is determined by uncertainty relations. In some situations, they found that and a third property known as "steering" enters the picture.
Wehner and Oppenheim compare their discovery to uncovering what determines how easily two players can win a quantum board game: the board has only two squares, on which Alice, can place a counter of two possible colours: green or pink. She is told to place the same colour on both squares, or to place a different colour on each. Bob has to guess the colour that Alice put on square one or two. If his guess is correct, Alice and Bob win the game. Clearly, Alice and Bob could win the game if they could talk to each other: Alice would simply tell Bob what colours are on squares one and two. But Bob and Alice are situated so far apart from each other that light -- and thus an information-carrying signal -- does not have time to pass between them during the game.
If they can't talk, they won't always win, but by measuring on quantum particles, they can win the game more often than any strategy which doesn't rely on quantum theory. However, the uncertainty principle prevents them from doing any better, and even determines how often they lose the game.
The finding bears on the deep question of what principles underlie quantum physics. Many attempts to understand the underpinnings of quantum mechanics have focused on non-locality. Wehner thinks there may be more to gain from examining the details of the uncertainty principle. "However, we have barely scratched the surface of understanding uncertainty relations," she says.
... link (0 Kommentare) ... comment
Donnerstag, 18. November 2010
Anti-Wasserstoff am LHC eingefangen...
klauslange,21:42h
...zumindest für 0,17 Sekunden, aber immerhin ein erster Schritt für wichtige Untersuchungen der Anti-Materie.
Hier eine Auswahl mehrerer Berichte:
http://www.astronews.com/news/artikel/2010/11/1011-014.shtml
http://www.scinexx.de/wissen-aktuell-12579-2010-11-18.html
Daraus:
2002 gelang erstmals für wenige Sekundenbruchteile die Produktion eines Antiwasserstoffatoms bestehend aus einem Antiproton und einem Positron am Experiment ALPHA (Antihydrogen Laser PHysics Apparatus) des Kernforschungszentrum CERN bei Genf.
Schwer einzufangen
Doch eine Möglichkeit, dieses ungeladene Teilchen einzufangen oder gar für weiter gehende Untersuchungen zu speichern, gab es bisher nicht. Denn sobald das frisch erzeugte Antiwasserstoffteilchen der es umgebenden Materie zu nahe kommt, wird es ausgelöscht und löst sich in einer Art Explosion in Energie auf. Erste Voraussetzung für eine „Antimateriefalle“ ist daher eine extrem starke Abkühlung der Antiwasserstoffteilchen und der sie erzeugenden Positronen und Antiprotonen. Bei nur 0,5 Kelvin, einer Temperatur nahe am absoluten Nullpunkt, wird ihre Eigenbewegung so gering und langsam, dass ein Einfangen mit Hilfe magnetischer „Käfige“ erst möglich wird.
Achtpolige Magnetanordnung als Käfig
Einen solchen Käfig haben jetzt Forscher einer internationalen Kollaboration am CERN entwickelt und erfolgreich getestet: „Wir konnten 38 Atome einfangen, was eine unglaublich geringe Menge ist, weit von dem entfernt, was wir bräuchten um das Raumschiff Enterprise anzutreiben“, erklärt Rob Thompson, Physiker der Universität von Calgary und einer der Forscher der ALPHA-Kollaboration.
Und auch wissenschaft.de soll nicht fehlen:
http://www.wissenschaft.de/wissenschaft/news/312368.html
Hier eine Auswahl mehrerer Berichte:
http://www.astronews.com/news/artikel/2010/11/1011-014.shtml
http://www.scinexx.de/wissen-aktuell-12579-2010-11-18.html
Daraus:
2002 gelang erstmals für wenige Sekundenbruchteile die Produktion eines Antiwasserstoffatoms bestehend aus einem Antiproton und einem Positron am Experiment ALPHA (Antihydrogen Laser PHysics Apparatus) des Kernforschungszentrum CERN bei Genf.
Schwer einzufangen
Doch eine Möglichkeit, dieses ungeladene Teilchen einzufangen oder gar für weiter gehende Untersuchungen zu speichern, gab es bisher nicht. Denn sobald das frisch erzeugte Antiwasserstoffteilchen der es umgebenden Materie zu nahe kommt, wird es ausgelöscht und löst sich in einer Art Explosion in Energie auf. Erste Voraussetzung für eine „Antimateriefalle“ ist daher eine extrem starke Abkühlung der Antiwasserstoffteilchen und der sie erzeugenden Positronen und Antiprotonen. Bei nur 0,5 Kelvin, einer Temperatur nahe am absoluten Nullpunkt, wird ihre Eigenbewegung so gering und langsam, dass ein Einfangen mit Hilfe magnetischer „Käfige“ erst möglich wird.
Achtpolige Magnetanordnung als Käfig
Einen solchen Käfig haben jetzt Forscher einer internationalen Kollaboration am CERN entwickelt und erfolgreich getestet: „Wir konnten 38 Atome einfangen, was eine unglaublich geringe Menge ist, weit von dem entfernt, was wir bräuchten um das Raumschiff Enterprise anzutreiben“, erklärt Rob Thompson, Physiker der Universität von Calgary und einer der Forscher der ALPHA-Kollaboration.
Und auch wissenschaft.de soll nicht fehlen:
http://www.wissenschaft.de/wissenschaft/news/312368.html
... link (0 Kommentare) ... comment
Donnerstag, 4. November 2010
Experiment belegt mögliche vierte Neutrinoart
klauslange,20:54h
Wenn man sich die Diskussion um die Dunkle Materie anschaut, dann erscheint mir ein Partikel, das in etwa die Eigenschaften der Neutrinos besitzen müsste, am natürlichsten. Die bislang bekannten Neutrinos kommen aber für eine Dunkle Materie nicht in Frage. Doch in einem Experiment konnte nun der Hinweis auf eine eventuelle vierte Neutrinoart erbracht werden, wie scinexx berichtet:
http://www.scinexx.de/wissen-aktuell-12510-2010-11-04.html
Zitat:
1998 entdeckten Physiker am „Liquid Scintillator Neutrino Detector“ des Los Alamos National Laboratory Hinweise auf eine weitere, vierte Form der Neutrinos. Die im Strahl des Experiments beobachteten Oszillationen waren zu stark und häufig, als dass sie nur durch die drei bekannten Formen erklärt werden konnten. Physiker versuchten nun mit Hilfe des so genannten „Mini Booster Neutrino Experiment“, kurz MiniBooNE am amerikanische FermiLab, diese Ergebnisse nachzuvollziehen, scheiterten in Experimenten mit einem Neutrinostrahl jedoch. Daher galt die Existenz eines vierten Neutrinos zunächst als widerlegt.
Neue Indizien für sterile Neutrinos
Jetzt jedoch liegen drei Jahre an Daten aus Experimenten mit einem Antineutrinostrahl am MiniBooNE vor, die erneut Indizien für die Existenz des so genannten „sterilen Neutrinos“ sein könnten. „Die Ergebnisse deuten darauf hin, dass es entweder neue Partikel oder Kräfte gibt, die wir uns bisher nicht vorstellen konnten“, erklärt Byron Roe, Physiker an der Universität von Michigan. „Die einfachste Erklärung wäre die Ergänzung neuer Neutrino-ähnlicher Teilchen, steriler Neutrinos, die nicht die normale schwache Wechselwirkung aufweisen.“ Die Abwesenheit der schwachen Wechselwirkung könnte erklären, warum diese sterilen Neutrinos noch schwerer nachzuweisen sind als die „normalen“ Neutrinos.
Verletzung der fundamentalen Symmetrieregeln
Für Überraschung sorgt allerdings die Tatsache, dass die verräterischen Zusatz-Oszillationen nur im Antineutrinostrahl, nicht bei Neutrinos nachgewiesen werden konnten. Das widerspricht einer der fundamentalen Grundregeln des Kosmos, der Ladungs-Parität-Symmetrie, kurz CP-Symmetrie. Nach dieser darf es keinen Unterschied für die physikalischen Gegebenheiten machen, wenn alle Teilchen durch ihre Antiteilchen ersetzt werden. Doch im Falle der MiniBooNE-Experimente war dies offenbar der Fall.
„Das bedeutet, dass Ergänzungen zu unserem Standardmodell noch notwendiger sein könnten als nach den ersten LSND-Ergebnissen gedacht“, so Roe. Erste Belege für die Verletzung der CP-Symmetrie seien zwar bereits zuvor bei bestimmten Zerfällen beobachtet worden, nicht jedoch an Neutrinos.
Diese Ergebnisse sind also schon sehr ernst zu nehmen. Man darf weiteren Verifikationen gespannt entgegensehen...
http://www.scinexx.de/wissen-aktuell-12510-2010-11-04.html
Zitat:
1998 entdeckten Physiker am „Liquid Scintillator Neutrino Detector“ des Los Alamos National Laboratory Hinweise auf eine weitere, vierte Form der Neutrinos. Die im Strahl des Experiments beobachteten Oszillationen waren zu stark und häufig, als dass sie nur durch die drei bekannten Formen erklärt werden konnten. Physiker versuchten nun mit Hilfe des so genannten „Mini Booster Neutrino Experiment“, kurz MiniBooNE am amerikanische FermiLab, diese Ergebnisse nachzuvollziehen, scheiterten in Experimenten mit einem Neutrinostrahl jedoch. Daher galt die Existenz eines vierten Neutrinos zunächst als widerlegt.
Neue Indizien für sterile Neutrinos
Jetzt jedoch liegen drei Jahre an Daten aus Experimenten mit einem Antineutrinostrahl am MiniBooNE vor, die erneut Indizien für die Existenz des so genannten „sterilen Neutrinos“ sein könnten. „Die Ergebnisse deuten darauf hin, dass es entweder neue Partikel oder Kräfte gibt, die wir uns bisher nicht vorstellen konnten“, erklärt Byron Roe, Physiker an der Universität von Michigan. „Die einfachste Erklärung wäre die Ergänzung neuer Neutrino-ähnlicher Teilchen, steriler Neutrinos, die nicht die normale schwache Wechselwirkung aufweisen.“ Die Abwesenheit der schwachen Wechselwirkung könnte erklären, warum diese sterilen Neutrinos noch schwerer nachzuweisen sind als die „normalen“ Neutrinos.
Verletzung der fundamentalen Symmetrieregeln
Für Überraschung sorgt allerdings die Tatsache, dass die verräterischen Zusatz-Oszillationen nur im Antineutrinostrahl, nicht bei Neutrinos nachgewiesen werden konnten. Das widerspricht einer der fundamentalen Grundregeln des Kosmos, der Ladungs-Parität-Symmetrie, kurz CP-Symmetrie. Nach dieser darf es keinen Unterschied für die physikalischen Gegebenheiten machen, wenn alle Teilchen durch ihre Antiteilchen ersetzt werden. Doch im Falle der MiniBooNE-Experimente war dies offenbar der Fall.
„Das bedeutet, dass Ergänzungen zu unserem Standardmodell noch notwendiger sein könnten als nach den ersten LSND-Ergebnissen gedacht“, so Roe. Erste Belege für die Verletzung der CP-Symmetrie seien zwar bereits zuvor bei bestimmten Zerfällen beobachtet worden, nicht jedoch an Neutrinos.
Diese Ergebnisse sind also schon sehr ernst zu nehmen. Man darf weiteren Verifikationen gespannt entgegensehen...
... link (0 Kommentare) ... comment
Sonntag, 26. September 2010
LHC entdeckt bislang unbekanntes Phänomen
klauslange,15:50h
Erste Ergebnisse von Protonenkollisionen zeigen eine neue Art der Teilchenkopplung, die bei solchen Protonenkollisionen nicht zu erwarten waren.
Welt der Physik berichtet:
http://www.weltderphysik.de/de/4245.php?ni=2117
Daraus:
Die Forschergruppe am CMS-Detektor des Large Hadron Collider (LHC) in Genf ist bei der Kollision von Protonen auf einen neuen Effekt gestoßen. Sie führten Experimente mit hoher Multiplizität durch, bei denen über hundert elektrisch geladene Teilchen entstehen. Die Teilchen werden kurz nach der Kollision bei sieben Tetraelektronenvolt in alle Richtung geschleudert, bei einigen schien die Flugrichtung allerdings nicht beliebig zu sein, sondern von der Bahn eines anderen Teilchens abzuhängen. Dieses Phänomen nennt man Winkelkorrelation. Die Forscher schließen daraus, dass die Teilchen im Moment ihrer Entstehung auf eine bestimmte Weise "gekoppelt" waren. Es ist die erste neuartige Beobachtung, die nach knapp einem halben Jahr Betrieb am LHC gemacht wurde.
Wie es zu der Korrelation kommt, ist noch nicht geklärt. "Derartige Muster in den Teilchenverteilungen wurden vorher nur in hochenergetischen Schwerionenkollisionen gesehen, bei denen Quark-Gluon-Plasma produziert wurde", erklärt Anton Rebmann vom Institut für Theoretische Physik der Universität Wien.
scinexx.de versucht eine konventionelle Deutung der Beobachtung:
http://www.scinexx.de/wissen-aktuell-12305-2010-09-23.html
Darin:
„Derartige Muster in den Teilchenverteilungen wurden vorher nur in hochenergetischen Schwerionenkollisionen gesehen, bei denen Quark-Gluon-Plasma produziert wurde“, erklärt Anton Rebhan von der Technischen Universität Wien, der an der Theorie des Quark-Gluon-Plasmas forscht. „Eine mögliche Erklärung dieses Phänomens ist, dass diese Strukturen einen Zustand noch vor der Erzeugung des Quark-Gluon-Plasma widerspiegeln“, meint der Wiener Physiker.
Ein zu solchen Strukturen passender hypothetischer Vorläufer des Quark-Gluon-Plasmas wird in der theoretischen Physik tatsächlich seit einiger Zeit diskutiert und manchmal als "Glasma" bezeichnet, aber niemand kam auf die Idee, dass es in Protonenkollisionen auf diese Weise beobachtbar werden könnte. „Die hohen Energien und Teilchendichten des LHC machen es offenbar möglich, einen relativ direkten Blick auf diesen komplexen und faszinierenden Materiezustand zu werfen, der praktisch rein aus stark wechselwirkenden Gluonen besteht“, vermutet Anton Rebhan.
Doch m.E. hat es schon seinen Grund, warum niemand einen solchen Kopplungseffekt bei Protonen-Protonen-Kollisionen vermutet hat. Daher will ich auf ganz andere Erklärungsalternativen verweisen, wie sie der Stringtheoretiker Lubos Motl anführt:
http://motls.blogspot.com/2010/09/lhc-probably-sees-new-shocking-physics.html
Daraus:
Well, it surely looks like an extended object of some kind, a stick, a string, a magnet, a rigid rod, or, which is most likely to be chosen by conventional QCD experts, a "longitudinally extended cylindrical volume of quark-gluon plasma" - feel free to choose something. ;-)
Of course, I would conservatively choose a dual string - or a flux tube - with quarks at the endpoints. Its length is a few fermi, it wants to be really straight as it is stretched, and when it is forced to break, it creates many smaller charged strings that move in the same or opposite direction because the momentum is nearly democratically distributed among the string bits. Because of the negative pressure along the string, the string may also break into oppositely moving pieces.
I am a bit puzzled why this "normal" stringy behavior is not included in the simulations they're comparing the experiment with (although I realize it's very hard from a weakly coupled field theory perspective) - but needless to say, I have no detailed knowledge of GEANT4 whatsoever. At any rate, the most straightforward preliminary conclusion I would offer is that they are seeing some stringy features of ordinary QCD rather than "new particles".
So this has nothing to do with the Higgs or SUSY - it is at a lower-than-expected energy scale, too. But it seems to go beyond the old accelerators tests of QCD.
Welt der Physik berichtet:
http://www.weltderphysik.de/de/4245.php?ni=2117
Daraus:
Die Forschergruppe am CMS-Detektor des Large Hadron Collider (LHC) in Genf ist bei der Kollision von Protonen auf einen neuen Effekt gestoßen. Sie führten Experimente mit hoher Multiplizität durch, bei denen über hundert elektrisch geladene Teilchen entstehen. Die Teilchen werden kurz nach der Kollision bei sieben Tetraelektronenvolt in alle Richtung geschleudert, bei einigen schien die Flugrichtung allerdings nicht beliebig zu sein, sondern von der Bahn eines anderen Teilchens abzuhängen. Dieses Phänomen nennt man Winkelkorrelation. Die Forscher schließen daraus, dass die Teilchen im Moment ihrer Entstehung auf eine bestimmte Weise "gekoppelt" waren. Es ist die erste neuartige Beobachtung, die nach knapp einem halben Jahr Betrieb am LHC gemacht wurde.
Wie es zu der Korrelation kommt, ist noch nicht geklärt. "Derartige Muster in den Teilchenverteilungen wurden vorher nur in hochenergetischen Schwerionenkollisionen gesehen, bei denen Quark-Gluon-Plasma produziert wurde", erklärt Anton Rebmann vom Institut für Theoretische Physik der Universität Wien.
scinexx.de versucht eine konventionelle Deutung der Beobachtung:
http://www.scinexx.de/wissen-aktuell-12305-2010-09-23.html
Darin:
„Derartige Muster in den Teilchenverteilungen wurden vorher nur in hochenergetischen Schwerionenkollisionen gesehen, bei denen Quark-Gluon-Plasma produziert wurde“, erklärt Anton Rebhan von der Technischen Universität Wien, der an der Theorie des Quark-Gluon-Plasmas forscht. „Eine mögliche Erklärung dieses Phänomens ist, dass diese Strukturen einen Zustand noch vor der Erzeugung des Quark-Gluon-Plasma widerspiegeln“, meint der Wiener Physiker.
Ein zu solchen Strukturen passender hypothetischer Vorläufer des Quark-Gluon-Plasmas wird in der theoretischen Physik tatsächlich seit einiger Zeit diskutiert und manchmal als "Glasma" bezeichnet, aber niemand kam auf die Idee, dass es in Protonenkollisionen auf diese Weise beobachtbar werden könnte. „Die hohen Energien und Teilchendichten des LHC machen es offenbar möglich, einen relativ direkten Blick auf diesen komplexen und faszinierenden Materiezustand zu werfen, der praktisch rein aus stark wechselwirkenden Gluonen besteht“, vermutet Anton Rebhan.
Doch m.E. hat es schon seinen Grund, warum niemand einen solchen Kopplungseffekt bei Protonen-Protonen-Kollisionen vermutet hat. Daher will ich auf ganz andere Erklärungsalternativen verweisen, wie sie der Stringtheoretiker Lubos Motl anführt:
http://motls.blogspot.com/2010/09/lhc-probably-sees-new-shocking-physics.html
Daraus:
Well, it surely looks like an extended object of some kind, a stick, a string, a magnet, a rigid rod, or, which is most likely to be chosen by conventional QCD experts, a "longitudinally extended cylindrical volume of quark-gluon plasma" - feel free to choose something. ;-)
Of course, I would conservatively choose a dual string - or a flux tube - with quarks at the endpoints. Its length is a few fermi, it wants to be really straight as it is stretched, and when it is forced to break, it creates many smaller charged strings that move in the same or opposite direction because the momentum is nearly democratically distributed among the string bits. Because of the negative pressure along the string, the string may also break into oppositely moving pieces.
I am a bit puzzled why this "normal" stringy behavior is not included in the simulations they're comparing the experiment with (although I realize it's very hard from a weakly coupled field theory perspective) - but needless to say, I have no detailed knowledge of GEANT4 whatsoever. At any rate, the most straightforward preliminary conclusion I would offer is that they are seeing some stringy features of ordinary QCD rather than "new particles".
So this has nothing to do with the Higgs or SUSY - it is at a lower-than-expected energy scale, too. But it seems to go beyond the old accelerators tests of QCD.
... link (0 Kommentare) ... comment
Donnerstag, 22. Juli 2010
Neutrinos als Schlüssel zur neuen Physik
klauslange,21:49h
Während alle Welt Dunkle Materie sucht, bahnt sich eine stille Sensation an, denn die bereits bekannten - wenn auch sehr flüchtigen - Neutrinos könnten das Standardmodell der Teilchphysik revolutionieren. Entsprechende Experimente laufen nun an.
Worum geht es? Aus 'Welt der Physik' stammt folgende Meldung:
http://www.weltderphysik.de/de/5098.php
Daraus:
Uns Experimentatoren haben es die flüchtigen Neutrinos noch nie leicht gemacht: Da sie extrem selten mit Materie in Wechselwirkung treten und sich so hervorragend tarnen, sind sie erst 26 Jahre nach ihrer theoretischen Vorhersage in die experimentellen Fänge geraten. Und jahrzehntelang haben sich weit weniger Teilchen als vermutet zu erkennen gegeben, weil sich die drei verschiedenen Typen der Neutrinos ineinander umwandeln und so dem Nachweis entgingen. Infolgedessen können die Teilchen nicht masselos sein, wie Physiker seit den 1960er Jahren im sogenannten Standardmodell der Teilchenphysik angenommen hatten.
Doch trotz seiner Kontaktscheue ist das Neutrino ein sehr bedeutendes Teilchen. Denn nach den Photonen (Lichtteilchen) kommt es im Universum am häufigsten vor; auch spielt es eine wichtige Rolle bei Supernovaexplosionen und bei der Entwicklung des Universums.
Derzeit sind weltweit zahlreiche Arbeitsgruppen ausgezogen, um den Neutrinos ein weiteres Rätsel zu entlocken: Sind sie ihre eigenen Antiteilchen? Diese Frage hat wichtige Auswirkungen auf die theoretische Beschreibung der Teilchen. Wären Neutrinos ihre eigenen Antiteilchen, käme das Neutrino ein zweites Mal mit dem Standardmodell der Teilchenphysik in Konflikt. Das hat bisher noch kein Teilchen geschafft.
Die Frage ist schon über 70 Jahre alt und wurde bereits gestellt, als die Existenz der Teilchen noch gar nicht experimentell bestätigt worden war. Damals entwickelte der Italiener Ettore Majorana eine Alternative zur Theorie des Briten Paul Dirac, in der dieser die Existenz von Antiteilchen vorhersagte. Nach Dirac sind Neutrinos und Antineutrinos zwei verschiedene Dinge, nach Majorana ein und dasselbe. Was nun gilt, lässt sich nur mit einer Reaktion beantworten, die "neutrinoloser doppelter Betazerfall" genannt wird...
Dabei fing das Mysterium um die Neutrinos vor rund 80 Jahren mit dem einfachen Betazerfall überhaupt erst an. Dieser ist ein radioaktiver Prozess in Atomkernen, bei dem aus einem Neutron ein Proton wird und ein Elektron emittiert wird. Als der Physiker Wolfgang Pauli diesen Vorgang im Jahr 1930 zu verstehen versuchte, gelang ihm dies nur, als er die zusätzliche Teilnahme eines neuen Teilchens forderte; eines leichten (oder gar masselosen) neutralen Teilchens, das später "Neutrino" getauft wurde.
Beim doppelten Betazerfall wandeln sich nun gleichzeitig zwei Neutronen in zwei Protonen um. Dabei entstehen neben den beiden Elektronen in der Regel auch zwei Antineutrinos. Wenn das Neutrino aber seinem Antiteilchen entspräche, könnten sich die beiden Teilchen im Innern des Kerns gegenseitig aufheben ( [+1] + [-1] = 0). Hätte man also einen solchen neutrinolosen doppelten Betazerfall aufgespürt, wäre klar, dass Neutrinos ihre eigenen Antiteilchen sind.
Worum geht es? Aus 'Welt der Physik' stammt folgende Meldung:
http://www.weltderphysik.de/de/5098.php
Daraus:
Uns Experimentatoren haben es die flüchtigen Neutrinos noch nie leicht gemacht: Da sie extrem selten mit Materie in Wechselwirkung treten und sich so hervorragend tarnen, sind sie erst 26 Jahre nach ihrer theoretischen Vorhersage in die experimentellen Fänge geraten. Und jahrzehntelang haben sich weit weniger Teilchen als vermutet zu erkennen gegeben, weil sich die drei verschiedenen Typen der Neutrinos ineinander umwandeln und so dem Nachweis entgingen. Infolgedessen können die Teilchen nicht masselos sein, wie Physiker seit den 1960er Jahren im sogenannten Standardmodell der Teilchenphysik angenommen hatten.
Doch trotz seiner Kontaktscheue ist das Neutrino ein sehr bedeutendes Teilchen. Denn nach den Photonen (Lichtteilchen) kommt es im Universum am häufigsten vor; auch spielt es eine wichtige Rolle bei Supernovaexplosionen und bei der Entwicklung des Universums.
Derzeit sind weltweit zahlreiche Arbeitsgruppen ausgezogen, um den Neutrinos ein weiteres Rätsel zu entlocken: Sind sie ihre eigenen Antiteilchen? Diese Frage hat wichtige Auswirkungen auf die theoretische Beschreibung der Teilchen. Wären Neutrinos ihre eigenen Antiteilchen, käme das Neutrino ein zweites Mal mit dem Standardmodell der Teilchenphysik in Konflikt. Das hat bisher noch kein Teilchen geschafft.
Die Frage ist schon über 70 Jahre alt und wurde bereits gestellt, als die Existenz der Teilchen noch gar nicht experimentell bestätigt worden war. Damals entwickelte der Italiener Ettore Majorana eine Alternative zur Theorie des Briten Paul Dirac, in der dieser die Existenz von Antiteilchen vorhersagte. Nach Dirac sind Neutrinos und Antineutrinos zwei verschiedene Dinge, nach Majorana ein und dasselbe. Was nun gilt, lässt sich nur mit einer Reaktion beantworten, die "neutrinoloser doppelter Betazerfall" genannt wird...
Dabei fing das Mysterium um die Neutrinos vor rund 80 Jahren mit dem einfachen Betazerfall überhaupt erst an. Dieser ist ein radioaktiver Prozess in Atomkernen, bei dem aus einem Neutron ein Proton wird und ein Elektron emittiert wird. Als der Physiker Wolfgang Pauli diesen Vorgang im Jahr 1930 zu verstehen versuchte, gelang ihm dies nur, als er die zusätzliche Teilnahme eines neuen Teilchens forderte; eines leichten (oder gar masselosen) neutralen Teilchens, das später "Neutrino" getauft wurde.
Beim doppelten Betazerfall wandeln sich nun gleichzeitig zwei Neutronen in zwei Protonen um. Dabei entstehen neben den beiden Elektronen in der Regel auch zwei Antineutrinos. Wenn das Neutrino aber seinem Antiteilchen entspräche, könnten sich die beiden Teilchen im Innern des Kerns gegenseitig aufheben ( [+1] + [-1] = 0). Hätte man also einen solchen neutrinolosen doppelten Betazerfall aufgespürt, wäre klar, dass Neutrinos ihre eigenen Antiteilchen sind.
... link (0 Kommentare) ... comment
Donnerstag, 8. Juli 2010
Proton kleiner als zuvor angenommen
klauslange,22:59h
Das Proton ist signifikant kleiner als gedacht, wie scinexx.de berichtet:
http://www.scinexx.de/wissen-aktuell-11918-2010-07-08.html
Daraus:
Nach einer dreimonatigen Aufbauphase und drei Wochen Messzeit, am Abend des 5. Juli 2009, war es so weit: die Wissenschaftler konnten die gesuchte Resonanz klar nachweisen. Der daraus abgeleitete Wert von 0,84184 Femtometern - ein Femtometer entspricht 0,000000000000001 Meter - für den Protonenradius ist rund zehnmal genauer, aber in starkem Widerspruch zu dem bisher anerkannten Wert von 0,8768 Femtometern.
Dies hat Auswirkungen für das bestehende Theoriegebäude, wie auch im Artikel vorsichtig angemerkt wird:
Noch diskutieren die Wissenschaftler über die möglichen Ursachen der beobachteten Diskrepanz. Derzeit wird alles auf den Prüfstand gestellt: frühere Präzisionsmessungen, die aufwändigen Rechnungen der Theoretiker, und eventuell könnte sogar die am besten bestätigte physikalische Theorie, die Quantenelektrodynamik, angezweifelt werden.
"Bevor wir aber die Gültigkeit der Quantenelektrodynamik in Frage stellen, müssen erst einmal die Theoretiker prüfen, ob sie sich nicht an der einen oder anderen Stelle verrechnet haben“, meint dazu Pohl. Einen Hinweis, welche Interpretation die richtige ist, wird möglicherweise das nächste, für 2012 geplante Projekt liefern. Dann wollen die Forscher myonisches Helium spektroskopisch untersuchen und dessen Kernradius bestimmen.
http://www.scinexx.de/wissen-aktuell-11918-2010-07-08.html
Daraus:
Nach einer dreimonatigen Aufbauphase und drei Wochen Messzeit, am Abend des 5. Juli 2009, war es so weit: die Wissenschaftler konnten die gesuchte Resonanz klar nachweisen. Der daraus abgeleitete Wert von 0,84184 Femtometern - ein Femtometer entspricht 0,000000000000001 Meter - für den Protonenradius ist rund zehnmal genauer, aber in starkem Widerspruch zu dem bisher anerkannten Wert von 0,8768 Femtometern.
Dies hat Auswirkungen für das bestehende Theoriegebäude, wie auch im Artikel vorsichtig angemerkt wird:
Noch diskutieren die Wissenschaftler über die möglichen Ursachen der beobachteten Diskrepanz. Derzeit wird alles auf den Prüfstand gestellt: frühere Präzisionsmessungen, die aufwändigen Rechnungen der Theoretiker, und eventuell könnte sogar die am besten bestätigte physikalische Theorie, die Quantenelektrodynamik, angezweifelt werden.
"Bevor wir aber die Gültigkeit der Quantenelektrodynamik in Frage stellen, müssen erst einmal die Theoretiker prüfen, ob sie sich nicht an der einen oder anderen Stelle verrechnet haben“, meint dazu Pohl. Einen Hinweis, welche Interpretation die richtige ist, wird möglicherweise das nächste, für 2012 geplante Projekt liefern. Dann wollen die Forscher myonisches Helium spektroskopisch untersuchen und dessen Kernradius bestimmen.
... link (0 Kommentare) ... comment
Dienstag, 12. Januar 2010
Goldene Quantenharmonie
klauslange,20:10h
Die Quantenmechanik wird oft und gerne als Beweis für die absolute Rolle des Zufalls in der Natur plakativ herangezogen. Doch diese Beweisführung ist falsch. Unbestimmtheitsrelation und Quantenstatistik können nicht den Zufall als ein fundamentales Naturgesetz etablieren.
Neueste Erkenntnisse stützen meine These, denn man entdeckte eine bekannte mathematische Harmonie in der Quantenwelt, wie scinexx berichtet:
Kobalt-Niobat ist ein magnetisches Material mit besonderen Eigenschaften. Es wird vor allem verwendet, um Quanteneigenschaften zu untersuchen. Seit Heisenberg seine Unschärfe-Theorie aufgestellt hat, ist nämlich bekannt, dass sich Teilchen auf atomarer Ebene nicht so verhalten wie wir es in der Makrowelt gewöhnt sind. In der Quantenwelt zeigen sie völlig neue Eigenschaften.
System am quantenkritischen Zustand
Um diese zu untersuchen, ist Kobalt-Niobat geeignet. Die atomaren Bestandteile, aus denen der Kristall besteht, haben magnetische Eigenschaften und sind auf besondere Weise angeordnet. Die im Elektron vorhandenen Spins – Eigendrehimpuls - ordnen sich zu Ketten, die zusammen wie ein dünner Stabmagnet wirken. Jedoch ist die Kette nur eine Atomlage dick. Sie dient daher als besonders geeignetes Modell, um den Ferromagnetismus in Feststoffen zu untersuchen.
Lässt man ein magnetisches Feld im rechten Winkel zu der ausgerichteten Spin-Kette einwirken, geht die Kette in einen neuen Zustand über. Diesen Zustand stellen sich Physiker als fraktales Muster vor und nennen ihn „quantenkritisch“. Fraktale Muster sind dabei geometrische Gebilde, die aus verkleinerten Kopien ihrer selbst bestehen.
Professor Alan Tennant vom Institut Komplexe Magnetische Materialien am Helmholtz-Zentrum Berlin für Materialien und Energie (HZB) erläutert: „In unserem Experiment mit Kobalt-Niobat haben wir durch Anlegen des Magnetfeldes gewissermaßen am Regler gedreht und dabei das System immer näher an den quantenkritischen Zustand herangebracht.“
...
Dabei konnten die Forscher sehen, wie sich die Kette aus Atomen verhält. „Wie eine Gitarrensaite auf Nanoebene“, sagt Radu Coldea, der das internationale Projekt an der Oxford University begonnen und bis heute, über zehn Jahre lang geführt hat. „Die Schwingung der Saite entspricht in diesem Bild der Wechselwirkung, die benachbarte Spinketten miteinander eingehen“, sagt Coldea. „Wie bei einer Gitarrensaite entstehen dabei auch Resonanzen.“
Von den beobachteten Resonanz-Frequenzen stehen die ersten beiden im Verhältnis 1,618..., zueinander, „was genau dem Goldenen Schnitt entspricht“, so Coldea. Er ist überzeugt, dass dies kein Zufall ist. „Es spiegelt eine versteckte Symmetrie wider, die dem Quantensystem seine schönen, harmonischen Eigenschaften verleiht. Von Mathematikern wird sie als E8 bezeichnet. Diese mathematische Symmetrieeigenschaft haben wir nun zum ersten Mal in einem festen Material beobachtet.“
Quelle: http://www.scinexx.de/wissen-aktuell-11049-2010-01-08.html
Das alles wird in der angesehenen Zeitschrift Science veröffentlicht. Zur Lie-Gruppe E8 hatte ich bereits einige erklärende Artikel verlinkt: http://designale.blogger.de/stories/732203/
Zum Goldenen Schnitt möchte ich nur auf diese schöne Seite verweisen:
http://www.physik.uni-wuerzburg.de/~htkramer/schnitt/
Neueste Erkenntnisse stützen meine These, denn man entdeckte eine bekannte mathematische Harmonie in der Quantenwelt, wie scinexx berichtet:
Kobalt-Niobat ist ein magnetisches Material mit besonderen Eigenschaften. Es wird vor allem verwendet, um Quanteneigenschaften zu untersuchen. Seit Heisenberg seine Unschärfe-Theorie aufgestellt hat, ist nämlich bekannt, dass sich Teilchen auf atomarer Ebene nicht so verhalten wie wir es in der Makrowelt gewöhnt sind. In der Quantenwelt zeigen sie völlig neue Eigenschaften.
System am quantenkritischen Zustand
Um diese zu untersuchen, ist Kobalt-Niobat geeignet. Die atomaren Bestandteile, aus denen der Kristall besteht, haben magnetische Eigenschaften und sind auf besondere Weise angeordnet. Die im Elektron vorhandenen Spins – Eigendrehimpuls - ordnen sich zu Ketten, die zusammen wie ein dünner Stabmagnet wirken. Jedoch ist die Kette nur eine Atomlage dick. Sie dient daher als besonders geeignetes Modell, um den Ferromagnetismus in Feststoffen zu untersuchen.
Lässt man ein magnetisches Feld im rechten Winkel zu der ausgerichteten Spin-Kette einwirken, geht die Kette in einen neuen Zustand über. Diesen Zustand stellen sich Physiker als fraktales Muster vor und nennen ihn „quantenkritisch“. Fraktale Muster sind dabei geometrische Gebilde, die aus verkleinerten Kopien ihrer selbst bestehen.
Professor Alan Tennant vom Institut Komplexe Magnetische Materialien am Helmholtz-Zentrum Berlin für Materialien und Energie (HZB) erläutert: „In unserem Experiment mit Kobalt-Niobat haben wir durch Anlegen des Magnetfeldes gewissermaßen am Regler gedreht und dabei das System immer näher an den quantenkritischen Zustand herangebracht.“
...
Dabei konnten die Forscher sehen, wie sich die Kette aus Atomen verhält. „Wie eine Gitarrensaite auf Nanoebene“, sagt Radu Coldea, der das internationale Projekt an der Oxford University begonnen und bis heute, über zehn Jahre lang geführt hat. „Die Schwingung der Saite entspricht in diesem Bild der Wechselwirkung, die benachbarte Spinketten miteinander eingehen“, sagt Coldea. „Wie bei einer Gitarrensaite entstehen dabei auch Resonanzen.“
Von den beobachteten Resonanz-Frequenzen stehen die ersten beiden im Verhältnis 1,618..., zueinander, „was genau dem Goldenen Schnitt entspricht“, so Coldea. Er ist überzeugt, dass dies kein Zufall ist. „Es spiegelt eine versteckte Symmetrie wider, die dem Quantensystem seine schönen, harmonischen Eigenschaften verleiht. Von Mathematikern wird sie als E8 bezeichnet. Diese mathematische Symmetrieeigenschaft haben wir nun zum ersten Mal in einem festen Material beobachtet.“
Quelle: http://www.scinexx.de/wissen-aktuell-11049-2010-01-08.html
Das alles wird in der angesehenen Zeitschrift Science veröffentlicht. Zur Lie-Gruppe E8 hatte ich bereits einige erklärende Artikel verlinkt: http://designale.blogger.de/stories/732203/
Zum Goldenen Schnitt möchte ich nur auf diese schöne Seite verweisen:
http://www.physik.uni-wuerzburg.de/~htkramer/schnitt/
... link (1 Kommentar) ... comment
Dienstag, 22. Dezember 2009
Burkhard Heim Theorie: Korrigierte Kritik und ihre Dokumentation im amerik. Wiki
klauslange,13:12h
Schaut man sich im deutsprachigen Wiki so um, sieht man in der Art und Weise, wie Themen aufbereitet werden, welche voreingenommene Haltung in Deutschland herrscht. Alles, was irgendwie gegen den Mainstream zu sein scheint, wird erstmal mit Zensur belegt, bevor man die Fakten zu Wort kommen lässt.
Anhand von Burkhard Heims Theorie lässt sich das schön veranschaulichen. Zwar war Burkhard Heim aufgrund seiner Kriegsverletzungen sehr isoliert, aber seine Theorie wird auf der deutschen Wiki Seite so dargestellt, als sei an ihr nichts dran.
Im amerikanischen Wiki hingegen geht man da objektiver heran.
Zwei Vergleiche unter mehreren sollen das belegen:
Im deutschen Wiki liest man diese Sätze:
In den etablierten Wissenschaften werden Heims Ansätze nicht beachtet.[1] Der Mathematiker Gerhard W. Bruhn wies zudem Fehler in einer Veröffentlichung nach, die auf Heims Theorie aufbaute.[2]
Der erste Satz wird leicht durch einen Blick ins amerikanische Wiki 'Heim Theory' widerlegt, wo man einen Artikel in New Scientist findet, die Forschungen auf der Grundlage von Burkhard Heims Theorie beinhalten. Ferner wird auch ein Artikel Heims in einem peer-review-Journal aus dem Jahre 1977 verlinkt. Seltsamerweise waren im deutschen Wiki die Zensoren nicht in der Lage, einen solchen Link in den Artikel aufnhemen zu lassen. Auch sind die amerikanischen Wiki-Redakteure in der Lage, die Resultate Martin Tajmars in den Artikel einfließen zu lassen, wo dieser seinen beobachteten Effekt einer Voraussage der Heim Theorie zuordnet. Im deutschen Wiki kein Wort dazu (stand heute). Im amerikanischen Wiki wird letztlich erwähnt, dass Tajmars Ergebnisse mittlerweile durch den Satelliten Gravity Probe B gestützt werden. Das ist hochaktuelle Forschung!
Kommen wir zur Kritik von Gerhard W. Bruhn. Im deutschen Wiki wird die ausführliche Entgegnung durch Jochem Häuser nicht gebracht, nur Bruhns Kritik wird verlinkt. Hier erkennt man ein System.
Im Gegensatz dazu, wird im amerik. Wiki diese oberflächliche Kritik nicht gebracht, da nach der Erwiderung durch Häuser keine Reaktion mehr von Bruhn kam und somit die Sache als erledigt betrachtet wurde. Hingegen bringen die Amerikaner eine tiefgreifende Kritik durch den Physiker John Reed und sind sich nicht zu schade den gesamten Verlauf zu dokumentieren. Wenn man sich mit der schwierigen Materie tiefschürfend befasst, kommt man wirklich zu weitreichenden Erkenntnissen. Ich zitiere die Wiki-Seite hier in ihrer ausführlichen Beschreibung zu Reeds Kritik und wie er seine Kritik korrigierte:
John Reed's criticism and retraction
According to a 2006 posting to the "PhysicsOrgForum" by John Reed [11], the apparent success of the Heim theory predicting particle masses may be illusory. Reed argued that Heim's original work, published only in German, has been very difficult to follow, and the masses are derived from Heim's "Matrix A." Reed translated the original German work to find out how Heim's Matrix A was derived, and discovered that the data in Matrix A used "empirical data of ground states". In other words, experimental values of particle masses were inserted into the theory by hand. Therefore he argues there should be no surprise in simply recovering the experimental data used as an input assumption.
Reed goes on to remark that this should not be taken as deliberate fudging by Heim, since Heim himself did not intend this data to be used to predict the elementary particle masses in the first place. Reed commented "Heim was after the excited states, and for this he needed good estimates of the ground states. He used experimental mass values for this." Nevertheless, since the excited states calculated were in fact "useless" (according to Reed), it was unclear whether any other predictions of the Heim theory remain.[12]
In a later posting in August 2007, however, Reed, received the updated 1989 mass formula code from the Heim Theory group, and on the basis of this, withdrew the assertion that both the 1989 and 1982 code almost certainly used quantum numbers based on the A matrix.
“When I first looked into the 1982 version, the A matrix was present in the equations and a suggestion given for its values. Only in reading Heim's books did I learn the source of the values. Heim said that he had to fix the values to obtain correct ground state masses. I assumed that in the following work this hadn't changed. Apparently that assumption is incorrect. It looks like Heim made further progress and found a way to derive masses without the A matrix, so the A matrix should no longer be part of the discussion.” [13].
On September 4, Reed reported on results obtained by the updated 1989 formula:
“I've completed my programming of Heim's unpublished 1989 equations to derive the extra quantum numbers (n, m, p, sigma) that I thought were coming from the A matrix. I can now say for certain that the A matrix is not involved with this new version. In addition, I can derive particle masses with only the quantum numbers k, Q, P, kappa and charge without the A matrix. This is what I had hoped to be able to do. These results agree with Anton Mueller's results. I'm able to get accurate masses for the 17 test particles I have tried this program on. The worst mass comparisons with experimental data are the neutron, 939.11 vs 939.56 experimental and the eta, 548.64 vs 547.3 experimental. All the others are closer, sometimes agreeing to 6 digits.” [13]
Dementsprechend hat die Heim Theory im englischsprachigen Raum zurecht einen ganz anderen - nämlich viel höheren - Stellenwert als in Deutschland. Aber wie heißt es so schön: Der Prophet im eigenen Land...
Anhand von Burkhard Heims Theorie lässt sich das schön veranschaulichen. Zwar war Burkhard Heim aufgrund seiner Kriegsverletzungen sehr isoliert, aber seine Theorie wird auf der deutschen Wiki Seite so dargestellt, als sei an ihr nichts dran.
Im amerikanischen Wiki hingegen geht man da objektiver heran.
Zwei Vergleiche unter mehreren sollen das belegen:
Im deutschen Wiki liest man diese Sätze:
In den etablierten Wissenschaften werden Heims Ansätze nicht beachtet.[1] Der Mathematiker Gerhard W. Bruhn wies zudem Fehler in einer Veröffentlichung nach, die auf Heims Theorie aufbaute.[2]
Der erste Satz wird leicht durch einen Blick ins amerikanische Wiki 'Heim Theory' widerlegt, wo man einen Artikel in New Scientist findet, die Forschungen auf der Grundlage von Burkhard Heims Theorie beinhalten. Ferner wird auch ein Artikel Heims in einem peer-review-Journal aus dem Jahre 1977 verlinkt. Seltsamerweise waren im deutschen Wiki die Zensoren nicht in der Lage, einen solchen Link in den Artikel aufnhemen zu lassen. Auch sind die amerikanischen Wiki-Redakteure in der Lage, die Resultate Martin Tajmars in den Artikel einfließen zu lassen, wo dieser seinen beobachteten Effekt einer Voraussage der Heim Theorie zuordnet. Im deutschen Wiki kein Wort dazu (stand heute). Im amerikanischen Wiki wird letztlich erwähnt, dass Tajmars Ergebnisse mittlerweile durch den Satelliten Gravity Probe B gestützt werden. Das ist hochaktuelle Forschung!
Kommen wir zur Kritik von Gerhard W. Bruhn. Im deutschen Wiki wird die ausführliche Entgegnung durch Jochem Häuser nicht gebracht, nur Bruhns Kritik wird verlinkt. Hier erkennt man ein System.
Im Gegensatz dazu, wird im amerik. Wiki diese oberflächliche Kritik nicht gebracht, da nach der Erwiderung durch Häuser keine Reaktion mehr von Bruhn kam und somit die Sache als erledigt betrachtet wurde. Hingegen bringen die Amerikaner eine tiefgreifende Kritik durch den Physiker John Reed und sind sich nicht zu schade den gesamten Verlauf zu dokumentieren. Wenn man sich mit der schwierigen Materie tiefschürfend befasst, kommt man wirklich zu weitreichenden Erkenntnissen. Ich zitiere die Wiki-Seite hier in ihrer ausführlichen Beschreibung zu Reeds Kritik und wie er seine Kritik korrigierte:
John Reed's criticism and retraction
According to a 2006 posting to the "PhysicsOrgForum" by John Reed [11], the apparent success of the Heim theory predicting particle masses may be illusory. Reed argued that Heim's original work, published only in German, has been very difficult to follow, and the masses are derived from Heim's "Matrix A." Reed translated the original German work to find out how Heim's Matrix A was derived, and discovered that the data in Matrix A used "empirical data of ground states". In other words, experimental values of particle masses were inserted into the theory by hand. Therefore he argues there should be no surprise in simply recovering the experimental data used as an input assumption.
Reed goes on to remark that this should not be taken as deliberate fudging by Heim, since Heim himself did not intend this data to be used to predict the elementary particle masses in the first place. Reed commented "Heim was after the excited states, and for this he needed good estimates of the ground states. He used experimental mass values for this." Nevertheless, since the excited states calculated were in fact "useless" (according to Reed), it was unclear whether any other predictions of the Heim theory remain.[12]
In a later posting in August 2007, however, Reed, received the updated 1989 mass formula code from the Heim Theory group, and on the basis of this, withdrew the assertion that both the 1989 and 1982 code almost certainly used quantum numbers based on the A matrix.
“When I first looked into the 1982 version, the A matrix was present in the equations and a suggestion given for its values. Only in reading Heim's books did I learn the source of the values. Heim said that he had to fix the values to obtain correct ground state masses. I assumed that in the following work this hadn't changed. Apparently that assumption is incorrect. It looks like Heim made further progress and found a way to derive masses without the A matrix, so the A matrix should no longer be part of the discussion.” [13].
On September 4, Reed reported on results obtained by the updated 1989 formula:
“I've completed my programming of Heim's unpublished 1989 equations to derive the extra quantum numbers (n, m, p, sigma) that I thought were coming from the A matrix. I can now say for certain that the A matrix is not involved with this new version. In addition, I can derive particle masses with only the quantum numbers k, Q, P, kappa and charge without the A matrix. This is what I had hoped to be able to do. These results agree with Anton Mueller's results. I'm able to get accurate masses for the 17 test particles I have tried this program on. The worst mass comparisons with experimental data are the neutron, 939.11 vs 939.56 experimental and the eta, 548.64 vs 547.3 experimental. All the others are closer, sometimes agreeing to 6 digits.” [13]
Dementsprechend hat die Heim Theory im englischsprachigen Raum zurecht einen ganz anderen - nämlich viel höheren - Stellenwert als in Deutschland. Aber wie heißt es so schön: Der Prophet im eigenen Land...
... link (0 Kommentare) ... comment
Samstag, 19. Dezember 2009
Hinweise auf Dunkle Materie in Mine
klauslange,21:16h
In einer Mine haben Forscher nun ernstzunehmende Hinwiese auf eine seltene Wechselwirkung von Dunkler Materie detektiert. Dabei stand nicht die Gravitation, wie bei indirekten Beobachtungen der Astronomie, im Mittelpunkt, sondern die schwache Kernkraft.
Über die genaue Bewertung der neuen Hinwiese in einem irdischem Detektor berichtet raumfahrer.net:
http://www.raumfahrer.net/news/astronomie/19122009131839.shtml
Und noch ausführlicher:
http://www.kosmologs.de/kosmo/blog/himmelslichter/allgemein/2009-12-18/cdms-der-erste-nachweis-dunkler-materie
Über die genaue Bewertung der neuen Hinwiese in einem irdischem Detektor berichtet raumfahrer.net:
http://www.raumfahrer.net/news/astronomie/19122009131839.shtml
Und noch ausführlicher:
http://www.kosmologs.de/kosmo/blog/himmelslichter/allgemein/2009-12-18/cdms-der-erste-nachweis-dunkler-materie
... link (0 Kommentare) ... comment
... nächste Seite