Mittwoch, 14. November 2012
Unmöglichkeit beobachtet: 36 auf einen Streich
Wieder hat man etwas beobachtet, was rechnerisch eigentlich unmöglich sein soll, wie pro physik berichtet:

Mit dem weltstärksten Röntgenlaser hat ein internationales Forscherteam unter Hamburger Leitung ein überraschendes Verhalten von Atomen entdeckt: Mit einem einzigen Röntgenblitz konnte die Gruppe um Daniel Rolles vom Center for Free-Electron Laser Science (CFEL) die Rekordzahl von 36 Elektronen auf einmal aus einem Xenon-Atom herausschießen. Das sind deutlich mehr, als bei der Energie der verwendeten Röntgenstrahlung rechnerisch überhaupt möglich ist. Die Forscher um Rolles hatten an der Linac Coherent Light Source (LCLS) des US-Forschungszentrums SLAC in Kalifornien Atome des Edelgases Xenon mit intensiven Röntgenlaserblitzen beschossen. Die Photonen der verwendeten Röntgenstrahlung hatten 1,5 Kiloelektronenvolt. Rechnerisch lassen sich bei der verwendeten Energie bis zu 26 der 54 Elektronen des Edelgases herausschießen, die übrigen sind zu stark gebunden. Tatsächlich beobachteten die Wissenschaftler jedoch, dass bis zu 36 Elektronen aus den Atomen flogen. „Nach unserem Wissen ist das die höchste Ionisation, die jemals mit einem einzigen elektromagnetischen Impuls in einem Atom erreicht worden ist“, betont Rolles. „Unsere Beobachtung zeigt, dass die bestehenden theoretischen Ansätze modifiziert werden müssen.“


... link (0 Kommentare)   ... comment


Freitag, 2. November 2012
Simultane Messung der Welle-/Teilchen-Dualität
In einem aufsehenerregenden Artikel wurde in dem Fachjournal Science die erstmalig simultane Messung einer Welle-/Teilchen-Dualität veröffentlicht. Bislang konnte - in Abhängigkeit von der Messmethode - entweder ausschließlich die Teilcheneigenschaft oder ausschließlich nur die Welleneigenschaft eines Quantums gemessen werden. Nun gelang beides simultan.

Dies berichtet science daily:

Surprisingly, when a photon is observed, it behaves either as a particle or as a wave. But both aspects are never observed simultaneously. In fact, which behaviour it exhibits depends on the type of measurement it is presented with. These astonishing phenomena have been experimentally investigated in the last few years, using measurement devices that can be switched between wave-like and particle-like measurements.

In a paper published Nov. 1 in Science, physicists from the University of Bristol give a new twist on these ideas. Dr Alberto Peruzzo, Peter Shadbolt and Professor Jeremy O'Brien from the Centre for Quantum Photonics teamed up with quantum theorists Dr Nicolas Brunner and Professor Sandu Popescu to devise a novel type of measurement apparatus that can measure both particle and wave-like behaviour simultaneously. This new device is powered by quantum nonlocality, another strikingly counter-intuitive quantum effect.

Dr Peruzzo, Research Fellow at the Centre for Quantum Photonics, said: "The measurement apparatus detected strong nonlocality, which certified that the photon behaved simultaneously as a wave and a particle in our experiment. This represents a strong refutation of models in which the photon is either a wave or a particle."

Professor O'Brien, Director of the Centre for Quantum Photonics, said: "To conduct this research, we used a quantum photonic chip, a novel technology pioneered in Bristol. The chip is reconfigurable so it can be programmed and controlled to implement different circuits. Today this technology is a leading approach in the quest to build a quantum computer and in the future will allow for new and more sophisticated studies of fundamental aspects of quantum phenomena."



Einen sehr ausführlichen Einblick in die Arbeit bringt pro physik:

In Wheelers Gedankenexperiment werden Photonen einzeln durch ein Mach-Zehnder-Interferometer geschickt und schließlich mit Detektoren registriert. Im Interferometer trifft ein Photon zunächst auf einen Strahlteiler, der ihm zwei Wege eröffnet, die mit Hilfe von Spiegeln an einem zweiten Strahlteiler zusammengeführt werden. Hinter diesem Strahlteiler stehen zwei Detektoren, die die beiden Lichtstrahlen auffangen. Da sich einem detektierten Photon nicht ansehen lässt, welchen der beiden Wege es genommen hat, verhält es sich wie eine Welle, die vom ersten Strahlteiler in zwei Teilwellen aufgespalten wird. Kommen die Teilwellen am zweiten Strahlteiler wieder zusammen, so können sie je nach ihrem Phasenunterschied konstruktiv oder destruktiv interferieren. Im ersten Fall wird das Photon immer von dem einen Detektor registriert, im zweiten Fall immer von dem anderen.

Nimmt man aber den zweiten Strahlteiler aus dem Strahlengang heraus, so kommt keine Interferenz mehr zustande. Das Photon wird nun mit 50-prozentiger Wahrscheinlichkeit entweder vom einen oder vom anderen Detektor registriert. Dabei lässt sich eindeutig sagen, auf welchem Weg das Photon zum Detektor gelangt ist. Es hat sich also wie ein Teilchen verhalten. Wheeler wies nun darauf hin, dass sich an dieser Schlussfolgerung nichts ändert, wenn man den zweiten Strahlteiler erst aus dem Strahlengang nimmt nachdem das Photon den ersten Strahlteiler passiert hat. Zu diesem Zeitpunkt kann das Photon noch gar nicht „wissen“, ob seine Wellen- oder seine Teilchennatur gefragt ist. Diese Schlussfolgerung spricht gegen die Existenz von „verborgenen Parametern“, die das zukünftige Verhalten des Photons im Interferometer beeinflussen.

Doch was passiert, wenn der zweite Strahlteiler in einem Quantenzustand ist, bei dem er sich zugleich im und nicht im Interferometer befindet? Zeigt dann das Photon gleichzeitig seine Wellen- und seine Teilchennatur? Dieser Frage gingen sowohl die Forscher um Jeremy O’Brien von der University of Bristol als auch Sébastien Tanzilli von der Université de Nice und seine Kollegen nach.

Die britischen Forscher nutzten bei ihrem Experiment einen photonischen Schaltkreis, den sie zu einem Mach-Zehnder-Interferometer konfigurierten. Einzelne Photonen durchliefen das Interferometer und wurden von zwei Photodetektoren registriert. Mit einem Regler konnten die Forscher die Phase verändern, die die einzelnen „Test-Photonen“ auf einem der beiden Wege durch das Interferometer aufnahmen. Daraufhin zeigten die Zählraten an den Detektoren eine sinusförmige Phasenabhängigkeit, wie man es bei der Interferenz der photonischen Teilwellen erwartet.

Den zweiten Strahlteiler konnten die Forscher an- und abschalten, indem sie ihn an ein „Hilfs-Photon“ koppelten, das durch sein eigenes Mach-Zehnder-Interferometer lief. Je nach dem Quantenzustand des Hilfs-Photons (der von der relativen Phase der beiden Teilwellen dieses Photons abhing), war der zweite Strahlteiler angeschaltet, abgeschaltet oder in einem quantenmechanischen Überlagerungszustand dieser beiden Möglichkeiten. Die Detektorzählraten für die Test-Photonen hingen dann sinusförmig bzw. gar nicht von der Phasendifferenz ab, oder sie zeigten eine zwischen diesen Extremen liegende Phasenabhängigkeit. Entsprechend verhielt sich das Test-Photon wie eine Welle, wie ein Teilchen oder wie eine Überlagerung aus Welle und Teilchen. Indem die Forscher zeigten, dass die Quantenkorrelationen zwischen den Test- und den Hilfs-Photonen die Bellsche Ungleichung verletzten, stellten sie sicher, dass es sich bei der Welle-Teilchen-Überlagerung wirklich um einen Quanteneffekt handelte.

Die französischen Forscher gingen noch einen Schritt weiter. Bei ihrem Mach-Zehnder-Interferometer hing es von der Polarisation des Photons ab, ob der zweite Strahlteiler vorhanden war oder nicht. Während er vertikal (V) polarisierte Photonen im Verhältnis 50:50 aufteilte, reflektierte er horizontal (H) polarisierte Photonen zu 100 %. Die V-Photonen zeigten deshalb Interferenz und verhielten sich wie Wellen, wohingegen sich die H-Photonen wie Teilchen benahmen. Test-Photonen, die in einer quantenmechanischen Überlagerung der beiden Polarisationszustände waren, zeigten ein dazwischenliegendes Verhalten, wie die Forscher an der Phasenabhängigkeit der Detektorsignale sehen konnten.

Doch nun kam der Clou: Jedes Test-Photon war mit einem Hilfs-Photon in einem polarisationsverschränkten Zustand |HH>+|VV>, sodass es keine bestimmte Polarisation hatte. Die Forscher stellten sicher, dass für das Test-Photon auch nach Durchlaufen des Mach-Zehnder-Interferometers und anschließender Detektion offenblieb, ob es sich als Teilchen, als Welle oder als Überlagerung von beidem verhalten hatte. Erst als sie 20 Nanosekunden später in einem 20 Meter entfernten zweiten Labor die Polarisation des Hilfs-Photons detektierten, stand die Polarisation des mit ihm verschränkten (doch schon längst detektierten) Test-Photons fest – und damit auch sein Welle-Teilchen-Charakter. Eine gegenseitige Beeinflussung der beiden Detektionen war ausgeschlossen. Die französischen Forscher wiesen ebenfalls nach, dass die Korrelationen der Test- und der Hilfs-Photonen die Bellsche Ungleichung verletzten und damit eine Erklärung der experimentellen Resultate mit Hilfe von verborgenen Parametern ausgeschlossen war.

Dass sich Photonen und andere Quantensysteme nur wie Wellen oder wie Teilchen verhalten können, ist somit widerlegt. Es sind auch Zwischenformen möglich. Darüber hinaus kann man im Prinzip mit beliebiger Zeitverzögerung – also z. B. morgen – nachträglich bestimmen, ob ein Photon gestern einem Wellen- oder einem Teilchenexperiment unterzogen wurde.

... link (0 Kommentare)   ... comment


Donnerstag, 25. Oktober 2012
Lebendige Stromkabel im Meeresgrund
Wenn eine auf Physik spezielisierte Nachrichtenseite über Mikroben berichtet, dann müssen diese schon ganz spezielle Eigenschaften besitzen. In der Tat wurden Mikroben gefunden, die sich zusammenschließen, um Strom zu leiten und so einen Stoffwechsel in Gang zu setzen, der die gesamte Gruppe am Leben erhält, berichtet pro physik.

... link (0 Kommentare)   ... comment


Donnerstag, 18. Oktober 2012
Planet um Alpha Centauri
Wie unter anderem raumfahrer.net berichtet, wurde höchstwahrscheinlich ein Planet um Alpha Centauri B gefunden. Dies finde ich zwar nicht so spektakulär, wie es der Artikel suggeriert, aber immerhin:

a) der Planet hat in etwa die Masse der Erde

b) Alpha Centauri ist das der Sonne nächste Sonnensystem


Von einem erdähnlichen Planeten zu sprechen verbietet sich mir aber schon dadurch, dass der Planet seinen Stern in gerade einmal 3,3 Tagen umkreist, damit also sehr viel dichter an ihm dran ist, als bei uns der Merkur an unserer Sonne. Ferner ist Alpha Centauri ein Dreifachsystem und daher mit dem unseren nicht gleichzusetzen. Dennoch: Die Möglichkeit ist gegeben, dass noch weitere Planeten in diesem System gefunden werden.

Randnotiz: Vor etlichen Jahren habe ich mal von jemandem erfahren, dass im Rahmen der Prä-Astronautik eine Botschaft entschlüsselt wurde, die besagte, dass Alpha Centauri Planeten enthält. Dieser 'Dekodierung' wurde aber heftigst widersprochen, da es aufgrund der bisherigen Untersuchungen ausgeschlossen wurde, dass Alpha Centauri Planeten besitzt - man hätte sie aufgrund der Nähe schon längst gefunden, war die gängige Antwort -.

So ändern sich die Zeiten und Ergebnisse. Womit ich nicht sagen will, dass deswegen an der Entschlüsselung etwas dran ist. Es liegt schon zu lange zurück, als dass ich genaueres dazu sagen kann...

... link (0 Kommentare)   ... comment


Dienstag, 16. Oktober 2012
Globaler Polsprung vor nur 41000 Jahren bewiesen
Zunächst möchte ich mal dokumentieren, was zum Thema Polsprung bis heute gängige Auffassung war. So kann man (heute) auf Wikipedia zum Erdmagnetfeld bezüglich Polumkehr nachlesen:

Paläomagnetismus und die Umpolung des Erdmagnetfeldes

Aufgrund der Rekonstruktion des Paläomagnetfeldes anhand erstarrten Magmas der ozeanischen Kruste, die sich im Rahmen der Plattentektonik am mittelozeanischen Rücken ständig nachbildet, weiß man, dass sich das Erdmagnetfeld im Mittel etwa alle 250.000 Jahre umkehrt. Zuletzt hat sich dieses allerdings vor etwa 780.000 Jahren ereignet und wird als Brunhes-Matuyama-Umkehr bezeichnet.[4] Der Polsprung, also die magnetische Feldumkehr, dauert etwa 4.000 bis 10.000 Jahre (Computersimulationen ergeben etwa 9.000 Jahre). Offenbar verursachen Störungen im Geodynamo die Aufhebung der ursprünglichen Polarität. Umpolungen sind bis vor etwa 100 Millionen Jahren gut dokumentiert. Da das Magnetfeld derzeit abnimmt, könnte in nicht allzu ferner Zukunft eine Umpolung bevorstehen (Schätzung: Jahr 3000–4000), diese Vermutung ist wissenschaftlich jedoch noch nicht gesichert.


Soweit der Stand bis heute.

Eine Meldung stellt diese Erkenntnis aber auf dem Kopf!

Science daily berichtet über einen Beweis, dass der letzte Polsprung bereits vor 41000 Jahren standfand, dies sehr sehr viel schneller geschah, als man zuvor für möglich hielt, und in dieser Zeit Naturkatastrophen stattfanden:

Some 41,000 years ago, a complete and rapid reversal of the geomagnetic field occured. Magnetic studies of the GFZ German Research Centre for Geosciences on sediment cores from the Black Sea show that during this period, during the last ice age, a compass at the Black Sea would have pointed to the south instead of north.

Moreover, data obtained by the research team formed around GFZ researchers Dr. Norbert Nowaczyk and Prof. Helge Arz, together with additional data from other studies in the North Atlantic, the South Pacific and Hawaii, prove that this polarity reversal was a global event.
Their results are published in the latest issue of the scientific journal Earth and Planetary Science Letters.

What is remarkable is the speed of the reversal: "The field geometry of reversed polarity, with field lines pointing into the opposite direction when compared to today's configuration, lasted for only about 440 years, and it was associated with a field strength that was only one quarter of today's field," explains Norbert Nowaczyk. "The actual polarity changes lasted only 250 years. In terms of geological time scales, that is very fast." During this period, the field was even weaker, with only 5% of today's field strength. As a consequence, Earth nearly completely lost its protection shield against hard cosmic rays, leading to a significantly increased radiation exposure.

Abrupt climate changes and a super volcano

Besides giving evidence for a geomagnetic field reversal 41,000 years ago, the geoscientists from Potsdam discovered numerous abrupt climate changes during the last ice age in the analysed cores from the Black Sea, as it was already known from the Greenland ice cores. This ultimately allowed a high precision synchronisation of the two data records from the Black Sea and Greenland.

The largest volcanic eruption on the Northern hemisphere in the past 100,000 years, namely the eruption of the super volcano 39,400 years ago in the area of today's Phlegraean Fields near Naples, Italy, is also documented within the studied sediments from the Black Sea. The ashes of this eruption, during which about 350 cubic kilometers of rock and lava were ejected, were distributed over the entire eastern Mediterranean and up to central Russia.

These three extreme scenarios, a short and fast reversal of Earth's magnetic field, short-term climate variability of the last ice age and the volcanic eruption in Italy, have been investigated for the first time in a single geological archive and placed in precise chronological order.




Update:

Nun bringt die Meldung auch pro physik:

Erstaunlich ist die Geschwindigkeit der Umpolung: „Die der heutigen Orientierung der Feldlinien entgegengesetzte Magnetfeldgeometrie bestand für lediglich etwa 440 Jahre und war zudem mit einer Feldstärke verbunden, die nur etwa einem Viertel der heutigen Stärke entspricht“, erklärt Norbert Nowaczyk. „Auch die eigentlichen Umpolungsphasen selbst dauerten jeweils nur etwa 250 Jahre. Das ist, in geologischen Zeitskalen gedacht, enorm schnell.“ Zudem war die Feldstärke während dieser Umpolungsphasen deutlich geringer, die Intensität des Erdmagnetfeldes lag bei lediglich einem Zwanzigstel des heutigen Werts. Das bedeutet, dass die Erde weitgehend ihren Strahlenschutzschild verloren hatte, was zu einer deutlich erhöhten Belastung durch kosmische Strahlung führte. Der Beleg sind Spitzenwerte von radioaktivem Berillium-10 in grönländischen Eisbohrkernen aus dieser Zeit dokumentiert. Beryllium und auch radioaktiver Kohlenstoff-14 entsteht durch die Kollision von energiereichen Protonen aus dem Weltall mit Atomen der Erdatmosphäre.

... link (0 Kommentare)   ... comment


Freitag, 12. Oktober 2012
SRT - Mathematik jenseits der Lichtgeschwindigkeit
Schaut man sich den relativistischen Korrekturterm an

(1 - (v/c)^2)^(-1/2)

dann ist klar, dass bei v = c unter dem Bruchstrich eine Null steht und dieser Ausdruck mathematisch nicht definiert ist. Man spricht hier von einer Singularität.

Wenn aber v > c ist, dann haben wir unter der Wurzel einen negativen Ausdruck, d.h. wir operieren nun mit imaginären Größen und befinden uns im Bereich der komplexen Zahlen z = a + bi, wo a und b reelle Zahlen sind und i den Imaginärteil darstellt, für den gilt i^2 = -1.

Zwei Mathematiker haben nun eine Abhandlung in den Proceedings der Royal Society veröffentlicht, in dem sie die Spezielle Relativitätstheorie so erweitern, dass man auch für v > c ohne komplexe Zahlen rechnen kann und dabei Massen größer Null verwendet.

Mehrere Wissenschafts-Seiten berichten darüber, ich verlinke mal den Artikel von science daily: Extending Einstein's Theory Beyond Light Speed
.

Die Autoren betonen, dass es bei ihrer Abhandlung nicht darum geht, eine physikalische Möglichkeit überlichtschneller Reisen aufzuzeigen. Sondern es geht um eine Erweiterung des mathematischen Rahmens der SRT und leistet auch keinen Beitrag für eine neue Theory of Everything.

... link (0 Kommentare)   ... comment


Mittwoch, 10. Oktober 2012
MOND: Auch für elliptische Galaxien gültig
Um das dynamische Verhalten von Galaxien zu erklären, wird die Dunkle Materie postuliert, da die sichtbare Materie nicht ausreicht, um aufgrund der gravitativen Gesetze beobachtetes Rotationsverhalten zu erklären.

Eine alternative Erklärung zur Dunklen Materie wäre eine Änderung der Gravitationsgesetze für große Abstände. Eine solche MOdifizierte Newton Dynamik - MOND - wurde anhand von Spiralgalaxien ausgearbeitet. Selbstverständlich erklärt daher MOND die Dynamik in solchen Spiralgalaxien ohne Dunkle Materie. Für diese Galaxien-Art wurde ja die Modifikation massgeschneidert - und genau dies ist der Kritikpunkt.

Nun aber konnten Messungen belegen, dass MOND auch das Verhalten von elliptischen Galaxien ohne Dunkle Materie korrekt wiedergeben kann. Das ist schon ein interessantes Ergebnis.

Persönlich denke ich, dass es auf jeden Fall Dunkle Materie gibt, dass aber zusätzlich eine Modifikation der Newtonschen Gesetze im Bereich des Möglichen liegt.

Zu den neuen MOND - Studien schreibt welt der physik:

Bereits in den 1930er Jahren fiel den Astronomen auf, dass sich Sterne in Galaxien sowie Galaxien in Galaxienhaufen viel zu schnell bewegen. Die Schwerkraft der sichtbaren Materie würde nicht ausreichen, um der Fliehkraft entgegenzuwirken und Galaxien und Galaxienhaufen zusammenzuhalten. Deshalb postulierte man die Existenz einer unsichtbaren Materiekomponente, der Dunklen Materie. Als Alternative entwickelte Milgrom 1983 seine modifizierte Gravitationstheorie. Bei sehr geringen Beschleunigungen, so sein Ansatz, ist die Schwerkraft stärker als es die klassische Theorie vorhersagt.

Sowohl für Spiralgalaxien als auch für Galaxienhaufen liefert MOND gute Ergebnisse. Nun konnte Milgrom zeigen, dass sich auch die Bewegung in elliptischen Galaxien mit seiner Theorie erklären lässt. Dazu nutzte er die Sternsysteme NGC 720 und NGC 1521, deren Bewegungen – und damit deren Gravitationsfeld – extrem genau bekannt ist. Ohne Dunkle Materie gelang es Milgrom, die Bewegungen mit seiner modifizierten Newtonschen Dynamik zu rekonstruieren.

Milgrom betont, dass Spiralgalaxien und elliptische Galaxien auf unterschiedliche Weise entstanden sind. „Es beginnt mit kleinen Galaxien, die zusammenstoßen und verschmelzen“, erläutert der Forscher. „Im Verlauf dieser stürmischen Entwicklung sind Dunkle Materie und normale Materie diesen Prozessen unterschiedlich unterworfen.“ Die Dunkle Materie sollte also in Spiralgalaxien und in elliptischen Galaxien verschieden verteilt sein. Ist sie aber nicht, „und das ist ein schwacher Punkt im Bild der Dunklen Materie.“ Milgroms MOND-Theorie dagegen erklärt diese Übereinstimmung ganz zwanglos.

„Ein überzeugendes Argument für die neue nicht-newtonsche Dynamik“ sieht auch Pavel Kroupa vom Argelander-Institut für Astronomie an der Universität Bonn in der neuen Studie. „Bisher wurde an MOND bemängelt, die Theorie sei aufgesetzt, um die Dynamik in Scheibengalaxien zu erklären – es sei also nichts Besonderes, dass MOND Scheibengalaxien korrekt beschreibt. Nun hat Milgrom aber zeigen können, dass MOND auch die Dynamik in elliptischen Galaxien bestens erklärt, und zwar in einem sehr großen Abstandsbereich von zentralen bis zu weit außen liegenden Regionen.“

... link (0 Kommentare)   ... comment


Donnerstag, 27. September 2012
Milchstrasse in heissem Gas
Die Milchstrasse ist eingebettet in einer Blase aus heißem Gas. Damit ist die vermisste baryonische Materie aufgespürt, die es eigentlich durch den Urkanll geben müsste. In 'welt der physik' wird das sehr schön erklärt und darauf aufmerksam gemacht, dass man diesen Befund nicht mit der Suche nach der Dunklen Materie verwechseln darf: hier.

... link (0 Kommentare)   ... comment


Mittwoch, 12. September 2012
Quantenmechanischer Tunneleffekt in der Chemie entdeckt
Chemische Reaktionen können auch über einen quantenmechanischen Tunneleffekt ablaufen. Dieser Effekt wäre am besten mit dem Beamen aus Star Trek zu beschreiben, meint Prof. Schreiner von der Uni Gießen, berichtet scinexx.de:

Chemische Reaktionen kann man mit Bergwanderungen vergleichen: Man wird in der Regel den niedrigsten Pass erklimmen, um von einem in das nächste Tal zu gelangen. Hat man jedoch ein besonders lohnendes Ziel vor Augen, bemüht man sich auch schon mal über einen höheren Berg. Das Tunneln einer chemischen Reaktion kann man mit der Durchquerung eines hohen Berges von einem Tal zum nächsten durch einen – allerdings unsichtbaren – Tunnel verstehen. Bisher gingen Forscher davon aus, dass nur relativ niedrige Berge durchquert werden können und dass der Pfad über den Berg weiterhin gleichzeitig zugänglich ist.

Die aktuelle Studie der Chemiker um Professor Peter R. Schreiner von der Universität Gießen und Professor Wesley D. Allen von der University of Georgia zeigt nun, dass beides keinesfalls Voraussetzung für dieses Phänomen ist. Der Tunneleffekt kann am einfachsten mit dem Beamen in einem Science Fiction-Film verglichen werden: Materie wird von einem Punkt zum anderen transportiert – vollkommen unabhängig davon, welche Hindernisse dazwischen liegen.

Die Entdeckung des Gießener Teams mit seinen US-amerikanischen Partnern basiert auf der erstmaligen Darstellung eines bisher unbekannten, kleinen Moleküls, dem Methylhydroxycarben (H3C–C–OH). Dieses Molekül wurde nach thermischer Erzeugung in einer Argonmatrix bei minus 263 Grad Celsius „gefangen“ und spektroskopisch nachgewiesen.

Das erhoffte Tunnelverhalten trat ein: Unerwartet – zumindest nach dem bisherigen Verständnis chemischer Reaktionen – wurde die stärkste Bindung im System, nämlich die zwischen Sauerstoff (O) und Wasserstoff (H) gebrochen.

Innerhalb weniger Stunden bildete sich den Forschern zufolge selbst bei dieser tiefen Temperatur ausschließlich das unwahrscheinlichste Produkt, nämlich Acetaldehyd (H3C–CHO). Es war also ein Wasserstoff-Atom vom Sauerstoff zum Kohlenstoff (C) gewandert. Da bei Temperaturen nahe dem absoluten Nullpunkt mangels Energie keine thermischen Reaktionen stattfinden können, konnte es sich nur um einen quantenmechanischen Tunnelprozess handeln.

„Wir wussten, dass die Reaktionsgeschwindigkeit durch Tunneln deutlich größer werden kann und dass dies bei niedrigen Temperaturen und leichten Atomen besonders zum Tragen kommt“, sagt Schreiner. „Was wir hier entdeckt haben, geht allerdings weit darüber hinaus. Der Tunnelprozess lenkt die Reaktion weg von dem durch die kinetische Kontrolle erwarteten Produkt – es bildet sich gerade eben nicht das Produkt mit der geringsten Barriere.”

„Die Entdeckung des Methylhydroxycarbens war für uns schon ein Grund zur Freude, doch sein schnelles Verschwinden in Richtung Acetaldehyd war einer der seltenen ‚Heureka-Momente‘ in der Wissenschaft, in denen man plötzlich und unerwartet etwas Neues entdeckt, was noch deutlich interessanter ist, als die ursprüngliche Fragestellung“, so Schreiner.

Die Aufklärung dieser neuen Befunde mittels einer Kombination ausgefeilter Experimente und extrem genauen Berechnungen führte schließlich zur Definition der Tunnelkontrolle, also einer nichtklassischen kinetischen Kontrolle einer chemischen Reaktion, in der die niedrigste Barriere nicht der entscheidende Faktor ist.

Die Wissenschaftler betonen, dass diese Ergebnisse weitreichende Konsequenzen für das Verständnis und das Design chemischer Reaktionen haben und nicht auf extrem tiefe Temperaturen beschränkt sind. (Science, 2011; doi:10.1126/science.1203761)

... link (0 Kommentare)   ... comment


Montag, 3. September 2012
Klimawandel aus historischer Sicht
Mal eine viel differenziertere Sicht zur allgemeinen Klimawandel-Hysterie bringt welt.de:

Mittlerweile haben wir uns an die Konjunkturen des Weltuntergangs gewöhnt. Wenn der Winter eisig ist oder der Sommer kühl und verregnet, dann gehen die Klima-Alarmisten in Deckung. Erst im Hochsommer, mit Beginn der Waldbrände im Mittelmeerraum und dem Anbruch der Hurrikan-Saison in der Karibik fühlen sie sich wieder zu volkspädagogischen Aktivitäten ermuntert.

Kommt der alljährliche Bericht über die sommerliche Eisschmelze in der Arktis heraus, gibt es kein Halten mehr. Nach dem Hurrikan "Katrina" hieß es, jedes Jahr werde es jetzt mehr und größere tropische Wirbelstürme geben. Die globale Erwärmung führe zu einer zunehmenden Erhitzung der Ozeane, dies bilde den Motor für immer stärkere Wirbelstürme, das sei nur logisch.

Dummerweise folgte die Natur dieser Logik nicht, "Katrina" blieb in seiner Vernichtungskraft einmalig, wohl nicht zuletzt aufgrund der Dammbrüche in New Orleans. Wenn man eine Stadt aber vier Meter unter dem Meeresspiegel baut, dann darf man mit entsprechenden Katastrophen rechnen. Bereits in einem Blues aus den 1920er-Jahren hieß es: "When the levee breaks…".

Entgegen den Weltuntergangsszenarien gab es seit 2007 immer weniger Hurrikans. Jetzt hieß es etwas vorsichtiger, in Zukunft werde es vermutlich weniger tropische Wirbelstürme geben, doch diese fielen dafür besonders schlimm aus. Ein interessantes Argumentationsmuster: Die Prognose war falsch, aber wir haben trotzdem recht...

In der Nomenklatur der Geologie ist eine "Warmzeit" dadurch definiert, dass die Pole komplett eisfrei sind. Nach dieser Terminologie leben wir seit einigen Millionen Jahren in einer Eiszeit. Auch innerhalb der Eiszeiten wechseln sich nach Ausweis der Gletscherforschung ständig wärmere und kältere Perioden ab.

Nach der Theorie des serbischen Geophysikers Milutin Milankowitsch basieren diese Fluktuationen auf den zyklischen Schwankungen der Umlaufbahn (Exzentrizität, Obliquität und Präzession) der Erde um die Sonne. Die langen Zyklen – heute Milankowitsch-Zyklen genannt – dauern etwa 100.000 Jahre. Nur etwa der zehnte Teil dieser Zyklen war innerhalb der letzten Million Jahre relativ warm. In so einem Interglazial – einer "Zwischeneiszeit" – leben wir seit etwa 10.000 Jahren...

Die globale Erwärmung des Holozäns hat aufgrund der Eisschmelze nicht nur solche Landbrücken zum Verschwinden gebracht, sondern sie hat das Sesshaftwerden der Jäger und die Entwicklung der Landwirtschaft ermöglicht. Alle menschliche Zivilisation, wie wir sie heute kennen, mit Landwirtschaft, Urbanisierung, Wissenschaft und Industrie, wurde erst ermöglicht durch diese lang anhaltende globale Erwärmung.

Anders als Max Frisch meinte, erschien zwar nicht der Mensch im Holozän, denn die Entwicklung des Homo sapiens nahm doch etwas länger in Anspruch – wohl aber alle höhere Zivilisation. Ohne Warmzeiten wären wir bei all unserer Wissenschaft und Technik kaum lebensfähig.

Dazu zwei Beispiele: Vor etwa zwölfhundert Jahren fanden die norwegischen Wikinger im Westen eine Insel, die so kalt war, dass man dort keine Landwirtschaft betreiben konnte. Sie nannten sie das "Eisland". Doch während der "hochmittelalterlichen Warmzeit" – also etwa vom Jahr 1000 an - hatten sich die Bedingungen verändert: Zwar wuchsen auf Island immer noch keine Bäume, aber doch Gras und Büsche, man konnte Ackerbau und Viehzucht betreiben. Nun begann die große isländische Landnahme.

Wenig später entdeckten Wikinger noch weiter im Westen eine große grüne Insel. Auch "Grönland" wurde besiedelt, die Hauptsiedlung im Süden bekam einen römisch-katholischen Bischof. Und wagemutige Seefahrer entdeckten noch weiter im Westen Land, aus dem man Baumstämme und Weinbeeren beziehen konnte: "Markland" und "Vinland", das spätere Amerika. Dessen Besiedelung scheiterte allerdings am Widerstand der "Skraelinger", wie die Wikinger die späteren Indianer nannten...

Zu den Axiomen der Alarmisten unter unseren Klimaforschern gehört seit Jahren die Lehre, dass die globale Erwärmung unzulässigerweise das Gleichgewicht der Natur verändere und dass sie um jeden Preis verhindert werden müsse, weil sie "menschengemacht" (anthropogen) sei. Teil der Eschatologie war die Gegenüberstellung von "Adaptation" (Anpassung) und "Mitigation" (Schadensbegrenzung), die schließlich zum Kyoto-Abkommen mit seiner Politik der Reduktion der Treibhausgasemissionen und dem Abgaszertifikatehandel geführt hat...

Doch die meisten Menschen nehmen die Nachrichten von der globalen Erwärmung gelassen und versuchen, sich anzupassen und das Beste daraus zu machen. Deutsche Winzer freuen sich, dass sie mehr gehaltvolle Rotweine produzieren können.

Dass der Meeresspiegel in hundert Jahren um einige Dezimeter steigen dürfte, treibt niemanden wirklich in die Verzweiflung. Viele Küstenstädte planen heute schon höhere Deiche. Das Abschmelzen des Grönlandeises, wenn es denn so weit käme, dürfte nach Ansicht von Glaziologen mehrere Jahrhunderte dauern.

Die gesamte Arktis spielt aber gar keine so große Rolle. 90 Prozent des Eises und 70 Prozent des Süßwassers der Erde sind im antarktischen Eisschild gebunden, und bei diesem ist man uneinig, ob es nicht gerade wächst. Bei minus 82,5 Grad Celsius auf der antarktischen Hochebene scheint zumindest dem Laien die Gefahr der Eisschmelze selbst bei einer leichten Erwärmung relativ gering.

Solange es auf der Erde wärmer wird, ist das eher eine gute Nachricht. Wenn das Holozän zu Ende ginge, wie man in den 1960er Jahren nach einigen kalten Jahren schon einmal geglaubt hat, dann könnten wir wirklich den Blues bekommen. Die meisten Naturwissenschaftler sind heute davon überzeugt, dass es einen anthropogenen Anteil an der globalen Erwärmung gibt, und zumindest in den letzten fünfzig Jahren globaler Industrialisierung erreichte der Verbrauch fossiler Energien beachtliche Größenordnungen.

Der Nobelpreisträger für Atmosphärenchemie Paul Crutzen meint aber, dass menschlicher Einfluss schon sehr viel länger wirksam sei, nämlich bereits seit dem Beginn von Ackerbau und Viehzucht vor über 8000 Jahren. Und der Paläoklimatologe William F. Ruddiman glaubt, dass das Ende des Holozäns bereits seit Langem angebrochen sei und lediglich maskiert werde durch die anthropogene Erderwärmung. Bei allem Konsens über die Erwärmung bewegt man sich bei ihrer Interpretation offenbar auf dünnem Eis.



Zum Autor:
Der Historiker Prof. Dr. Wolfgang Behringer lehrt Frühe Neuzeit an der Uni Saarbrücken. 2007 erschien seine "Kulturgeschichte des Klimas" im CH. Beck-Verlag.

... link (0 Kommentare)   ... comment