Quanten

08/01/2014 01:21

Quantenphysik

Unter dem Begriff Quantenphysik werden all jene Theorien, Modelle und Konzepte zusammengefasst, die auf die Quantenhypothese von Max Planck zurückgehen. Außerdem versteht man darunter alle Phänomene und Effekte, die sich ohne diese Hypothese nicht befriedigend erklären lassen. Plancks Hypothese war um 1900 notwendig geworden, weil die klassische Physik z. B. bei der Beschreibung des Lichts oder des Aufbaus der Materie an ihre Grenzen gestoßen war.

Die Quantenphysik unterscheidet sich von der klassischen Physik vor allem in folgenden Punkten:

  • Quantenhypothese: Bestimmte physikalische Größen können nicht jeden beliebigen Wert annehmen sondern nur bestimmte diskrete Werte. Man sagt, sie sind „quantisiert“ oder „gequantelt“.
  • Welle-Teilchen-Dualismus: Quantenobjekte zeigen – je nach Betrachtungsweise – Eigenschaften von Wellen oder Teilchen (sprich: Massepunkten), sind aber weder das eine noch das andere. Die wahre Natur der Quantenobjekte entzieht sich der konkreten Anschauung.
  • Die Quantenphysik ist nicht deterministisch. Das bedeutet, dass der Ausgang eines Experiments nicht eindeutig durch die Anfangswerte festgelegt ist. Oft lassen sich nur Aussagen über Wahrscheinlichkeiten machen.
  • Der Ausgang eines Experiments ist niemals unabhängig von der Beobachtung, sondern immer untrennbar mit ihr verbunden. D. h., der Beobachtungsvorgang beeinflusst das zu beobachtende Phänomen in physikalischer Weise.

Die Quantenphysik stellt neben der Relativitätstheorie einen Grundpfeiler der modernen Physik dar und lässt sich heute aus kaum einem Teilbereich der Physik mehr wegdenken. Besonders deutlich zeigen sich die Unterschiede zwischen der Quantenphysik und der klassischen Physik im mikroskopisch Kleinen (z. B. Aufbau der Atome und Moleküle) oder in besonders „reinen“ Systemen (z. B. Supraleitung, Laserstrahlung, ...). Aber auch ganz alltägliche Dinge wie die chemischen oder physikalischen Eigenschaften verschiedener Stoffe (Farbe, Magnetismus, elektrische Leitfähigkeit, ...) lassen sich nur quantenphysikalisch verstehen.

Insbesondere gehören aber auch zwei Teilbereiche der theoretischen Physik zur Quantenphysik: Die Quantenmechanik und die Quantenfeldtheorie. Erstere beschreibt das Verhalten von Quantenobjekten unter dem Einfluss von Feldern. Letztere behandelt zusätzlich die Felder als Quantenobjekte. Die Vorhersagen beider Theorien stimmen außerordentlich gut mit den Ergebnissen von Experimenten überein. Ihre einzige bekannte Schwäche besteht darin, dass sie sich nach dem gegenwärtigen Stand des Wissens nicht mit der allgemeinen Relativitätstheorie vereinbaren lassen.

Theorien der Quantenphysik

Frühe Quantentheorien

Schon vor Entwicklung der Quantenmechanik gab es Entdeckungen, die zwar die Quantisierung bestimmter Größen postulieren und manchmal auch mit der Welle-Teilchen-Dualität begründen, jedoch keine tieferen Einsichten in die zugrundeliegenden Mechanismen erlauben. Insbesondere lieferten diese Theorien keine Vorhersagen, die über ihren entsprechenden Gegenstand hinausgingen. Im englischen Sprachgebrauch werden diese Vorläufer der Quantenmechanik als old quantum theory bezeichnet.

Im Jahr 1900 entwickelte Max Planck eine Formel zur Beschreibung der gemessenen Frequenzverteilung der von einem Schwarzkörper emittierten Strahlung, das Plancksche Strahlungsgesetz, wobei er von der Annahme ausging, dass der schwarze Körper aus Oszillatoren mit diskreten Energieniveaus besteht.[1] Planck betrachtete diese Quantelung der Energie also als Eigenschaft der Materie und nicht des Lichtes selbst. Das Licht war nur insofern betroffen, als Licht in seinem Modell immer nur in bestimmten Portionen Energie mit Materie austauschen konnte, weil in der Materie nur bestimmte Energieniveaus möglich seien. Dabei fand er zwischen der Energieportion \Delta E und der Frequenz \nu des Lichts den Zusammenhang \Delta E = h \nu.

Albert Einstein erweiterte diese Konzepte und schlug im Jahr 1905 eine Quantisierung der Energie des Lichtes selbst vor, um den photoelektrischen Effekt zu erklären.[2] Der photoelektrische Effekt besteht darin, dass Licht bestimmter Farben Elektronen aus Metall herauslösen kann. Dabei kann der Lichtstrahl an jedes einzelne Elektron nur einen immer gleichen Energiebetrag abgeben, der zudem proportional ist zur Frequenz, also einer Eigenschaft des Lichtes. Daraus schloss Einstein, dass die Energieniveaus nicht nur innerhalb der Materie gequantelt sind, sondern dass das Licht ebenfalls nur aus bestimmten Energieportionen besteht, den Lichtquanten. Dieses Konzept ist mit einer reinen Wellennatur des Lichtes nicht vereinbar. Es musste also angenommen werden, dass das Licht weder eine klassische Welle noch ein klassischer Teilchenstrom ist, sondern sich mal so, mal so verhält.

1913 verwendete Niels Bohr das Konzept gequantelter Energieniveaus, um die Spektrallinien des Wasserstoffatoms zu erklären. Das nach ihm benannte Bohrsche Atommodell geht davon aus, dass das Elektron im Wasserstoffatom mit einer bestimmten Energie um den Kern kreist. Das Elektron wird hierbei noch als klassisches Teilchen betrachtet, mit der einzigen Einschränkung, dass es nur bestimmte Energien haben kann und, wenn es mit einer solchen Energie um den Kern kreist, entgegen der klassischen Elektrodynamik keine elektromagnetische Welle erzeugt, also auch keine Energie abstrahlt. Eine experimentelle Bestätigung der von Bohr verwendeten Annahmen gelang im Franck-Hertz-Versuch 1914. Das Bohrsche Atommodell wurde noch um einige Konzepte wie elliptische Bahnen des Elektrons erweitert, insbesondere von Arnold Sommerfeld, um auch die Spektren anderer Atome erklären zu können. Dieses Ziel wurde jedoch nicht zufriedenstellend erreicht. Außerdem konnte Bohr keine Begründung für seine Postulate geben außer der, dass das Wasserstoffspektrum damit erklärbar war; zu tieferer Einsicht führte sein Modell nicht.

Im Jahr 1924 veröffentlichte Louis de Broglie seine Theorie der Materiewellen, wonach jegliche Materie einen Wellencharakter aufweisen kann und umgekehrt Wellen auch einen Teilchencharakter aufweisen können.[3] Mit Hilfe seiner Theorie konnten der photoelektrische Effekt und das Bohrsche Atommodell auf einen gemeinsamen Ursprung zurückgeführt werden. Die Umlaufbahnen des Elektrons um den Atomkern wurden als stehende Materiewellen aufgefasst. Die berechnete Wellenlänge des Elektrons und die Längen der Umlaufbahnen nach dem Bohrschen Modell stimmten gut mit diesem Konzept überein. Eine Erklärung der anderen Atomspektren war jedoch weiterhin nicht möglich.

De Broglies Theorie wurde drei Jahre später in zwei unabhängigen Experimenten bestätigt, welche die Beugung von Elektronen nachwiesen. Der britische Physiker George Paget Thomson leitete einen Elektronenstrahl durch einen dünnen Metallfilm und beobachtete die von de Broglie vorhergesagten Interferenzmuster.[4] Bereits 1921 hatte ein ähnliches Experiment von Clinton Davisson und Kunsmann in den Bell Labs bei einem an Nickel reflektierten Elektronenstrahl Beugungsmuster gezeigt, die aber noch nicht als Interferenz gedeutet wurden.[5] Clinton Davisson und sein Assistent Lester Germer wiederholten das Experiment 1927 und erklärten die beobachteten klaren Beugungsmuster mit Hilfe der Wellentheorie de Broglies.[6]

Quantenmechanik

Hauptartikel: Quantenmechanik

Die moderne Quantenmechanik fand ihren Beginn im Jahr 1925 mit der Formulierung der Matrizenmechanik durch Werner Heisenberg, Max Born und Pascual Jordan.[7][8] [9] Wenige Monate später entwickelte Erwin Schrödinger über einen völlig anderen Ansatz – ausgehend von De Broglies Theorie der Materiewellen – die Wellenmechanik und die Schrödingergleichung.[10] Kurz darauf konnte Schrödinger nachweisen, dass sein Ansatz der Matrizenmechanik äquivalent ist.[11]

Die neuen Ansätze von Schrödinger und Heisenberg enthalten eine neue Sicht auf beobachtbare physikalische Größen, sogenannte Observable. Diese waren zuvor als Größen betrachtet worden, die in jedem Zustand eines Systems bestimmte Zahlenwerte besitzen, wie zum Beispiel (für 1 Teilchen in 1 Dimension) der jeweilige Ort oder Impuls. Dagegen versuchten Heisenberg und Schrödinger den Observablenbegriff derart zu erweitern, dass er mit der Beugung am Doppelspalt verträglich würde. Wird dabei nämlich für jedes Teilchen durch eine zusätzliche Messung festgestellt, durch welchen der Spalte es fliegt, erhält man kein Doppelspaltinterferenzmuster, sondern zwei Einzelspaltmuster. Nach dieser Messung ist also der Zustand des beobachteten Teilchens ein anderer als vorher. Observable werden daher formal als Funktionen aufgefasst, die einen Zustand in einen anderen Zustand überführen. Des Weiteren muss jedes Teilchen "irgendwie" durch beide Spalte fliegen, damit man überhaupt ein Interferenzmuster erklären kann. Dem Zustand (jedes einzelnen(!) Teilchens) während des Fluges muss man also beide Möglichkeiten zuschreiben, wobei sich bei Beobachtung genau eine realisiert. Das hatte zur Folge, dass der Zustand eines Teilchens nicht mehr durch eindeutige Größenwerte wie Ort und Impuls bestimmt sein kann, sondern von den Observablen und ihren Größenwerten getrennt werden muss. Bei einem Messprozess wird der Zustand in einen der sogenannten Eigenzustände der Observablen umgewandelt, dem nun ein eindeutiger reeller Messwert zugeordnet ist. Dies Konzept des quantenmechanischen Zustandes ist also mit dem Konzept der (mathematisch genauen) Bahnkurve in der älteren Quantentheorie nicht vereinbar. Mathematisch wird ein quantenmechanischer Zustand durch eine Wellenfunktion oder (weniger anschaulich) durch einen Zustandsvektor wiedergegeben.

Eine Folge dieses neuartigen Observablenbegriffs ist, dass es formal nicht möglich ist, zwei beliebige Observable ohne Angabe einer Reihenfolge auf einen Zustand wirken zu lassen. Wenn es bei zwei Messprozessen auf ihre Reihenfolge nicht ankommt (z. B. Messung von x- und y-Koordinate), heißen sie vertauschbar. Andernfalls (z. B. Messung von x-Koordinate und x-Impuls) muss ihre Reihenfolge festgelegt werden, und in genau diesen Fällen verändert die zweite Messung den durch die erste Messung erzeugten Zustand ein weiteres Mal. Daher würde auch eine anschließende Wiederholung der ersten Messung nun ein anderes Ergebnis haben. Es ist also möglich, dass zwei Observable, wenn sie in unterschiedlicher Reihenfolge auf einen Zustand wirken, unterschiedliche Endzustände liefern können. Wenn bei zwei Observablen die Reihenfolge der Messung entscheidend ist, weil die Endzustände sonst verschieden sind, führt dies zu einer sogenannten Unschärferelation. Für Ort und Impuls wurde diese erstmals von Heisenberg im Jahr 1927 beschrieben. Diese Relationen versuchen, die Streuung der Messwerte bei Vertauschen der Observablen, und damit die Unterschiedlichkeit der Endzustände quantitativ zu beschreiben.

1927 wurde die Kopenhagener Interpretation von Bohr und Heisenberg formuliert, die auch als orthodoxe Interpretation der Quantenmechanik bezeichnet wird. Sie stützte sich auf den Vorschlag von Max Born, das Betragsquadrat der Wellenfunktion, die den Zustand eines Systems beschreibt, als Wahrscheinlichkeitsdichte aufzufassen. Die Kopenhagener Interpretation ist bis heute die Interpretation der Quantenmechanik, die von den meisten Physikern vertreten wird, obwohl es inzwischen zahlreiche andere Interpretationen gibt.

In den Jahren ab ca. 1927 vereinigte Paul Dirac die Quantenmechanik mit der speziellen Relativitätstheorie. Er führte auch erstmals die Verwendung der Operator-Theorie inklusive der Bra-Ket-Notation ein und beschrieb diesen mathematischen Kalkül 1930 in einer Monografie.[12] Zur gleichen Zeit formulierte John von Neumann die strenge mathematische Basis für die Quantenmechanik, wie z. B. die Theorie linearer Operatoren auf Hilberträumen, die er 1932 in einer Monografie beschrieb.[13] Die Verwendung des Ausdrucks „Quantenphysik“ ist erstmals 1929 in Max Plancks Vortrag Das Weltbild der neuen Physik dokumentiert.[14] Die in dieser Aufbauphase formulierten Ergebnisse haben bis heute Bestand und werden allgemein zur Beschreibung quantenmechanischer Aufgabenstellungen verwendet.

Quantenfeldtheorie

Hauptartikel: Quantenfeldtheorie

Ab 1927 wurde versucht, die Quantenmechanik nicht nur auf Partikel, sondern auch auf Felder anzuwenden, woraus die Quantenfeldtheorien entstanden. Die ersten Ergebnisse auf diesem Gebiet wurden durch Paul Dirac, Wolfgang Pauli, Victor Weisskopf und Pascual Jordan erzielt. Um Wellen, Teilchen und Felder einheitlich beschreiben zu können, werden sie als Quantenfelder, ähnliche Objekte wie Observable, aufgefasst. Sie müssen jedoch nicht die Eigenschaft der Reellwertigkeit erfüllen. Das bedeutet, dass die Quantenfelder nicht unbedingt messbare Größen darstellen. Es ergab sich jedoch das Problem, dass die Berechnung komplizierter Streuprozesse von Quantenfeldern unendliche Ergebnisse lieferte. Die alleinige Berechnung der einfachen Prozesse liefert jedoch oft Ergebnisse, die stark von den Messwerten abwichen.

Erst Ende der 1940er Jahre konnte das Problem der Unendlichkeiten mit der Renormierung umgangen werden. Dies ermöglichte die Formulierung der Quantenelektrodynamik durch Richard Feynman, Freeman Dyson, Julian Schwinger und Shinichirō Tomonaga. Die Quantenelektrodynamik beschreibt Elektronen, Positronen und das elektromagnetische Feld erstmals in einer durchgängigen Weise, und die von ihr vorhergesagten Messergebnisse konnten sehr genau bestätigt werden.[15] Die hier entwickelten Konzepte und Methoden wurden als Vorbild für weitere, später entwickelte Quantenfeldtheorien verwendet.

Die Theorie der Quantenchromodynamik wurde Anfang der 1960er Jahre ausgearbeitet. Die heute bekannte Form der Theorie wurde 1975 durch David Politzer, David Gross und Frank Wilczek formuliert. Aufbauend auf den wegweisenden Arbeiten von Julian Seymour Schwinger, Peter Higgs, Jeffrey Goldstone und Sheldon Glashow konnten Steven Weinberg und Abdus Salam unabhängig voneinander zeigen, wie die schwache Kernkraft und die Quantenelektrodynamik zu der Theorie der elektroschwachen Wechselwirkung zusammengeführt werden können.

Bis heute ist die Quantenfeldtheorie ein aktives Forschungsgebiet, das sehr viele neuartige Methoden entwickelt hat. Sie ist die Grundlage aller Versuche, eine vereinheitlichte Theorie aller Grundkräfte zu formulieren. Insbesondere bauen Supersymmetrie, Stringtheorie, Loop-Quantengravitation und Twistor-Theorie maßgeblich auf den Methoden und Konzepten der Quantenfeldtheorie auf.

Überblick über die Forschungsgeschichte

Die folgende Liste erhebt keinen Anspruch auf Vollständigkeit.

Entdeckung [16] Entdecker Entdeckungsjahr Anmerkungen
Linienspektren, Spektrometrie Bunsen, Kirchhoff 1860  
Photoeffekt Hallwachs 1886  
Rydberg-Formel Rydberg 1888 Empirische Formel für das Wasserstoffspektrum, die erst durch das Bohrsche Atommodell theoretisch untermauert werden konnte.
Feldemission von Elektronen Wood 1897 Erste Beobachtung des Tunnel-Effekts, der allerdings erst viel später verstanden wurde.
Plancksches Strahlungsgesetz Planck 1900 Erste Anwendung der Quantenhypothese; „Geburtsstunde“ der Quantenphysik.
Photonen Einstein 1905 Strahlung ist gequantelt.
Supraleitung Kamerlingh Onnes 1911  
Franck-Hertz-Versuch Franck, Hertz 1911–1914 In Atomen gibt es diskrete Energieniveaus.
Bohrsches Atommodell Bohr 1913 Erstes quantenphysikalisches Atommodell; 1916 von Sommerfeld verfeinert, inzwischen jedoch überholt.
Compton-Effekt Compton 1922 Photonen haben einen Impuls.
Stern-Gerlach-Experiment Stern, Gerlach 1922 Der Drehimpuls ist gequantelt.
Materiewellen de Broglie 1924 Begründung des Welle-Teilchen-Dualismus
Matrizenmechanik Heisenberg 1925 Erste strenge Formulierung der Quantenmechanik
Spin von Elektronen Goudsmit,Uhlenbeck, Pauli 1925  
Wellenmechanik Schrödinger 1926 Mathematisch äquivalent zur Matrizenmechanik
Lösung des Wasserstoffproblems Pauli, Schrödinger 1926 Energieniveaus und Orbitale der Elektronen im Wasserstoffatom
Fermi-Dirac-Statistik Fermi, Dirac 1926 Theorie des Fermionen-Gases und damit Grundlage für die Festkörperphysik, insbesondere bei Halbleitern.
Unschärferelation Heisenberg 1927 Ort und Impuls sind nicht zugleich beliebig genau bestimmt.
Davisson-Germer-Experiment Davisson, Germer 1927 Experimentelle Bestätigung der von de Broglie postulierten Materiewellen.
Relativistische Quantenmechanik Klein, Gordon, Dirac 1926–1928  
Tunneleffekt Gamow und andere 1928 Theoretische Erklärung für den Alpha-Zerfall und die Feldemission
Kernspinresonanz Rabi 1936  
Suprafluidität Kapiza et al. 1938  
Transistor Shockley, Brattain 1945 „Geburtsstunde“ der Mikroelektronik
Quantenelektrodynamik Feynman, Tomonaga, Schwinger 1947  
Solarzelle aus Halbleiter Bell Laboratories 1954  
Neutrino Cowan, Reines 1956 1930 von Pauli vorhergesagt.
BCS-Theorie Bardeen, Cooper, Schrieffer 1957 Quantenphysikalische Begründung der Supraleitung
Laser Maiman 1960  
Quarks Gell-Mann 1961  
Bellsche Ungleichung Bell 1964 Es gibt keine verborgenen Parameter, die das Verhalten eines quantenphysikalischen Systems bestimmen.
Elektroschwache Wechselwirkung Glashow, Salam, Weinberg 1967 Vereinigung der elektromagnetischen und der schwachen Wechselwirkung
CCD-Sensor Boyle, Smith 1969 Grundbaustein für die Digitalkamera
Mikroprozessor Texas Instruments, Intel 1970–1971  
Quantenchromodynamik Gell-Mann u. a. 1972 Theorie der starken Wechselwirkung, wesentlicher Bestandteil des Standardmodells
Magnetresonanztomographie Mansfield, Lauterbur 1973 Nutzung der Kernspinresonanz für ein bildgebendes Verfahren in der Medizin
Rastertunnelmikroskop Gerd Binnig, Rohrer 1981  
Quanten-Hall-Effekt von Klitzing 1985  
Flash-Speicher SanDisk 1994 Anwendung des Tunneleffekts in Speichermedien
Bose-Einstein-Kondensat Cornell, Ketterle, Wieman 1995 1924 von Albert Einstein vorhergesagter vierter Aggregatszustand
Quantenteleportation Zeilinger 1997 1935 hielten Einstein, Podolski und Rosen diesen Effekt der Quantenverschränkung für paradox.
Legende:   Experimentalphysik Theoretische Physik Technische Anwendung

Literatur

  • Marcelo Alonso, Edward J. Finn: Quantenphysik und Statistische Physik. 5., unveränderte Auflage. München: Oldenbourg Wissenschaftsverlag 2012, ISBN 978-3-486-71340-4
  • Stephen Gasiorowicz: Quantenphysik. 9. Auflage 2005. ISBN 978-3-486-27489-9

Einzelnachweise

  1. Hochspringen M. Planck: „Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum“, Verhandlungen der Deutschen physikalischen Gesellschaft 2(1900) Nr. 17, S. 237–245, Berlin (vorgetragen am 14. Dezember 1900)
  2. Hochspringen A. Einstein: „Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt“, Annalen der Physik 17 (1905), S. 132–148. (PDF)
  3. Hochspringen L. de Broglie: “Recherches sur la théorie des Quanta“, Doktorarbeit. Engl. Übersetzung (übers. A.F. Kracklauer): Ann. de Phys., 10e serie, t. III, (1925)
  4. Hochspringen G. P. Thomson: „The Diffraction of Cathode Rays by Thin Films of Platinum.“ Nature 120 (1927), 802
  5. Hochspringen C. Davisson, C.H. Kunsmann: THE SCATTERING OF ELECTRONS BY NICKEL In: Science Bd. 54 S. 1104
  6. Hochspringen C. Davisson and L. H. Germer: Diffraction of Electrons by a Crystal of Nickel In: Phys. Rev.. 30, Nr. 6, 1927 doi:10.1103/PhysRev.30.705
  7. Hochspringen W. Heisenberg: „Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen“ Zeitschrift für Physik 33 (1925), S. 879–893.
  8. Hochspringen M. Born, P. Jordan: „Zur Quantenmechanik“, Zeitschrift für Physik 34 (1925), 858
  9. Hochspringen M. Born, W. Heisenberg, P. Jordan: „Zur Quantenmechanik II“, Zeitschrift für Physik 35 (1926), 557
  10. Hochspringen E. Schrödinger: „Quantisierung als Eigenwertproblem I“, Annalen der Physik 79 (1926), 361-376. E. Schrödinger: „Quantisierung als Eigenwertproblem II“, Annalen der Physik 79 (1926), 489-527. E. Schrödinger: „Quantisierung als Eigenwertproblem III“, Annalen der Physik 80 (1926), 734-756. E. Schrödinger: „Quantisierung als Eigenwertproblem IV“, Annalen der Physik 81 (1926), 109-139
  11. Hochspringen E. Schrödinger: „Über das Verhältnis der Heisenberg-Born-Jordanschen Quantenmechanik zu der meinen“, Annalen der Physik 79 (1926), 734-756.
  12. Hochspringen P. A. M. Dirac: “Principles of Quantum Mechanics“, Oxford University Press, 1958, 4th. ed, ISBN 0-19-851208-2
  13. Hochspringen John von Neumann: “Mathematische Grundlagen der Quantenmechanik“, Springer Berlin, 1996, 2. Auflage. Engl. (autorisierte) Ausg. (übers. R. T Beyer): “Mathematical Foundations of Quantum Mechanics“, Princeton Univ. Press, 1955 (dort p. 28 sqq.)
  14. Hochspringen M. Planck, Das Weltbild der neuen Physik, Monatshefte für Mathematik, Springer, Wien, Bd. 36 (1929), S. 387–410. Auszug google books
  15. Hochspringen Richard Feynman: QED. Die seltsame Theorie des Lichts und der Materie 1987, ISBN 3-492-21562-9 – Eine leicht verständliche Einführung in die Quantenelektrodynamik
  16. Hochspringen Für Quellenangaben und weitere Informationen bitte die jeweils verlinkten Hauptartikel aufrufen.

 

Quantenfeldtheorie

Wechseln zu: Navigation, Suche

Die Quantenfeldtheorie (QFT) ist ein Gebiet der theoretischen Physik, in den Prinzipien klassischer Feldtheorien (zum Beispiel der klassischen Elektrodynamik) und der Quantenmechanik zur Bildung einer erweiterten Theorie kombiniert werden. Spezielle Theorien, die bestimmte physikalische Systeme mit den Methoden der Quantenfeldtheorie behandeln, werden als Quantenfeldtheorien bezeichnet.

Die Quantenfeldtheorie geht über die Quantenmechanik hinaus, indem sie Teilchen und Felder einheitlich beschreibt. Dabei werden nicht nur sog. Observable (also beobachtbare, nicht-wechselwirkende Größen wie Energie oder Impuls) quantisiert, sondern auch die wechselwirkenden (Teilchen-)Felder selbst; Felder und Observable werden also analog behandelt. Die Quantisierung der Felder bezeichnet man auch als Zweite Quantisierung. Diese berücksichtigt explizit die Entstehung und Vernichtung von Elementarteilchen (Paarerzeugung, Annihilation).

Die Methoden der Quantenfeldtheorie kommen vor allem in der Elementarteilchenphysik und in der statistischen Mechanik zur Anwendung. Man unterscheidet dabei zwischen relativistischen Quantenfeldtheorien, die die spezielle Relativitätstheorie berücksichtigen und häufig in der Elementarteilchenphysik Anwendung finden, und nicht-relativistischen Quantenfeldtheorien, die beispielsweise in der Festkörperphysik relevant sind.

Die Objekte und Methoden der QFT sind physikalisch motiviert, auch wenn viele Teilbereiche der Mathematik zum Einsatz kommen. Die Axiomatische Quantenfeldtheorie versucht dabei, Grundlagen und Konzepte in einen mathematisch rigorosen Rahmen zu fassen.

Motivation

Die Quantenfeldtheorie ist eine Weiterentwicklung der Quantenphysik über die Quantenmechanik hinaus. Die vorher existierenden Quantentheorien waren ihrem Aufbau nach Theorien für Systeme mit wenigen Teilchen. Um Systeme mit vielen Teilchen zu beschreiben ist zwar prinzipiell keine neue Theorie nötig, doch die Beschreibung von 1023 Teilchen in einem Festkörper ist mit den Methoden der Quantenmechanik ohne Näherungen aufgrund des hohen Rechenaufwands rein technisch unmöglich.

Ein fundamentales Problem der Quantenmechanik ist ihre Unfähigkeit, Systeme mit variierender Teilchenzahl zu beschreiben. Die ersten Versuche einer Quantisierung des elektromagnetischen Feldes zielten darauf ab, die Emission von Photonen durch ein Atom beschreiben zu können. Außerdem gibt es nach der relativistischen Klein-Gordon-Gleichung und der Dirac-Gleichung die oben erwähnten Antiteilchen-Lösungen. Bei ausreichender Energie ist es dann möglich, Teilchen-Antiteilchen-Paare zu erzeugen, was ein System mit konstanter Teilchenzahl unmöglich macht.

Zur Lösung dieser Probleme behandelt man das Objekt, das in der Quantenmechanik als Wellenfunktion eines Teilchens interpretiert wurde, als Quantenfeld. Das heißt, dass man es ähnlich behandelt, wie eine Observable der Quantenmechanik. Dies löst nicht nur die zuvor genannten Probleme, sondern beseitigt auch Inkonsistenzen der klassischen Elektrodynamik, wie sie z. B. in der Abraham-Lorentz-Gleichung auftreten. Außerdem erhält man Begründungen für das Pauli-Prinzip und das allgemeinere Spin-Statistik-Theorem.

Grundlagen

Die Quantenfeldtheorien sind ursprünglich als relativistische Streutheorien entwickelt worden. In gebundenen Systemen sind die Teilchenenergien im Allgemeinen deutlich kleiner als die Massenenergien mc2. Daher ist es in solchen Fällen meist ausreichend genau, in der nichtrelativistischen Quantenmechanik mit der Störungstheorie zu arbeiten. Bei Kollisionen zwischen kleinen Teilchen können jedoch sehr viel höhere Energien auftreten, so dass relativistische Effekte berücksichtigt werden müssen.

Im folgenden Abschnitt wird erklärt, welche Schritte zur Entwicklung einer relativistischen Streutheorie nötig sind. Zunächst wird dazu die Lagrangedichte aufgestellt, dann werden die Felder quantisiert. Zuletzt wird mit den quantisierten Feldern eine Streutheorie beschrieben und ein dabei auftretendes Problem durch die Renormierung gelöst.

Lagrangedichte

Der erste Schritt zu einer Quantenfeldtheorie besteht darin, Lagrangedichten für die Quantenfelder zu finden. Diese Lagrangedichten müssen als Euler-Lagrange-Gleichung die im Allgemeinen bekannte Differentialgleichung für das Feld liefern. Das sind für ein Skalarfeld die Klein-Gordon-Gleichung, für ein Spinorfeld die Dirac-Gleichung und für das Photon die Maxwellgleichungen.

Im Folgenden wird immer 4er-(Raumzeit)-Vektoren-Schreibweise verwendet. Dabei werden die üblichen Kurzschreibweisen benutzt, nämlich die Kurzschreibweise \textstyle \partial_{\mu} = \frac{\partial}{\partial x^{\mu}} für Differentiale und die Einsteinsche Summenkonvention, die besagt, dass über einen oben und einen unten stehenden Index (von 0 bis 3) summiert wird. Im verwendeten Einheitensystem gilt: c = \hbar = 1.

Lagrangedichten verschiedener Felder
Feld Feldgleichung Lagrangedichte
Skalar \phi\ (Spin = 0) 0 = (\square + m^2) \phi \mathcal{L} = (\partial_{\mu} \phi^{\dagger})(\partial^{\,\mu} \phi) - m^2 \phi^{\dagger} \phi
Spinor \psi\ (Spin = 1/2) 0 = (i \gamma^{\mu} \partial_{\mu} - m) \psi \mathcal{L} = \tfrac{i}{2} \left( \overline{\psi} \gamma^{\mu} (\partial_{\mu} \psi) - (\partial_{\mu} \overline{\psi}) \gamma^{\mu} \psi \right) - m \overline{\psi} \psi
Photon A^{\mu}\ (Spin 1) 0 = \partial_{\mu} F^{\mu\nu} = \square A^{\nu} - \partial^{\nu} (\partial_{\mu} A^{\mu}) \mathcal{L} = - \tfrac{1}{4} F_{\mu\nu} F^{\mu\nu} = - \tfrac{1}{2} (\partial_{\mu} A_{\nu})(\partial^{\mu} A^{\nu} - \partial^{\nu} A^{\mu})

Dabei bezeichnet \gamma^{\mu} die Dirac-Matrizen. \overline{\psi} = \psi^{\dagger} \gamma^0 ist der sogenannte adjungierte Spinor. F_{\mu\nu} = \partial_{\mu} A_{\nu} - \partial_{\nu} A_{\mu} sind die Komponenten des Feldstärketensors. Dabei wurden hier die Maxwellgleichungen in kovarianter Formulierung ohne die Quellenterme (Ladungs- und Stromdichte) benutzt.

Die oben aufgeführten Lagrangedichten beschreiben freie Felder, die nicht wechselwirken. Sie ergeben die Bewegungsgleichungen für freie Felder. Für Wechselwirkungen der Felder untereinander müssen den Lagrangedichten zusätzliche Terme hinzugefügt werden. Dabei ist auf folgende Punkte zu achten:

  1. Die hinzugefügten Terme müssen alle skalar sein. Das bedeutet, dass sie invariant unter Poincaré-Transformationen sind.
  2. Die hinzugefügten Terme müssen die Dimension (Länge)−4 haben, da die Lagrangedichte in der skalaren Wirkung über die Raumzeit integriert wird. Dies lässt sich gegebenenfalls durch einen konstanten Faktor mit passender Dimension erreichen. Solche Faktoren nennt man Kopplungskonstanten.
  3. Bei Wechselwirkungen von Eichfeldern wie dem Photon mit anderen Feldern muss die Lagrangedichte eichkovariant sein. Das heißt, die Form der Lagrangedichte unter Eichtransformationen darf sich nicht ändern.

Erlaubte Terme sind zum Beispiel k (\overline{\psi}\psi)^n(\phi^{\dagger}\phi)^m\,, wobei m und n natürliche Zahlen sind (einschließlich Null) und k die Kopplungskonstante ist. Wechselwirkungen mit dem Photon werden meist durch die kovariante Ableitung (\partial_{\mu} \rightarrow \partial_{\mu} + i e A_{\mu}) in der Lagrangedichte für das freie Feld realisiert. Dabei ist die elektrische Ladung e des Elektrons hier zugleich die Kopplungskonstante des elektromagnetischen Feldes.

Feldquantisierung

Bisher wurde noch keine Aussage über die Eigenschaften der Felder gemacht. Bei starken Feldern mit einer großen Zahl von Bosonen-Anregungen können diese halbklassisch behandelt werden, im Allgemeinen muss man aber zunächst einen Mechanismus entwickeln, um die Auswirkungen der Quantennatur der Felder zu beschreiben. Die Entwicklung eines solchen Mechanismus bezeichnet man als Feldquantisierung und sie ist der erste Schritt, um das Verhalten der Felder berechenbar zu machen. Es gibt dabei zwei verschiedene Formalismen, die unterschiedliches Vorgehen beinhalten.

  • Der ältere kanonische Formalismus lehnt sich an den Formalismus der Quantenmechanik an. Er ist gut geeignet, um fundamentale Eigenschaften der Felder, wie das Spin-Statistik-Theorem zu zeigen. Sein Nachteil ist jedoch, dass viele Aspekte in diesem Formalismus recht willkürlich wirken. Außerdem ist die Berechnung von Wechselwirkungsamplituden und die Feldquantisierung bei nicht-abelschen Eichtheorien recht kompliziert.
  • Der neuere Pfadintegral-Formalismus baut auf dem Prinzip der kleinsten Wirkung auf, das heißt, es wird über alle Feldkonfigurationen integriert, sich nicht aufhebende Beiträge kommen aber bei schwacher Kopplung nur von Pfaden in der Nähe der Minima der Wirkung. Der Vorteil dieses Formalismus ist, dass sich die Berechnung von Wechselwirkungsamplituden als vergleichsweise einfach darstellt und die Symmetrien der Felder klar zum Ausdruck kommen. Der aus mathematischer Sicht schwerwiegende Mangel dieses Formalismus ist, dass die Konvergenz des Pfadintegrals und damit das Funktionieren der Methoden des Formalismus nicht mathematisch streng bewiesen ist. Er wird daher besonders in der mathematischen Physik teilweise als heuristisch und „unpräzise“ bzw. „nichtkonstruktiv“ abgelehnt, obwohl er zugleich als Ausgangspunkt der Gittereichtheorien dient, die eines der Hauptwerkzeuge der numerischen Behandlung von Quantenfeldtheorien sind.

Im Folgenden werden die Grundlagen der Feldquantisierung für freie Felder in beiden Formalismen erklärt.

Kanonischer Formalismus

Für die Feldquantisierung im kanonischen Formalismus benutzt man den Hamilton-Formalismus der klassischen Mechanik. Man ordnet dabei jedem Feld (\phi bzw. \psi) ein kanonisch konjugiertes Feld \pi analog dem kanonischen Impuls zu. Das Feld und sein kanonisch konjugiertes Feld sind dann im Sinne der Quantenmechanik konjugierte Operatoren, sogenannte Feldoperatoren, und erfüllen eine Unschärferelation, wie Ort und Impuls in der Quantenmechanik. Die Unschärferelation kann entweder durch eine Kommutatorrelation (für Bosonen nach dem Spin-Statistik-Theorem) oder eine Antikommutatorrelation (für Fermionen) analog zum Kommutator von Ort und Impuls realisiert werden. Diese Relation muss einen positiven Hamilton-Operator ergeben, da dieser die Energie des Systems charakterisiert und negative Energien vermieden werden sollen. Den Hamilton-Operator erhält man, indem man die Hamilton-Funktion bildet und dann die Felder durch Operatoren ersetzt.

Skalare Felder

Für skalare Felder erhält man \pi = \partial_0 \phi^{\dagger} als kanonisch konjugiertes Feld zu \,\phi und \pi^{\dagger} = \partial_0 \phi als kanonisch konjugiertes Feld zu \phi^{\dagger}\ . Die geforderte Kommutatorrelation lautet

[\phi(\vec{x},t) , \pi(\vec{y},t)] = [ \phi^{\dagger}(\vec{x},t) , \pi^{\dagger}(\vec{y},t)] = i \delta^{(3)}(\vec{x} - \vec{y}).

Es ist in Quantenfeldtheorien üblich, im Impulsraum zu rechnen. Dazu betrachtet man die Fourier-Darstellung des Feldoperators, die für das Skalarfeld lautet

\phi (x) = \int \frac{\mathrm d^4 k}{(2\pi)^4} 2\pi \delta^{(4)}(k^2 - m^2) \theta(k_0) \left[a(k) e^{-ikx} + b^{\dagger}(k) e^{ikx} \right].

Dabei sind \,k der Impuls und \,\theta(k_0) die Stufenfunktion, die bei negativem Argument 0 und sonst 1 ist. Da \,\phi(x) und \,\phi^{\dagger}(x) Operatoren sind, trifft dies auch auf \,a(k), a^{\dagger}(k), \,b(k) und b^{\dagger}(k) zu. Ihre Kommutatoren folgen aus dem Kommutator der Feldoperatoren. Der Operator a^{\dagger}(k) kann als Operator interpretiert werden, der ein Teilchen mit Impuls \,k erzeugt, während b^{\dagger}(k) ein Antiteilchen mit Impuls \,k erzeugt. Entsprechend können \,a(k) und \,b(k) als Operatoren interpretiert werden, die ein Teilchen oder Antiteilchen mit Impuls \,k vernichten. Die Verwendung der Kommutatorrelationen führt wie gewünscht zu einem positiv definiten Hamilton-Operator. Es können beliebig viele Skalarfelder im selben Zustand sein (Bose-Einstein-Statistik).

Spinorfelder

Wenn man für ein Spinorfeld analog vorgeht, erhält man \pi = i \psi^{\dagger}\ als kanonisch konjugiertes Feld zu \psi\ und \overline{\pi} = i \gamma^0 \psi als kanonisch konjugiertes Feld zu \overline{\psi}\ . Damit ergeben sich die geforderten (Anti-)Kommutatorrelationen zu

 \{\psi_j(\vec{x},t) , \pi_k(\vec{y},t)\} = \{ \overline{\psi}_j(\vec{x},t) , \overline{\pi}_k(\vec{y},t)\} = i \delta_{jk} \delta^{(3)}(\vec{x} - \vec{y}).

Dabei sind j und k Spinorindizes. Man betrachtet dann wieder analog die Fourier-Darstellung des Feldoperators und berechnet den Hamilton-Operator. Einen positiven Hamilton-Operator erhält man beim Spinorfeld jedoch nur, wenn man Antikommutatoren benutzt. Diese werden mit geschweiften Klammern geschrieben, was in den obigen Formeln bereits vorweggenommen wurde. Aufgrund dieser Antikommutatoren ergibt die zweimalige Anwendung desselben Erzeugungsoperators auf einen Zustand den Nullzustand. Das bedeutet, dass nie zwei Spin-1/2-Teilchen im selben Zustand sein können (Pauli-Prinzip). Spinorfelder gehorchen daher der Fermi-Dirac-Statistik.

Eichfelder

Für Eichfelder lauten die geforderten Kommutatorrelationen

[A_{\mu}(\vec{x},t) , \pi_{\nu}(\vec{y},t)] = i g_{\mu\nu} \delta^{(3)}(\vec{x} - \vec{y}),

wobei g_{\mu\nu} die Komponenten der Minkowski-Metrik bezeichnet. Allerdings erhält man aus der Lagrangedichte \,\pi_0 = 0, was die geforderte Kommutatorrelation nicht erfüllen kann. Die Quantisierung von Eichfeldern ist daher nur bei Festlegung einer Eichbedingung möglich. Die Festlegung einer geeigneten Eichbedingung, die den Zugang über Kommutatorrelationen von Feldern ermöglicht und gleichzeitig die Lorentzinvarianz der Lagrangedichte erhält, ist kompliziert. Man verwendet meist eine Abwandlung der Lorenz-Eichung, um sinnvoll ein kanonisch konjugiertes Feld definieren zu können. Der Formalismus wird nach seinen Entwicklern Suraj N. Gupta und Konrad Bleuler als Gupta-Bleuler-Formalismus bezeichnet.

Pfadintegral

Hauptartikel: Pfadintegral

Im Pfadintegralformalismus werden die Felder nicht als Operatoren, sondern als einfache Funktionen behandelt. Das Pfadintegral stellt im Wesentlichen eine Übergangsamplitude von einem Vakuumzustand zum Zeitpunkt t=-\infty zu einem Vakuumzustand zum Zeitpunkt t=\infty dar, wobei über alle dazwischen möglichen Feldkonfigurationen (Pfade) integriert wird, mit einem Phasenfaktor, der durch die Wirkung festgelegt wird. Es hat für das Skalarfeld die Form

Z \propto \int \mathcal{D}\phi \, \exp{\left\{ i \int \mathrm{d}^4x \mathcal{L}(\phi) \right\}}.

Um allerdings überhaupt Wechselwirkungen bei einem Übergang vom Vakuum zum Vakuum zu erhalten, müssen Felder erzeugt und vernichtet werden können. Dies wird im Pfadintegralformalismus nicht mithilfe von Erzeugungs- und Vernichtungsoperatoren, sondern durch Quellenfelder erzielt. Es wird also zur Lagrangedichte ein Quellenterm der Form J^{\dagger}(x)\phi(x) + \phi^{\dagger}(x)J(x)\ hinzugefügt. Das Quellenfeld J(x) soll nur in einem endlichen Intervall auf der Zeitachse von Null verschieden sein. Das bedeutet, dass die wechselwirkenden Felder genau innerhalb dieses Zeitintervalls existieren. Das volle Pfadintegral für ein freies Skalarfeld hat damit die Form

Z[J] \propto \int \mathcal{D}\phi \, \exp{\left\{ i \int \mathrm{d}^4x \left[ (\partial_{\mu} \phi^{\dagger})(\partial^{\,\mu} \phi) - m^2 \phi^{\dagger} \phi + J^{\dagger} \phi + \phi^{\dagger} J \right]\right\}}.

Das lässt sich wegen der Integration über \,\phi mit einem Analogon des gaußschen Fehlerintegrals in eine Form bringen, die in bestimmter Weise nur noch vom Quellenfeld J(x) abhängt, und zwar:

Z[J] \propto \exp{\left\{-i \int J^{\dagger}(x) \Delta_F (x-y) J(y)\, \mathrm{d}^4 x\, \mathrm{d}^4 y \right\}}.

Dabei ist \Delta_F gegeben durch (\square + m^2)\Delta_F(x) = - \delta^{(4)}(x) also gewissermaßen als das Inverse des Klein-Gordon-Operators. Dieses Objekt wird als zeitgeordnete Greensche Funktion oder Feynman-Propagator bezeichnet. Man bezeichnet das Pfadintegral daher auch als Erzeugendenfunktional des Propagators, da die Ableitungen nach J^{\dagger} und \,J effektiv einer Multiplikation mit dem Propagator entsprechen.

Das Verhalten des freien Feldes in Anwesenheit von Quellen wird nur durch den Propagator und das Quellenfeld bestimmt. Dieses Ergebnis entspricht der Erwartung, denn das Verhalten eines Feldes, das nicht wechselwirkt, ist offenbar nur durch seine Eigenschaften bei Erzeugung und Vernichtung und seine freie Bewegung bestimmt. Erstere stecken im Quellenfeld und das Bewegungsverhalten wird durch den Klein-Gordon-Operator bestimmt, dessen Informationsgehalt hier durch sein Inverses gegeben ist.

Bei der Quantisierung des Spinorfeldes im Pfadintegral-Formalismus tritt das Problem auf, dass die Felder einerseits wie normale zahlenwertige Funktionen behandelt werden, auf der anderen Seite jedoch antikommutieren. Normale Zahlen kommutieren jedoch. Diese Schwierigkeit lässt sich lösen, indem man die Fermionfelder als Elemente einer Graßmann-Algebra, sogenannte Graßmann-Zahlen, auffasst. Rechnerisch bedeutet das nur, dass man sie wie antikommutierende Zahlen behandelt. Durch die Graßmann-Algebra ist diese Vorgehensweise theoretisch abgesichert. Das Pfadintegral mit Quellenfeldern \overline{\eta}\ und \eta\ hat dann die Form

Z[\eta,\overline{\eta}] \propto \int \mathcal{D}\overline{\psi}\mathcal{D}\psi \, \exp{\left\{ i \int \mathrm{d}^4x \left[\, \overline{\psi}(i \gamma^{\,\mu}\partial_{\mu} - m) \psi + \overline{\eta} \psi + \overline{\psi} \eta \right]\right\}}.

Daraus lässt sich, wie beim skalaren Feld, eine Form ableiten, die in bestimmter Weise nur noch von \overline{\eta }\ und \eta \ abhängt. Dabei lässt sich erneut ein Analogon des gaußschen Integrals anwenden, das allerdings nicht dem gewohnten Formalismus entspricht, sondern in gewisser Weise dazu „invers“ ist. Zunächst ist es jedenfalls nötig, einen Integralbegriff für Graßmann-Zahlen zu entwickeln. Dann lässt sich das Pfadintegral in die folgende Form bringen:

Z[\eta,\overline{\eta}] \propto \exp{\left\{-i \int \overline{\eta}(x) S (x-y) \eta(y)\, \mathrm{d}^4x\, \mathrm{d}^4y \right\}}.

Dabei ist S = (i \gamma^{\,\mu}\partial_{\mu} + m)\Delta_F das Inverse des Dirac-Operators, das auch als Dirac-Propagator bezeichnet wird. Analog zum skalaren Feld ergibt sich auch hier eine Form, die erwartungsgemäß nur von den Quellenfeldern und der Dynamik der Felder bestimmt ist.

Das Pfadintegral für ein Eichfeld ist von der Form

Z \propto \int \mathcal{D}A_{\mu} \, \exp{\left\{ i \int \mathrm{d}^4x \left[- \frac{1}{2} A^{\mu}(g_{\mu\nu}\square - \partial_{\mu} \partial_{\nu}) A^{\nu} \right]\right\}}.

Der Operator (g_{\mu\nu}\square - \partial_{\mu} \partial_{\nu})\ hat jedoch kein Inverses. Das erkennt man daran, dass er bei Anwendung auf Vektoren des Typs \partial_{\mu} v Null ergibt. Mindestens einer seiner Eigenwerte ist also Null, was analog einer Matrix dafür sorgt, dass der Operator nicht invertierbar ist.

Daher lässt sich hier nicht dieselbe Vorgehensweise anwenden, wie beim skalaren Feld und beim Spinorfeld. Man muss der Lagrangedichte einen zusätzlichen Term hinzufügen, so dass man einen Operator erhält, zu dem es ein Inverses gibt. Dies ist äquivalent dazu, eine Eichung festzulegen. Daher bezeichnet man den neuen Term als eichfixierenden Term. Er ist allgemein von der Form \mathcal{L}_{gf} = \tfrac{1}{2\alpha} f^2(A_{\mu}). Die dazu korrespondierende Eichbedingung lautet f(A_{\mu}) \stackrel{!}{=} 0\ .

Das führt jedoch dazu, dass die Lagrangedichte von der Wahl des Eichterms f abhängt. Dieses Problem lässt sich durch das Einführen von sogenannten Faddejew-Popow-Geistern beheben. Diese Geister sind antikommutierende skalare Felder und widersprechen damit dem Spin-Statistik-Theorem. Sie können daher nicht als freie Felder auftreten, sondern nur als sogenannte virtuelle Teilchen. Durch die Wahl der sogenannten Axial-Eichung lässt sich das Auftreten dieser Felder vermeiden, was ihre Interpretation als mathematische Artefakte naheliegend erscheinen lässt. Ihr Auftreten in anderen Eichungen ist jedoch aus tieferliegenden theoretischen Gründen (Unitarität der S-Matrix) zwingend notwendig für die Konsistenz der Theorie.

Die vollständige Lagrangedichte mit eichfixierendem Term und Geistfeldern ist von der Eichbedingung abhängig. Für die Lorenz-Eichung lautet sie bei nichtabelschen Eichtheorien

\mathcal L(A, \overline{\eta } ,\eta ) = - \frac{1}{4} F_{\mu\nu} F^{\mu\nu} - \frac{1}{2\alpha} (\partial_{\mu} A^{\mu})^2 - \overline{\eta} \partial^{\,\mu} (\partial_{\mu} - i g A_{\mu}) \eta

Dabei ist \eta\ das Geistfeld und \overline{\eta} das Anti-Geistfeld.

Für abelsche Eichtheorien wie den Elektromagnetismus nimmt der letzte Term unabhängig von der Eichung die Form  \overline{\eta} \square \eta an. Daher kann dieser Teil des Pfadintegrals einfach integriert werden und trägt nicht zur Dynamik bei.

Das Pfadintegral liefert auch einen Zusammenhang mit den Verteilungsfunktionen der statistischen Mechanik. Dazu wird die imaginäre Zeitkoordinate im Minkowskiraum analytisch in den euklidischen Raum fortgesetzt und statt komplexer Phasenfaktoren im Wegintegral erhält man reelle ähnlich den Boltzmann-Faktoren der statistischen Mechanik. In dieser Form ist diese Formulierung auch Ausgangspunkt von numerischen Simulationen der Feldkonfigurationen (meist zufällig im Monte-Carlo-Verfahren mit einer Wichtung über diese Boltzmannfaktoren ausgewählt) in Gitter-Rechnungen. Sie liefern die bisher genauesten Methoden z. B. für die Berechnung von Hadronmassen in der Quantenchromodynamik.

Streuprozesse

Wie oben schon ausgeführt, ist das Ziel der vorangegangenen Verfahren die Beschreibung einer relativistischen Streutheorie. Obwohl die Methoden der Quantenfeldtheorien heute auch in anderen Zusammenhängen genutzt werden, ist die Streutheorie noch heute eines ihrer Hauptanwendungsgebiete, daher werden die Grundlagen derselben an dieser Stelle erläutert.

Das zentrale Objekt der Streutheorie ist die sogenannte S-Matrix oder Streumatrix, deren Elemente die Übergangswahrscheinlichkeit von einem Anfangszustand |\alpha_{in}\rangle in einen Ausgangszustand |\beta_{out}\rangle beschreiben. Die Elemente der S-Matrix bezeichnet man als Streuamplituden. Auf der Ebene der Felder ist die S-Matrix also bestimmt durch die Gleichung

\phi_{out}(x) = S^{\dagger} \phi_{in}(x) S\ .

Die S-Matrix lässt sich im Wesentlichen als Summe von Vakuumerwartungswerten von zeitgeordneten Feldoperatorprodukten (auch n-Punkt-Funktionen, Korrelatoren oder Greensche Funktionen genannt) schreiben. Ein Beweis dieser sogenannten LSZ-Zerlegung ist einer der ersten großen Erfolge der axiomatischen Quantenfeldtheorie. Im Beispiel einer Quantenfeldtheorie, in der es nur ein Skalarfeld gibt, hat die Zerlegung die Form

S = \sum_{n\ge 0} \frac{1}{n!} \left( \prod_{i=0}^n \phi (x_i) K(x_i) \right) \langle 0| T \left( \phi(x_1) \, ... \, \phi(x_n) \right) |0 \rangle

Dabei ist K der Klein-Gordon-Operator und T der Zeitordnungsoperator, der die Felder aufsteigend nach dem Wert der Zeit x_i^0 ordnet. Falls noch andere Felder als das Skalarfeld vorkommen, müssen jeweils die entsprechenden Hamilton-Operatoren verwendet werden. Für ein Spinorfeld muss z. B. der Dirac-Operator statt des Klein-Gordon-Operators verwendet werden.

Zur Berechnung der S-Matrix genügt es also, die zeitgeordneten n-Punkt-Funktionen \langle 0| T \left( \phi(x_1) \, ... \, \phi(x_n) \right) |0 \rangle berechnen zu können.

Feynman-Regeln und Störungstheorie

Als nützliches Werkzeug zur Vereinfachung der Berechnungen der n-Punkt-Funktionen haben sich die Feynman-Diagramme erwiesen. Diese Kurzschreibweise wurde 1950 von Richard Feynman entwickelt und nutzt aus, dass sich die Terme, die bei der Berechnung der n-Punkt-Funktionen auftreten, in eine kleine Anzahl elementarer Bausteine zerlegen lassen. Diesen Term-Bausteinen werden dann Bildelemente zugeordnet. Diese Regeln, nach denen diese Zuordnung geschieht, bezeichnet man als Feynman-Regeln. Die Feynman-Diagramme ermöglichen es damit, komplizierte Terme in Form kleiner Bilder darzustellen.

Dabei gibt es zu jedem Term in der Lagrangedichte ein entsprechendes Bildelement. Der Massenterm wird dabei zusammen mit dem Ableitungsterm als ein Term behandelt, der das freie Feld beschreibt. Diesen Termen werden für verschiedene Felder meist verschiedene Linien zugeordnet. Den Wechselwirkungstermen entsprechen dagegen Knotenpunkte, sogenannte Vertices, an denen für jedes Feld, das im Wechselwirkungsterm steht, eine entsprechende Linie endet. Linien, die nur an einem Ende mit dem Diagramm verbunden sind, werden als reale Teilchen interpretiert, während Linien, die zwei Vertices verbinden als virtuelle Teilchen interpretiert werden. Es lässt sich auch eine Zeitrichtung im Diagramm festlegen, so dass es als eine Art Veranschaulichung des Streuprozesses interpretiert werden kann. Dabei muss man jedoch zur vollständigen Berechnung einer bestimmten Streuamplitude alle Diagramme mit den entsprechenden Anfangs- und Endteilchen berücksichtigen. Wenn die Lagrangedichte der Quantenfeldtheorie Wechselwirkungsterme enthält, sind dies im Allgemeinen unendlich viele Diagramme.

Wenn die Kopplungskonstante kleiner ist als eins, werden die Terme mit höheren Potenzen der Kopplungskonstante immer kleiner. Da nach den Feynmanregeln jeder Vertex für die Multiplikation mit der entsprechenden Kopplungskonstante steht, werden die Beiträge von Diagrammen mit vielen Vertices sehr klein. Die einfachsten Diagramme liefern also den größten Beitrag zur Streuamplitude, während die Diagramme mit zunehmender Kompliziertheit gleichzeitig immer kleinere Beiträge liefern. Auf diese Weise lassen sich die Prinzipien der Störungstheorie unter Erzielung guter Ergebnisse für die Streuamplituden anwenden, indem nur die Diagramme niedriger Ordnung in der Kopplungskonstanten berechnet werden.

Renormierung

Hauptartikel: Renormierung

Die Feynman-Diagramme mit geschlossenen inneren Linien, die sogenannten Schleifendiagramme (z. B. Wechselwirkung eines Elektrons mit „virtuellen“ Photonen aus dem Vakuum, Wechselwirkung eines Photons mit virtuell erzeugten Teilchen-Antiteilchen Paaren aus dem Vakuum), sind meist divergent, da über alle Energien/Impulse (Frequenz/Wellenzahl) integriert wird. Das hat zur Folge, dass sich kompliziertere Feynman-Diagramme zunächst nicht berechnen lassen. Dieses Problem lässt sich jedoch häufig durch ein sogenanntes Renormierungsverfahren beheben, nach einer falschen Rückübersetzung aus dem Englischen auch manchmal als „Renormalisierung“ bezeichnet.

Es gibt grundsätzlich zwei verschiedene Sichtweisen auf diese Prozedur. Die erste traditionelle Sichtweise ordnet die Beiträge der divergierenden Schleifendiagramme so an, dass sie wenigen Parametern in der Lagrangefunktion wie Massen und Kopplungskonstanten entsprechen. Dann führt man Gegenterme (counter terms) in der Lagrangefunktion ein, die als unendliche „nackte“ Werte dieser Parameter diese Divergenzen aufheben. Das ist in der Quantenelektrodynamik möglich, ebenso in der Quantenchromodynamik und anderen solchen Eichtheorien, bei anderen Theorien wie der Gravitation dagegen nicht. Dort wären unendlich viele Gegenterme nötig, die Theorie ist „nicht renormierbar“.

Eine zweite neuere Sichtweise aus dem Umfeld der Renormierungsgruppe beschreibt die Physik je nach Energiebereich durch verschiedene „effektive“ Feldtheorien. Beispielsweise ist die Kopplungskonstante in der Quantenchromodynamik energieabhängig, für kleine Energien geht sie gegen Unendlich (confinement), für hohe Energien gegen Null (Asymptotische Freiheit). Während in der QED die „nackten“ Ladungen durch die Vakuumpolarisation (Paarerzeugung und -vernichtung) wirksam abgeschirmt werden, liegt der Fall bei Yang-Mills-Theorien wie der QCD wegen der Selbstwechselwirkung der geladenen Eichbosonen komplizierter.

Man vermutet, dass sich alle Kopplungskonstanten physikalischer Theorien bei genügend hohen Energien annähern, und dort wird die Physik dann durch eine große vereinheitlichte Theorie der Grundkräfte beschrieben. Das Verhalten von Kopplungskonstanten und die Möglichkeit von Phasenübergängen mit der Energie wird durch die Theorie der Renormierungsgruppe beschrieben. Aus solchen theoretischen Extrapolationen hat es in den 1990er Jahren erste Hinweise auf die Existenz supersymmetrischer Theorien gegeben, für die sich die Kopplungskonstanten am besten in einem Punkt treffen.

Die technische Vorgehensweise ist jedoch unabhängig von der Sichtweise. Es wird zunächst eine sogenannte Regularisierung vorgenommen, indem ein zusätzlicher Parameter in die Rechnung eingeführt wird. Dieser Parameter muss zuletzt wieder gegen null oder unendlich laufen (je nach Wahl) um die ursprünglichen Terme wieder zu erhalten. Solange der Regularisierungsparameter jedoch als endlich angenommen wird, bleiben die Terme endlich. Man formt dann die Terme so um, dass die Unendlichkeiten nur noch in Termen auftreten, die reine Funktionen des Regularisierungsparameters sind. Diese Terme werden dann weggelassen. Danach setzt man den Regulierungsparameter null bzw. unendlich, wobei das Ergebnis nun endlich bleibt.

Diese Vorgehensweise wirkt auf den ersten Blick willkürlich, doch das „Weglassen“ muss nach bestimmten Regeln erfolgen. Dadurch wird sichergestellt, dass die renormierten Kopplungskonstanten bei niedrigen Energien den gemessenen Konstanten entsprechen.

Antiteilchen

Hauptartikel: Antiteilchen

Ein spezielles Gebiet der relativistischen Quantenmechanik betrifft Lösungen der relativistischen Klein-Gordon-Gleichung und der Dirac-Gleichung mit negativer Energie. Dies würde es Teilchen erlauben, zu unendlicher negativer Energie abzusteigen, was in der Realität nicht beobachtet wird. In der Quantenmechanik löst man dieses Problem, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen; man überträgt also in der Wellenfunktion das negative Vorzeichen von der Energie E auf die Zeit t, was wegen der Beziehung \Delta E=h/\Delta t naheliegend ist ( h  ist die Plancksche Konstante und h\Delta f\,\,(=h/\Delta t) das der Energiedifferenz \Delta E zugeordnete Frequenzintervall).

Paul Dirac interpretierte diese rückwärts bewegten Lösungen als Antiteilchen.

Konkrete Quantenfeldtheorien

Standardmodell

Hauptartikel: Standardmodell

Durch Kombination des elektroschwachen Modells mit der Quantenchromodynamik entsteht eine vereinte Quantenfeldtheorie, das so genannte Standardmodell der Elementarteilchenphysik. Es enthält alle bekannten Teilchen und kann die meisten bekannten Vorgänge erklären.

Gleichzeitig ist aber bekannt, dass das Standardmodell nicht die endgültige Theorie sein kann. Zum einen ist die Gravitation nicht enthalten, zum anderen gibt es eine Reihe von Beobachtungen (Neutrinooszillationen, Dunkle Materie), nach denen eine Erweiterung des Standardmodells notwendig scheint. Außerdem enthält das Standardmodell viele willkürliche Parameter und erklärt z. B. das sehr unterschiedliche Massenspektrum der Elementarteilchenfamilien nicht.

Die im Folgenden erläuterten Quantenfeldtheorien sind alle im Standardmodell enthalten.

\phi^4-Theorie

Die Lagrangedichte der \phi^4-Theorie lautet

\mathcal{L}=(\partial_\mu \phi^{\dagger})(\partial^\mu \phi) -m^2 \phi^{\dagger} \phi -\frac{\lambda}{4}(\phi^{\dagger} \phi)^2

Diese Quantenfeldtheorie besitzt große theoretische Bedeutung, da sie die einfachste denkbare Quantenfeldtheorie mit einer Wechselwirkung ist und hier im Gegensatz zu realistischeren Modellen einige exakte mathematische Aussagen über ihre Eigenschaften gemacht werden können. Sie beschreibt ein selbstwechselwirkendes reelles oder komplexes Skalarfeld.

In der statistischen Physik spielt sie eine Rolle als einfachstes Kontinuumsmodell für die (sehr allgemeine) Landau-Theorie der Phasenübergänge zweiter Ordnung und der kritischen Phänomene. Von der statistischen Interpretation aus bekommt man zugleich einen neuen und konstruktiven Zugang zum Renormierungsproblem, indem gezeigt wird, dass die Renormierung der Massen, Ladungen und Vertex-Funktionen durch Eliminierung kurzwelliger Wellenphänomene aus der sog. Zustandssumme \mathcal Z (englisch: „Partition Function“) erreicht werden kann. Auch das Higgsfeld des Standardmodells hat eine \phi^4-Selbstwechselwirkung, die allerdings noch um Wechselwirkungen mit den anderen Feldern des Standardmodells ergänzt wird. In diesen Fällen ist die Kopplungskonstante m2 negativ, was einer imaginären Masse entspräche. Diese Felder werden daher als tachyonische Felder bezeichnet. Diese Bezeichnung bezieht sich jedoch auf das Higgsfeld und nicht auf das Higgs-Teilchen, das sog. Higgs-Boson, welches kein Tachyon, sondern ein gewöhnliches Teilchen mit reeller Masse ist. Das Higgsteilchen wird auch nicht durch das Higgsfeld beschrieben sondern nur durch einen bestimmten Anteil dieses Feldes.

Quantenelektrodynamik

Hauptartikel: Quantenelektrodynamik

Die Lagrangedichte der Quantenelektrodynamik (QED) lautet

\mathcal{L} = i \overline{\psi} \gamma^{\mu} (\partial_{\mu} - i e A_{\mu}) \psi - m \overline{\psi} \psi - \frac{1}{4} F_{\mu\nu} F^{\mu\nu}

Die QED ist die erste physikalisch erfolgreiche Quantenfeldtheorie. Sie beschreibt die Wechselwirkung eines Spinorfeldes mit Ladung -e, das das Elektron beschreibt, mit einem Eichfeld, das das Photon beschreibt. Man erhält ihre Bewegungsgleichungen aus der Elektrodynamik durch Quantisierung der maxwellschen Gleichungen. Die Quantenelektrodynamik erklärt mit hoher Genauigkeit die elektromagnetische Wechselwirkung zwischen geladenen Teilchen (zum Beispiel Elektronen, Myonen, Quarks) mittels Austausch von virtuellen Photonen sowie die Eigenschaften von elektromagnetischer Strahlung.

Dadurch lassen sich etwa die chemischen Elemente, ihre Eigenschaften und Bindungen und das Periodensystem der Elemente verstehen. Auch die Festkörperphysik mit der wirtschaftlich bedeutsamen Halbleiterphysik leiten sich letztendlich von der QED ab. Konkrete Rechnungen werden allerdings in der Regel im vereinfachten, aber ausreichenden Formalismus der Quantenmechanik durchgeführt.

Schwache Wechselwirkung

Hauptartikel: Schwache Wechselwirkung

Die schwache Wechselwirkung, deren bekanntester Effekt der Betazerfall ist, nimmt eine physikalisch geschlossene Formulierung nach Vereinheitlichung mit der QED im elektroschwachen Standardmodell an. Die Wechselwirkung wird hier durch Photonen, W- und Z-Bosonen vermittelt.

Quantenchromodynamik

Hauptartikel: Quantenchromodynamik

Ein anderes Beispiel einer QFT ist die Quantenchromodynamik (QCD), welche die Starke Wechselwirkung beschreibt. In ihr wird ein Teil der im Atomkern auftretenden Wechselwirkungen zwischen Protonen und Neutronen auf die subnukleare Wechselwirkung zwischen Quarks und Gluonen reduziert.

Interessant ist in der QCD, dass die Gluonen, welche die Wechselwirkung vermitteln, selbst miteinander wechselwirken. (Das wäre am Beispiel der QED etwa so, als ob sich zwei durchdringende Lichtstrahlen direkt beeinflussen würden.) Eine Konsequenz dieser gluonischen Selbstwechselwirkung ist, dass die elementaren Quarks nicht einzeln beobachtet werden können, sondern immer in Form von Quark-Antiquark-Zuständen oder Zuständen dreier Quarks (oder Antiquarks) auftreten (Confinement). Auf der anderen Seite folgt daraus, dass die Kopplungskonstante bei hohen Energien nicht zunimmt, sondern abnimmt. Dieses Verhalten wird als asymptotische Freiheit bezeichnet.

Weiterführende Aspekte

Spontane Symmetriebrechung

Hauptartikel: Spontane Symmetriebrechung

Wie oben schon angesprochen, eignet sich die \phi^4-Theorie zur Beschreibung von Systemen mit spontaner Symmetriebrechung oder kritischen Punkten. Der Massenterm wird dazu als Teil des Potentials verstanden. Für eine reelle Masse hat dieses Potential dann nur ein Minimum, während bei imaginärer Masse das Potential eine w-förmige Parabel vierten Grades beschreibt. Wenn das Feld mehr als eine reelle Komponente hat, erhält man noch mehr Minima. Bei einem komplexen Feld (mit zwei reellen Komponenten) erhält man zum Beispiel die Rotationsfigur der w-förmigen Parabel mit einem Minimakreis. Diese Form wird auch als Mexican Hat Potential bezeichnet, da das Potential an die Form eines Sombrero erinnert.

Jedes Minimum entspricht nun einem Zustand niedrigster Energie, die vom Feld alle mit gleicher Wahrscheinlichkeit angenommen werden. In jedem dieser Zustände hat das Feld jedoch ein geringeres Maß an Symmetrie, da die Symmetrie der Minima untereinander durch Auswahl eines Minimums verloren geht. Diese Eigenschaft der klassischen Feldtheorie überträgt sich auf die Quantenfeldtheorie, so dass sich die Möglichkeit ergibt, Quantensysteme mit gebrochener Symmetrie zu beschreiben. Beispiele für solche Systeme sind das Ising-Modell aus der Thermodynamik, das die spontane Magnetisierung eines Ferromagneten erklärt, und der Higgs-Mechanismus, der die Massen der Eichbosonen in der schwachen Wechselwirkung erklärt. Durch die erhaltenen Massenterme der Eichbosonen wird nämlich die Eichsymmetrie reduziert.

Axiomatische Quantenfeldtheorie

Die Axiomatische Quantenfeldtheorie versucht, ausgehend von einem Satz möglichst weniger, als mathematisch oder physikalisch unumgänglich angesehener Axiome, eine konsistente Beschreibung der Quantenfeldtheorie zu erzielen.

Die axiomatische Quantenfeldtheorie wurde u.a. aus den Wightman-Axiomen, entstanden im Jahr 1956, begründet. Ein weiterer Zugang ist die von Haag und Araki 1962 formulierte algebraische Quantenfeldtheorie, die durch die Haag-Kastler-Axiome charakterisiert wird. Die Osterwalder-Schrader-Axiome stellen einen dritten axiomatischen Zugang zur Quantenfeldtheorie dar.

Etliche konkrete Ergebnisse konnten mit dieser Herangehensweise erzielt werden, zum Beispiel die Herleitung des Spin-Statistik-Theorems und des CPT-Theorems alleine aus den Axiomen, d.h. unabhängig von einer speziellen Quantenfeldtheorie. Ein früher Erfolg war die 1955 von Lehmann, Symanzik und Zimmermann entwickelte LSZ-Reduktionsformel für die S-Matrix. Außerdem existiert ein von Bogoliubov, Medvedev und Polianov begründeter funktionalanalytischer Zugang zur S-Matrix-Theorie (auch BMP-Theorie genannt).

Weitere Anwendungen im Bereich der klassischen Statistik und der Quantenstatistik sind schon sehr weit fortgeschritten. Sie reichen von der allgemeinen Ableitung der Existenz thermodynamischer Größen, Satz von Gibbs, Zustandsgrößen wie Druck, innerer Energie und Entropie bis zum Beweis der Existenz von Phasenübergängen und der exakten Behandlung wichtiger Vielteilchensysteme:

Verhältnis zu anderen Theorien

Versuche, diese Quantenfeldtheorien mit der allgemeinen Relativitätstheorie (Gravitation) zur Quantengravitation zu vereinen, sind bisher ohne Erfolg geblieben. Nach Ansicht vieler Forscher erfordert die Quantisierung der Gravitation neue, über die Quantenfeldtheorie hinausgehende Konzepte, da hier der Raum-Zeit Hintergrund selbst dynamisch wird. Beispiele aus der aktuellen Forschung sind die Stringtheorie, die M-Theorie und die Loop-Quantengravitation. Weiter liefern die Supersymmetrie, die Twistor-Theorie und die Finite Quantenfeldtheorie wichtige konzeptionelle Ideen, die zurzeit in der Fachwelt diskutiert werden.

Auch in der Festkörpertheorie finden sich Anwendungen der (nicht-relativistischen) Quantenfeldtheorie, und zwar hauptsächlich in der Vielteilchentheorie.

Literatur

Allgemeine Einführungen in das Thema (jeweils in Alphabetischer Reihenfolge)

Deutsch:

  • Christoph Berger: Elementarteilchenphysik. 2. Auflage, Springer, 2006
  • Walter Greiner u.a.: Theoretische Physik. Verlag Harri Deutsch, Bände Feldquantisierung 1993, Quantenelektrodynamik 1994, Eichtheorie der schwachen Wechselwirkung, 1994, Quantenchromodynamik

Englisch:

 

Speziellere und verwandte Themen und