Quantendynamik des harmonischen Oszillators

Größe: px
Ab Seite anzeigen:

Download "Quantendynamik des harmonischen Oszillators"

Transkript

1 Bachelorarbeit im Studienfach Physik Quantendynamik des harmonischen Oszillators vorgelegt am Lehrstuhl für Theoretische Physik II an der Universität Augsburg Von: Michael Gromer Matrikelnummer: 7676 Am: 3. Mai 4 Erstgutachter: Betreuer: Prof. Dr. Ulrich Eckern Dr. Michael Dzierzawa

2

3 Inhaltsverzeichnis Einleitung 5 Harmonischer Oszillator 7. Klassische Betrachtung Ungetriebener Fall Mit treibender Kraft Quantenmechanische Betrachtung Ungetriebener Fall Mit treibender Kraft Störungstheorie Anharmonischer Oszillator 3 3. Quantenmechanische Störungstheorie Numerische Behandlung 8 4. Euler-Verfahren Explizites Euler-Verfahren Implizites Euler-Verfahren Runge-Kutta-Verfahren Klassische Betrachtung Quantenmechanische Betrachtung Ortsbasis Besetzungszahlbasis des harmonischen Oszillators Besetzungszahlbasis des anharmonischen Oszillators Ergebnisse 4 5. Analytische Lösungen Störungstheorie Numerische Methoden Programm Instabilität Numerische Ergebnisse für den harmonischen Oszillator Klassisch Quantenmechanisch Genauigkeit Anharmonischer Oszillator Eigenzustände Zeitentwicklung Zusammenfassung 7 Anhang 7 A. Integration von Gleichung (.6) A. Herleitung der Relation (.57) A.3 Berechnung der Matrixdarstellung von ˆx Literatur 76 3

4

5 Einleitung Genauso, wie das zweite newtonsche Gesetz und äquivalente Formulierungen davon die grundlegenden Gleichungen der klassischen Mechanik darstellen, bildet die Schrödingergleichung das Fundament der Quantenmechanik. Sie ist damit der Ausgangspunkt für jedes quantenmechanische Problem. Wie jedoch schon in der Bachelorvorlesung Quantenmechanik klar wird, sind ihre Lösungen, bedingt durch ihre Form (eine partielle Differentialgleichung) und das Vorhandensein des Potentials in der Gleichung, nur in den seltensten Fällen in mathematisch geschlossener Form darstellbar, also analytisch lösbar. Ist dies nicht mehr möglich, so kann man einerseits das Potential durch ein analytisch Lösbares annähern oder man verwendet Näherungsmethoden zur Lösung des ursprünglichen Potentials. Von diesen Näherungsmethoden sollen in dieser Bachelorarbeit die Störungstheorie und die numerische Berechnung der Lösung betrachtet werden. Zusätzlich wird auch die klassische Lösung als Referenz hinzugezogen und somit das Ehrenfest-Theorem überprüft. Es wird von einem harmonischen Oszillator ausgegangen, denn dieser hat den Vorteil, dass er einerseits eines der Probleme ist, die noch analytisch lösbar sind und somit später die Resultate der verschiedenen Näherungen mit der exakten Lösung verglichen werden können. Andererseits kann aber auch durch eine einfache Modifikation, indem man einen quartischen Term zum Potential addiert, ein Fall konstruiert werden, der nicht mehr analytisch lösbar ist und somit nur noch näherungsweise behandelt werden kann. In beiden Fällen wird der Oszillator zusätzlich durch eine zeitabhängige äußere Kraft angetrieben. Die Wahl des harmonischen Oszillators ist aber nicht nur aus technischer Sicht sinnvoll. Der harmonische Oszillator kann sehr gut auch für praktische Anwendungen eingesetzt werden: so können in der Molekülphysik die Bindungen zweier Atome näherungsweise durch eine ideale Feder beschrieben werden und eine solche Feder stellt genau einen harmonischen Oszillator dar. Dies ist sowohl für lineare Schwingungen (zwei verbundene Massepunkte) als auch für Torsionsschwingungen wie z.b. das Ethenmolekül möglich. Man kann also Vorhersagen über die Schwingungsspektren treffen [Wik4]. Ein weiteres Beispiel ist das Einstein-Modell: es beschreibt die Phononen, also Gitterschwingungen, in einem Festkörper, indem für jedes Atom das Potential eines dreidimensionalen harmonischen Oszillators verwendet wird. Damit kann der Beitrag optischer Phononen zur Wärmekapazität eines Festkörpers berechnet werden [Wul3]. Auch andere physikalische Phänomene können auf einen harmonischen Oszillator zurückgeführt werden: so bewegt sich beispielsweise ein geladenes Teilchen in einem Magnetfeld spiralförmig. Der zum Magnetfeld senkrechte Anteil dieser Bewegung kann durch einen eindimensionalen harmonischen Oszillator beschrieben werden und man erhält dabei die Landau-Quantisierung [Wei4]. Allgemein kann jede Potentialmulde in erster Näherung, für genügend kleine Auslenkungen, durch ein harmonisches Potential angenähert werden. Besonderes Augenmerk wird in dieser Arbeit auf die numerische Lösung gelegt: diese ist vom Prinzip her sehr simpel und darüber hinaus ist ihre Genauigkeit nur durch die zur Verfügung stehende Rechenleistung bzw. Rechenzeit begrenzt. Es können also auch mit einer einfachen numerischen Methode beliebig genaue Ergebnisse erzielt werden, wenn genügend Rechenleistung zur Verfügung steht. In der heutigen Zeit reicht schon ein handelsüblicher PC vollkommen aus, um für eindimensionale Probleme in kurzer Zeit sehr genaue Resultate zu bekommen. Ziel dieser Arbeit ist es, am Beispiel des getriebenen harmonischen bzw. anharmonischen Oszillators zu untersuchen, welche numerischen Verfahren am besten geeignet sind, die Zeitentwicklung des Systems zu berechnen. Dazu werden die numerischen Ergebnisse mit den vorhandenen analytischen bzw. störungstheoretischen Resultaten verglichen. Ein weiterer wichtiger Aspekt ist die Stabilität und Genauigkeit der betrachteten Verfahren sowie die benötigte Rechenzeit. Die restlichen Abschnitte der Arbeit sind wie folgt aufgebaut: In Kapitel werden die analytischen Lösungen für den klassischen und quantenmechanischen harmonischen Oszillator hergeleitet. Zusätzlich wird die Lösung in zeitabhängiger Störungstheorie erster Ordnung gesucht. In Kapitel 3 werden wir uns dem anhar- 5

6 monischen Oszillator zuwenden und die Eigenzustände störungstheoretisch in erster Ordnung bestimmen. In Kapitel 4 werden einige numerische Verfahren vorgestellt und erklärt, wie mit ihnen die Zeitentwicklung des harmonischen und anharmonischen Oszillators berechnet werden kann. Schließlich werden wir in Kapitel 5 die Ergebnisse aller betrachteter Verfahren miteinander vergleichen und so die Stabilität und Genauigkeit der numerischen Verfahren analysieren. Zuletzt wird dann der anharmonische Oszillator mithilfe der numerischen Verfahren genauer betrachtet. Einige eher technische Berechnungen werden im Anhang präsentiert. 6

7 Harmonischer Oszillator. Klassische Betrachtung Im Folgenden wird zuerst der klassische harmonische Oszillator betrachtet. Dieser ist einerseits einfacher zu behandeln als der quantenmechanische Oszillator, da man es nicht mit einer Wellenfunktion zu tun hat, sondern nur mit einem einzelnen Massepunkt. Andererseits werden wir später zeigen, dass die Ergebnisse zumindest für den harmonischen Fall mit den quantenmechanischen Mittelwerten übereinstimmen. Wie eingangs schon erwähnt, ist die, der klassischen Mechanik zugrunde liegende Gleichung, das zweite newtonsche Gesetz (die Masse m wird hier und im Folgenden immer als konstant betrachtet): F = ma mit a = v = ẍ = d x dt (.) Diese Gleichung beschreibt, wie sich das System, bei gegebenem Anfangszustand im Lauf der Zeit verändert. Genau genommen beschreibt sie, wie der Massepunkt beschleunigt wird, nämlich mit der Beschleunigung F m... Ungetriebener Fall Abbildung.: Vorstellung des eindimensionalen klassischen Oszillators Die Vorstellung, die hinter dem eindimensionalen klassischen Oszillator steht, ist ein Federpendel (siehe Abbildung.): ein Massepunkt der Masse m kann sich in einer Dimension, also z.b. nach links und nach rechts, bewegen. Über eine Feder ist er mit einem festen Punkt, z.b. an einer Wand, verbunden. Außer der Kraft, die durch die Feder verursacht wird, wirken keine weiteren Kräfte auf den Massepunkt. Dies reicht aus um ein schwingungsfähiges System zu erzeugen. Nimmt man nun eine ideale Feder an, also eine Feder deren Rückstellkraft direkt proportional zur Auslenkung ist: F = kx (.) erhält man den harmonischen Fall. Hierbei ist F die Kraft, die durch die Feder auf den Massepunkt wirkt, k die Federkonstante und x die Auslenkung aus der Ruhelage. Diese Kraft ist konservativ und kann somit 7

8 durch ein Potential mit F = dv dx ausgedrückt werden. Dieses lautet: V(x) = kx (.3) Setzt man die Gleichung für die Federkraft (.) in das zweite newtonsche Gesetz (.) ein, ergibt sich die Differentialgleichung des eindimensionalen klassischen harmonischen Oszillators: mẍ = kx (.4) Diese lineare harmonische Differentialgleichung kann allgemein mit einem Exponentialansatz gelöst werden. Gehen wir davon aus, dass der Massepunkt aus der Ruhelage ausgelenkt wird und dann bei x() = x mit v() = losgelassen wird, kann man direkt den Ansatz verwenden. Wir setzen dies in (.4) ein und erhalten: x(t) = x cos(ω t) (.5) ω = Gleichung (.5) mit (.6) löst die Gleichung (.4) und ist somit die Bewegungsgleichung des eindimensionalen klassischen harmonischen Oszillators für die oben angegebenen Anfangsbedingungen. Der Massepunkt schwingt mit der Frequenz f = ω π zwischen den Umkehrpunkten x und x sinusförmig hin und her, daher kommt die Bezeichnung harmonisch. Außerdem wird üblicherweise k durch m und ω ausgedrückt. Somit ist direkt die Frequenz vorgegeben und für das Potential ergibt sich: k m (.6) V(x) = mω x (.7).. Mit treibender Kraft Nun muss sich ein solches Federpendel aber nicht für immer im selben Schwingungszustand befinden, sondern es kann auch nach dem Zeitpunkt t = von außen angeregt werden. Um auf die Vorstellung des Massepunktes und der Feder zurückzukommen: dies geschieht indem der zuvor feste Punkt, an dem die Feder an der Wand befestigt war, bewegt wird. In Formeln ausgedrückt bedeutet dies, dass auf den Massepunkt nun nicht nur die Kraft der Feder wirkt sondern zusätzlich eine zeitabhängige Störung F S (t). Entsprechend erhält man ein zeitabhängiges Potential: V(t,x) = mω x F S (t)x (.8) Für die treibende Kraft F S (t) werden wir im Folgenden eine Kraft mit sinusförmigem Verlauf und Kreisfrequenz ω S, die mit einer ansteigenden Exponentialfunktion bis zu einem Zeitpunkt t S eingeschaltet und von da an mit der selben, umgekehrten Exponentialfunktion wieder ausgeschaltet wird, verwenden. Die maximale Amplitude wird mit A S bezeichnet. Dies sieht dann wie in Abbildung. aus oder, in einer Formel ausgedrückt, folgendermaßen: F S (t) = A S cos(ω S t)e B t t S Diese spezielle Form der Kraft hat den Vorteil, dass sie analytisch sehr leicht zu behandeln ist. Um die Bewegungsgleichung aus der Formel für die Kraft zu erhalten wird diese wieder in das zweite newtonsche Gesetz (.) eingesetzt und man erhält: ẍ + ω x = F S m (.9) (.) Diese Gleichung entspricht genau der Gleichung (.4), allerdings nun mit der Inhomogenität F S m. Sie beschreibt allgemein den eindimensionalen klassischen getriebenen harmonischen Oszillator. Um sie zu lösen verwendet man die greensche Funktion. 8

9 ,5, t Abbildung.: Treibende Kraft F S (t) mit A S = ω S =, B =,5 und t S = Greensche Funktion Gegeben sei eine lineare inhomogene Differentialgleichung: ˆLy(x) = f (x) (.) wobei ˆL ein linearer Differentialoperator ist: ˆL = n i= c i i x i (.) Die allgemeine Lösung dieser Differentialgleichung ist die Summe aus der allgemeinen Lösung der homogenen Differentialgleichung ( f (x) = ) und einer speziellen Lösung der inhomogenen Differentialgleichung (.). Gesucht ist nun diese spezielle Lösung. Wenn nun zu ˆL eine Funktion G(x,x ) existiert, die LG(x,x ) = δ(x x ) erfüllt, so kann man die Lösung von Gleichung (.) auch in der Form y(x) = G(x,x ) f (x )dx (.3) schreiben. Dies ist möglich, da der Differentialoperator ˆL nur auf x wirkt und nicht auf die Integrationsvariable x. Lösung Der Differentialoperator des harmonischen Oszillators (.) ist gegeben durch: mit zugehöriger greenscher Funktion G(t,t ) [HW9, S. 8]: ˆL = t + ω (.4) G(t,t ) = ω sin(ω (t t ))Θ(t t ) (.5) 9

10 Dabei ist Θ(t t ) die Stufenfunktion. Die spezielle Lösung, die man durch die greensche Funktion erhält sieht also folgendermaßen aus: = A S mω x(t) = m = mω t t G(t,t )F S (t )dt = sin(ω (t t ))F S (t )dt = sin(ω (t t )) cos(ω S t )e B t t S dt (.6) Die Integration dieses Ausdrucks bedarf keines besonderen Geschicks, es müssen lediglich die Trigonometrischen Funktionen durch e-funktionen ausgedrückt werden. Um dann über den Betrag zu integrieren, integrieren wir für t > t S von bis t S mit negiertem t t S und dann von t S bis t. Für den Fall, dass t < t S integrieren wir nur von bis t. Die gesamte Rechnung ist für diesen Fall im Anhang unter A. zu finden. Für einige spätere Rechnungen, die ähnlich verlaufen, wird dann ein Computerprogramm verwendet und hier nur noch das Ergebnis angegeben. Hier ergibt sich für t < t S : Und für t > t S : x(t) = x(t) = A Se B(t t ) mω ( C sin(ω S t) + C cos(ω S t) ) (.7) A S mω ( D sin(ω t) + D cos(ω t) + e B(t S t) ( C sin(ω S t) + C cos(ω S t) )) (.8) Dabei wurden zur Vereinfachung folgende Konstanten verwendet: C = B (ω + ω S ) + B B ω + ω S (ω ω S ) + B C = (ω + ω S ) + B + ω ω S (ω ω S ) + B D = B cos((ω + ω S )t S ) (ω + ω S ) + B + B cos((ω ω S )t S ) (ω ω S ) + B D = B sin((ω + ω S )t S ) (ω + ω S ) + B B sin((ω ω S )t S ) (ω ω S ) + B Dieses Ergebnis ist durch die Aufteilung der trigonometrischen Funktionen und des Betrages recht unübersichtlich. Es stellt jedoch die exakte Form der Bewegungsgleichung für den klassischen getriebenen harmonischen Oszillator mit der oben angegeben Form für die treibende Kraft F S dar. Betrachtet man diese Bewegungsgleichung so wird klar, wie sich der Oszillator verhält: bis zum Zeitpunkt t S wird ihm die Anregungsfrequenz ω S aufgezwungen und die Schwingungsamplitude steigt, wie auch die Anregungsamplitude, exponentiell an. Für Zeiten größer als t S schwingt der Oszillator mit seiner Eigenfrequenz ω weiter, wobei diese Schwingung mit einer exponentiell abfallenden Schwingung in Anregungsfrequenz überlagert wird. Die Amplituden und Phasen sind dabei in den Konstanten C, C, D und D enthalten. Oben wurde bereits gesagt, dass man, um die allgemeine Lösung zu erhalten, noch die allgemeine Lösung der homogenen Differentialgleichung addieren müsste. Dieser Term fällt aber wieder weg, wenn man davon ausgeht, dass sich der Oszillator zum Zeitpunkt t = in der Ruhelage befunden hat, dass also gilt: x( ) = v( ) =. Genau davon gehen wir hier und im Folgenden dieser Arbeit auch aus, um für die verschiedenen Arten der Berechnung vergleichbare Ergebnisse zu erhalten. Im Kapitel 5 wird dieses Ergebnis nochmals betrachtet und mit weiteren Resultaten verglichen.. Quantenmechanische Betrachtung In diesem Abschnitt wird nun der gleiche harmonische Oszillator wie bisher betrachtet, nur dass er jetzt als quantenmechanisches System ausgewertet wird. Dabei wird zuerst wieder der ungetriebene Fall, also ein harmonischer Oszillator ohne äußere Kraft, betrachtet und dann die treibende Kraft aus Gleichung (.9) hinzugefügt um einen quantenmechanischen getriebenen harmonischen Oszillator zu erhalten.

11 Im Gegensatz zur klassischen Mechanik wird nun anstatt des zweiten newtonschen Gesetzes die Schrödingergleichung verwendet. Sie lautet in zeitabhängiger Form: i ψ(t) = Ĥ ψ(t) t mit Ĥ = ˆp + V( ˆx) (.9) m Ähnlich wie schon das zweite newtonsche Gesetz beschreibt diese Gleichung wieder, wie sich ein System bei gegebenem Anfangszustand verändert. Dieser Anfangszustand ist nun jedoch nicht durch Position x und Geschwindigkeit v eines Massepunktes beschrieben, sondern durch den Zustandsvektor ψ(t) im Hilbertraum. Das Betragsquadrat dieses Zustandsvektor gibt die Wahrscheinlichkeit an, das beschriebene Teilchen in einem bestimmten Gebiet der noch zu wählenden Basis zu finden. Da das Teilchen nicht verschwinden kann, wird zusätzlich gefordert, dass der Zustandsvektor normiert ist: ψ(t) ψ(t) = für alle t (.) Die stationären (=zeitinvarianten) Zustände werden dabei durch die stationäre Schrödingergleichung beschrieben. Es handelt sich dabei um die Eigenwertgleichung des Hamiltonoperators: Ĥ ψ n = E n ψ n (.) Im Gegensatz zur zeitabhängigen Schrödingergleichung liefert diese Gleichung einen oder mehrere Zustandsvektoren, die sich, wenn man die zeitabhängige Schrödingergleichung darauf anwendet, nur in ihrer Phase verändern. Da die Phase des Zustandes für das Betragsquadrat unbedeutend ist, ändern sich die Erwartungswerte nicht mit der Zeit, der Zustand ist stationär... Ungetriebener Fall Um die Eigenzustände des quantenmechanischen harmonischen Oszillators zu finden, müssen wir die stationäre Schrödingergleichung (.) mit dem Hamiltonoperator für das Potential des harmonischen Oszillators (.7) lösen. Dieser lautet wie folgt: Ĥ = ˆp ˆp + V( ˆx) = m m + mω ˆx (.) Dies ist zwar auch in der Ortsdarstellung möglich, jedoch in der Besetzungszahlbasis sehr viel einfacher und eleganter. Dazu definiert man zuerst scheinbar willkürlich den Operator â und seinen Adjungierten â, die sogenannten Leiteroperatoren: â := â = mω ˆx + mω ˆx i ˆp mω i ˆp mω Vernichtungsoperator Erzeugungsoperator (.3) Zusätzlich definieren wir den Besetzungszahloperator ˆN und nennen seine Eigenwerte N n : ˆN := â â Besetzungszahloperator ˆN ψ n = N n ψ n (.4) Mit der Relation [ ˆp, ˆx] = i lässt sich der Kommutator [â,â ] berechnen und man kann den Hamiltonoperator (.) durch die Leiteroperatoren oder den Besetzungszahloperator ausdrücken: [â,â ] = (.5) ( Ĥ = ω â â + ) ( = ω ˆN + ) (.6)

12 Setzt man dies in die stationäre Schrödingergleichung (.) ein, erhält man: ( E n ψ n = Ĥ ψ n = ω ˆN + ) ( ψ n = ω N n + ) ψ n (.7) und sieht, dass der Hamiltonoperator und der Besetzungszahloperator die gleichen Eigenzustände ψ n haben und, dass außerdem für die Eigenwerte gilt: ( E n = ω N n + ) (.8) Nun multipliziert man die Gleichung (.7) von links mit â und erhält folgendes: ( âĥ ψ n = ω â â â + ) (( ψ n = ω â â + ) â + [ â,â â ] } {{ } =â ω ( â â + + ) â ψ n = ( Ĥ + ω ) â ψn = E n â ψ n ) ψ n = Ĥâ ψ n = (E n ω ) â ψ n (.9) Gleichung (.9) besagt genau, dass â ψ n der Eigenzustand zur Energie E n ω ist. Analog erhält man für â ψ n einen Eigenzustand zur Energie E n + ω : Ĥâ ψ n = (E n + ω ) â ψ n (.3) Dies erklärt nun die Namen von â und â : sie liefern aus einem Zustand einen Zustand mit einem Energiequant ω weniger bzw. mehr, sie vernichten bzw. erzeugen also ein Energiequant. Eigenwerte Da man den Vernichtungsoperator â beliebig oft auf ψ n anwenden kann, die Energie des Zustandes E n = ψ n Ĥ ψ n aber nie negativ werden kann, muss diese Folge irgendwann ein Ende finden. Für den Grundzustand, den man ψ nennt, gilt daher: Multiplikation von links mit â liefert: ( = â â ψ = â ψ = (.3) Ĥ ω ) ψ Ĥ ψ = ω ψ = E ψ Daraus ergibt sich die Energie des Grundzustandes E und aus ihr durch n-maliges Anwenden des Erzeugungsoperators auf den Grundzustand, d.h. mit Gleichung (.3), die Energien aller weiteren Zustände: E = ω ( E n = ω n + ) (.3) Zieht man nun noch Gleichung (.8) hinzu, sieht man sofort, dass N n = n (.33) gelten muss. Damit wird auch die Namensgebung des Besetzungszahloperators ersichtlich: er ordnet einem Eigenzustand seine Nummerierung zu.

13 Normierung Diese Eigenzustände sind jedoch nicht normiert, was man korrigieren muss, um daraus den physikalischen Zustand mit der nächstniedrigeren bzw. nächsthöheren Energie zu erhalten: K ψ n = â ψ n! = ψ n ψ n = K ψ n â â ψ n = N n K ψ n ψ n = n K K = n Die analoge Rechnung ergibt auch die Normierung für â. Es gilt also: â ψ n = n ψ n â ψ n = n + ψ n+ (.34) Eigenfunktionen in Ortsdarstellung Aus Gleichung (.3) kann man nicht nur die Energie des Grundzustandes erhalten, sondern auch den Grundzustand in Ortsdarstellung. Dazu setzt man die Definition des Vernichtungsoperators (.3) ein und verwendet für den Impuls- und Ortsoperator deren Darstellung in Ortsbasis: ˆp = i d dx ˆx = x (.35) Man erhält dadurch folgende Differentialgleichung: mω x + d mω dx ψ (x) = (.36) Daraus ergibt sich mit Normierung: ψ (x) = ( mω ) 4 ( exp mω ) π x (.37) Da man nun die Wellenfunktion des Grundzustandes ermittelt hat, kann man darauf nun den Erzeugungsoperator beliebig oft anwenden, und somit alle Zustände des quantenmechanischen harmonischen Oszillators zu erzeugen: ψ n (x) = n mω n! x + d mω dx ψ (x) (.38) Betrachtet man diese Gleichung genauer, so fällt auf, dass es sich dabei fast genau um die Definition der hermiteschen Polynome handelt. Diese sind definiert als: ( H n (x) = e x ξ d ) n e x (.39) dξ Mit ξ = x mω kann man die Wellenfunktionen ψ n somit auch schreiben als: ψ n (x) = ( mω ) ( ) 4 π n n! H mω n x e mω x (.4) 3

14 Matrixdarstellung von â, â und ˆN Wir wissen aus den vorherigen Kapiteln, wie die Leiteroperatoren in der Ortsbasis aussehen. Wir benötigen aber, insbesondere für spätere numerische Berechnungen in der Besetzungszahlbasis des harmonischen Oszillators in Kapitel 4, die Darstellungen dieser Operatoren in dieser Basis, also der Eigenbasis des Besetzungszahloperators ˆN. Mit Gleichung (.34) ergeben sich die Matrixdarstellungen indem man vor und hinter dem Operator dein -Operator Î = n= ψ n ψ n einschiebt. Man erhält für den Vernichtungsoperator: â = m,n= ψ m ψ m â ψ n ψ } {{ } n =â mn mit â mn = ψ m â ψ n = n ψ m ψ n = nδ m,n â = (.4) Analog erhält man die Matrixdarstellung für den Erzeugungsoperator: â mn = ψ m â ψ n = n + ψ m ψ n+ = n + δ m,n+ â = 3 (.4) Um später den Hamiltonoperator in Besetzungszahlbasis auszudrücken, benötigen wir nun noch die Matrixdarstellung des Besetzungszahloperators. Dazu verwendet man einfach dessen Eigenwertgleichung: ˆN mn = ψ m ˆN ψ n = n ψ m ψ n = nδ mn ˆN =... (.43) Außerdem kann man die Definitionen der Leiteroperatoren (.3) auch nach Impuls- bzw. Ortsoperator auflösen: mω (â ˆp = i ) â (â ˆx = ) + â (.44) mω Man hat somit mit dem Hamiltonoperator (.6) alle benötigten Operatoren in Matrixdarstellung zur Verfügung und kann in Besetzungszahlbasis rechnen... Mit treibender Kraft Die analytische Lösung der Eigenzustände des quantenmechanischen harmonischen Oszillators war schon recht kompliziert und nicht ganz einfach zu erhalten. Es ist jedoch auch noch möglich, wie in [Mab7] 4

15 beschrieben, die Zeitentwicklung dieser Zustände unter dem Einfluss einer externen treibenden Kraft analytisch darzustellen. Dazu verwenden wir die Besetzungszahlbasis im Wechselwirkungsbild, d.h. wir teilen den Hamiltonoperator in einen zeitunabhängigen Teil Ĥ und einen zeitabhängigen Teil auf. Der zeitunabhängige Teil ist dabei genau der Hamiltonoperator des ungetriebenen harmonischen Oszillators. Der zeitabhängige Teil ist durch das Potential der treibenden Kraft gegeben und da das Potential des harmonischen Oszillators ohne externe Kraft schon in Ĥ steckt, werden wir in diesem Kapitel nur den zeitabhängigen Teil mit ˆV bezeichnen. In Gleichung (.8) haben wir bereits das zum getriebenen harmonischen Oszillator gehörige Potential gegeben. Damit lautet der Hamiltonoperator wie folgt: Ĥ(t) = ˆp m + ( mω ˆx F S (t) ˆx = Ĥ + ˆV(t) = ω ˆN + } {{ }} {{ } =:Ĥ =: ˆV(t) ) + ˆV(t) (.45) Der Sinn der Betrachtung im Wechselwirkungsbild ist nun, die zeitliche Entwicklung, die durch Ĥ verursacht wird, in die zeitliche Abhängigkeit der verwendeten Operatoren zu packen und die zeitliche Entwicklung, die durch ˆV verursacht wird, durch die zeitliche Abhängigkeit des Zustandes ψ(t) auszudrücken. Mit der Tilde über den Zuständen und Operatoren wird gekennzeichnet, dass es sich um jeweilige im Wechselwirkungsbild handelt. Man wählt also eine zeitlich veränderliche Basis und muss somit jeden Zustand und jeden Operator in diese Basis umrechnen: ( ψ(t) = ˆT i ) (t,) ψ(t) = exp Ĥt ψ(t) (.46) ( Ã(t) = ˆT i ) ( (t,)â ˆT (t,) = exp Ĥt  exp i ) Ĥt (.47) Somit sind nun auch die Operatoren zeitabhängig. ˆT ist dabei der Zeitentwicklungsoperator des ungetriebenen harmonischen Oszillators, der einen Zustand vom Zeitpunkt t zum Zeitpunkt t entwickelt. Da Ĥ zeitunabhängig ist, ist er gegeben durch: ( ˆT (t,t ) = exp i ) Ĥ(t t ) (.48) Dies wurde in den Gleichungen (.46) und (.47) schon verwendet. Wir werden im Folgenden einen Ausdruck für den Zeitentwicklungsoperator im Wechselwirkungsbild T finden. Damit lässt sich dann der Zustand im Wechselwirkungsbild ψ berechnen und dieser kann ins Schrödingerbild zurückkonvertiert werden, womit wir die gesuchte Zeitentwicklung des quantenmechanischen getriebenen harmonischen Oszillators gefunden haben werden. Zeitentwicklungsoperator Der Zeitentwicklungsoperator im Wechselwirkungsbild T ist formal gegeben durch: [ ( T(t,t ) = ˆT exp i t )] Ṽ(t )dt t (.49) mit dem Zeitordnungsoperator ˆT. Dieser ist nötig, da Ṽ zu verschiedenen Zeiten nicht mit sich selbst kommutiert. Er gleicht die, durch die Exponentialfunktion verlorene Zeitordnung, wieder aus. Da sich damit jedoch nicht rechnen lässt, brechen wir das Integral im Exponenten in infinitesimal kleine Stücke auseinander und exponentieren jedes Stück einzeln. Dazu definieren wir ein Stück dieses Integrals als: Somit kann man T schreiben als: Ṽ n = i t +nɛ t+(n )ɛ Ṽ(t )dt mit ɛ := t t N (.5) T(t,t ) = lim N eṽn... eṽ (.5) 5

16 Oben haben wir gesagt, dass Ṽ zu verschiedenen Zeiten nicht mit sich selbst kommutiert. Man kann jedoch verwenden, dass Ṽ mit dem Kommutator kommutiert, dass also gilt: [Ṽ(t), [Ṽ(t ),Ṽ(t ) ]] = (.5) Dies werden wir später auch für die treibende Kraft nachweisen. Man wendet nun die, unter der Voraussetzung [Â,[Â, ˆB]] = [ ˆB,[Â, ˆB]] =, geltende Baker-Campbell-Hausdorff-Formel eâe ˆB = eâ+ ˆB+[Â, ˆB]/ (.53) mehrmals auf den Ausdruck (.5) an: ] T(t,t ) = lim N eṽn... eṽ4 eṽ3 eṽ eṽ = lim N eṽn... eṽ4 eṽ3 eṽ+ṽ + [Ṽ,Ṽ / = = lim N eṽn... eṽ4 eṽ3+ṽ +Ṽ + = lim N eṽn... eṽ4 eṽ3+ṽ +Ṽ + [Ṽ3,Ṽ +Ṽ + [ Ṽ,Ṽ ] / ] / = [Ṽ3,Ṽ +Ṽ ] /+ [Ṽ3, [ Ṽ,Ṽ ] / ] / } {{ } = ] = lim N eṽn... eṽ4+ṽ 3 +Ṽ +Ṽ + [Ṽ3,Ṽ +Ṽ /+ [Ṽ4,Ṽ 3 +Ṽ +Ṽ + [ ] ] Ṽ 3,Ṽ +Ṽ / / = = lim N eṽn... eṽ4+ṽ 3 +Ṽ +Ṽ + =... = lim N exp [Ṽ3,Ṽ +Ṽ ] /+ [Ṽ4,Ṽ 3 +Ṽ +Ṽ ] /+ [Ṽ4, [ Ṽ 3,Ṽ +Ṽ ] / ] / N ( Ṽ n + [ Ṽ n, n n= k= = } {{ } = Die zweite Summe kann man nun aus dem Kommutator herausziehen und den Limes ausführen. Dadurch erhält man den finalen, allgemeinen Ausdruck für den Zeitentwicklungsoperator unter der Annahme, dass Gleichung (.5) gilt: T(t,t ) = exp i t t Ṽ(t )dt t t t Ṽ k ]) [Ṽ(t )Ṽ(t ) ] dt dt (.54) t Bisher haben wir über das Potential Ṽ keine Aussagen getroffen, außer, dass es mit seinem eigenen Kommutator kommutieren muss um auf den Ausdruck (.54) zu kommen. Wenn wir nun das Potential (.45) verwenden, dann können wir T weiter spezifizieren. Wir verwenden also: ˆV(t) = F S (t) ˆx = mω F S (t) ( â + â ) (.55) Somit ergibt sich für das Potential im Wechselwirkungsbild Ṽ mit Gleichung (.47): ( i Ĥt) Ṽ(t) = exp F S (t) ( â + â ) ( exp i ) mω Ĥt = = F S (t) exp ( iω â ât ) ( â + â ) exp ( iω â ât ) = mω = mω F S (t) ( âe iω t + â e iω t ) (.56) Dabei wurde, um auf die dritte Zeile zu kommen, folgende Relation verwendet. Diese wird im Anhang A. hergeleitet. exp ( ˆX ) Ŷ exp ( ˆX ) = e µ Ŷ für [ ˆX,Ŷ ] = µŷ (.57) [â â,â ] = â µ = iω t bzw. [ â â,â ] = â µ = iω t = 6

17 Der Ausdruck.56 ist ausreichend um nun den Kommutator von Ṽ mit sich selbst, den wir unter anderem im Ausdruck für den Zeitentwicklungsoperator (.54) verwendet haben, zu berechnen: = [Ṽ(t ),Ṽ(t ) ] = F S (t )F S (t ) [ ] âe iω t + â e iω t,âe iω t + â e iω t = mω F S (t )F S (t ) ( [â,âe ] e iω t iω t + â e iω t + e iω t [â ]),âe iω t + â e iω t = mω = F S (t )F S (t ) ( e iω t +iω t [â,â ] + e iω t iω t [â,â ] ) = mω }{{} = = F S (t )F S (t ) ( e iω (t t ) e ) iω (t t ) = mω ( mit sin x = ( e ix e ix)) i }{{} = = i mω F S (t )F S (t ) sin ( ω (t t ) ) (.58) Somit ist der Kommutator von Ṽ mit sich selbst zu verschiedenen Zeiten immer eine komplexe Zahl. Eine komplexe Zahl kommutiert aber mit jedem Operator, insbesondere auch mit Ṽ selbst, und somit ist Gleichung (.5) für eine treibende Kraft mit einem Potential der Form (.55) bestätigt. Außerdem kann das Doppelintegral im Zeitentwicklungsoperator (.54) über genau diese komplexe Zahl nun, mit gegebenem F S, direkt ausgerechnet werden. Wir geben diesem Integral (bis auf einen Faktor i) zur Vereinfachung der Notation den Namen β: = β(t,t ) := i mω t t t t t t t [Ṽ(t )Ṽ(t ) ] dt dt = t F S (t )F S (t ) sin ( ω (t t ) ) dt dt (.59) Um auch das erste Integral in (.54) kürzer schreiben zu können, definieren wir uns zusätzlich ζ als: ζ(t,t ) := i t F S (t iωt )e dt (.6) mω t Auch dieses Integral ist mit einem gegebenen F S einfach auszurechnen. Nun setzt man das Potential (.56), β und ζ in den Zeitentwicklungsoperator ein und erhält: t T(t,t ) = exp i F S (t ) ( ) iωt âe + â e iω t dt + iβ(t,t ) = mω t t = e iβ(t,t) iωt t exp i dt iωt â + i dt â = F S (t )e mω t } {{ } = ζ (t,t ) = e iβ(t,t) exp ( ζ(t,t )â ζ (t,t )â ) F S (t )e mω t } {{ } =ζ(t,t ) Dieses Ergebnis kann nun mit dem Verschiebungsoperator ˆD nochmals kürzer ausgedrüct werden: ˆD(α) := exp ( αâ α â ) (.6) T(t,t ) = e iβt,t ˆD(ζ(t,t )) (.6) Bisher haben wir im Wechselwirkungsbild gerechnet. Wir wollen nun den Zeitentwicklungsoperator im Schrödingerbild erhalten und führen dafür die umgekehrte Basistransformation wie in Gleichung (.47) 7

18 durch: ( ˆT(t,t ) = exp i Ĥt) ( i ) T(t,t ) exp Ĥt = ( = e iβ(t,t) exp i Ĥt) ( i ) ( ˆD(ζ(t,t )) exp Ĥt exp i ) Ĥ(t t ) = ( = e iβ(t,t ) ˆD(ζ(t,t )e iωt ) exp i ) Ĥ(t t ) = = e iβ(t,t ) ˆD(ζ(t,t )e iω t ) ˆT (t,t ) (.63) Der Schritt von der zweiten Zeile zur dritten ist hier nicht ganz trivial. Um den Phasenfaktor im Argument des Verschiebungsoperators zu erhalten, muss man die Exponentialfunktion im Verschiebungsoperator als Potenzreihe schreiben und die Formel (.57) aus Anhang A. für jeden Faktor â und â verwenden. Zustand Wir haben mit Gleichung (.63) nun einen Ausdruck für den Zeitentwicklungsoperator im Schrödingerbild erhalten. Mit diesem können wir einen beliebigen Anfangszustand nun unter einer treibenden Kraft F S zeitlich entwickeln. Damit können wir exakt beschreiben, wie sich der quantenmechanische getriebene harmonische Oszillator verhält. Wie schon in Kapitel.. gehen wir auch hier wieder davon aus, dass sich der Oszillator zum Zeitpunkt t = in der Ruhelage, also dem Grundzustand ψ befindet. Auf diesen Grundzustand wenden wir nun den im letzten Kapitel berechneten Zeitentwicklungsoperator an: ψ(t) = ˆT(t,t ) ψ = e iβ(t,t ) ˆD(ζ(t,t )e iω t ) ˆT } {{ } (t,t ) ψ = =:α = e iβ(t,t ) exp ( αâ α â ) e i ω t ψ = ( mit e Â+ ˆB = eâe ˆB e [Â, ˆB]/ und [ αâ, α â ] = α [ â,â ] = α ) = e iβ(t,t) e i ω t } {{ } e α / exp ( αâ ) exp ( α â ) ψ = =:φ(t,t ) = φ(t,t )e α / exp ( αâ ) ( α ) n â n ψ = n! }{{} n= = für n> } {{ } = ψ = φ(t,t )e α / exp ( αâ ) ψ = φ(t,t )e α / α n (â ) n ψn = n! = φ(t,t )e α / = e iβ(t,t ) e i ω t e α(t) / n= n= α n (t) n! ψ n n= α n n! ψ n = n! mit α(t) := ζ(t,t )e iω t (.64) Damit haben wir nun eine vollständige Formel für den Zustand des quantenmechanischen getriebenen harmonischen Oszillators zur Zeit t gefunden. Es handelt sich dabei im wesentlichen um eine Spektraldarstellung, d.h. um eine gewichtete Summe der Eigenzustände des ungetriebenen Oszillators ψ n mit einem zusätzlichen Phasenfaktor. Auch dieses Ergebnis werden wir in Kapitel 5 erneut betrachten. Einmal, um es mit den restlichen Ergebnissen, wie z.b. dem klassischen zu vergleichen. Da es sich hierbei um die exakte Lösung eines quantenmechanischen Problems handelt, können wir unsere numerischen Ergebnisse später nicht nur auf Plausibilität überprüfen, sondern auch feststellen, wie genau diese sind. Setzt man nun F S in ζ(t,t ) ein, so kann man α(t) in Abhängigkeit von t berechnen und erhält damit den Zustand zu einem gegebenen Zeitpunkt t. Es handelt sich bei dem Integral in ζ(t,t ) fast um das gleiche 8

19 Integral, das für den klassischen Ort (.6) berechnet werden musste. Der einzige Unterschied ist, dass hier anstatt dem Sinus eine komplexe Exponentialfunktion auftaucht. Wir werden darauf aber in Kapitel.. nochmals zu sprechen kommen. Man erhält für t < t S : α(t) = ia Se B(t t S) mω ω S sin(ω S t) + (B + iω ) cos(ω S t) ω S + (B + iω ) (.65) Und für t > t S : (( α(t) = ia Se iω t Be mω iω t S B + ω + ) ω S cos(ωs t S ) iω ω S sin(ω S t S ) ) ( ) B + ω ( + + ω S B ω) + ω 4 S + eb(t S t)+iω t (ω S sin(ω S t) (B iω ) cos(ω S t)) ω S + (B iω ) (.66) Sieht man sich die Gewichtung der Eigenzustände genauer an, so fällt noch auf, dass es sich dabei um eine Poissonverteilung handelt. Diese ist definiert als: P λ (k) = λk k! e λ (.67) und die Wahrscheinlichkeit, das System zum Zeitpunkt t im Zustand ψ k zu finden lautet: ψ k ψ(t) = ψ k e α / a n ψ n n= n! = / a n e α ψ k ψ n n= n! } {{ } = =δ kn = / αk e α α α k = e = P k! k! α (k) (.68) Erwartungswerte Da es sich der berechneten Zeitentwicklung immer um kohärente Zustände handelt, erhält man, wie in [Fli8, S. 59] beschrieben, für den Orts- bzw. Impulserwartungswert: ψ(t) = ˆD(α(t)) ψ mit α(t) = ζ(t,t )e iω t ˆx (t) = ψ(t) ˆx ψ(t) = Re(α(t)) = t F S (t ) sin(ω (t t ))dt mω mω t mω t ˆp (t) = ψ(t) ˆp ψ(t) = i Im(α(t)) = F S (t ) cos(ω (t t)) (.69) t Das entspricht für ˆx (t) exakt der in Kapitel.. berechneten klassischen Zeitentwicklung des Ortes (.6). Damit ist auch geklärt, warum das Integral in α(t) dem in der klassischen Lösung vorkommenden Integral entspricht. Die Äquivalenz von quantenmechanischem Erwartungswert und klassischer Zeitentwicklung war nach dem Ehrenfest-Theorem zu erwarten, konnte aber somit für den harmonischen Oszillator explizit bestätigt werden. Sieht man sich die Formel des Ehrenfest-Theorems (siehe [Fli8, S. 7]) genauer an, so wird deutlich, warum die Formeln hier exakt übereinstimmen. m d ˆx dt = gradv(t, ˆx) } {{ } = F(t, ˆx) Für eine Kraft, die linear in ˆx ist, gilt aber zusätzlich für den Mittelwert der Kraft: (.7) F(t, ˆx) = F(t, ˆx ) (.7) 9

20 Beim getriebenen harmonischen Oszillator ist dies erfüllt. Aus (.7) erhält man mit dem Ehrenfest-Theorem (.7) die newtonsche Bewegungsgleichung (.) für den Ortserwartungswert: m d ˆx dt = F(t, ˆx ) (.7) Somit folgen die klassische Zeitentwicklung x(t) und der quantenmechanische Ortserwartungswert ˆx (t) der gleichen Dynamik. Sie müssen also bei gleichen Anfangswerten für jeden Zeitpunkt übereinstimmen. Für den anharmonischen Oszillator wird Gleichung (.7) nicht mehr erfüllt sein und somit werden auch die klassische Zeitentwicklung und der quantenmechanische Ortserwartungswert nicht mehr übereinstimmen...3 Störungstheorie Bisher waren alle unsere Rechnungen unter den gemachten Annahmen exakt. Steht man jedoch vor einem Problem, das sich analytisch nicht mehr exakt lösen lässt, so könnte man versuchen dieses numerisch mit dem Computer zu lösen. Dies funktioniert in der Regel auch, hat aber nicht nur Vorteile: so sind z.b. die Ausgangsparameter einer berechneten Lösung immer fest und um die Abhängigkeit dieser Parameter zu bestimmen, muss man die Berechnung für sehr viele Werte dieser Parameter wiederholen. Das kann sehr viel (Rechen-)Zeit in Anspruch nehmen. Bevor man sozusagen mit dem Vorschlaghammer auf das Problem losgeht, kann man aber noch eine andere Methode verwenden und zwar die Störungstheorie oder auch Störungsrechnung. Der Begriff Störung steht dabei für eine Änderung eines analytisch lösbaren Systems, in unserem Fall ist dies der ungetriebene harmonische Oszillator. Diese Störung kann entweder zeitabhängig oder -unabhängig sein. Wenn diese Störung klein genug im Vergleich zum ungestörten System ist, kann man die Näherungsmethoden der Störungstheorie anwenden und erhält analytische Ergebnisse, die die exakte Lösung annähern. In unserem Fall handelt es sich bei der Störung um die treibende Kraft. In diesem Kapitel werde ich nun zuerst die allgemeine Formel für die Spektralkoeffizienten in zeitabhängiger Störungstheorie herleiten, um dann im Folgenden diese Formel auf den getriebenen harmonischen Oszillator anzuwenden. Herleitung Wir teilen, wie schon zuvor in Gleichung (.45) den Hamiltonoperator in einen zeitlich konstanten Anteil Ĥ und einen zeitabhängigen Teil ˆV(t) auf, jedoch mit dem Unterschied, dass wir den zeitabhängigen Teil nun mit einem Parameter λ skalieren. Dies ermöglicht es uns später nach Potenzen dieses Parameters zu entwickeln. Ĥ(t) = Ĥ + λ ˆV(t) (.73) Einen Zustand ψ(t) des Systems kann man zu jedem Zeitpunkt durch eine Linearkombination der Eigenzustände des ungestörten Systems darstellen: ψ(t) = c n (t) ˆT(t,t ) ψ n = Damit lautet die zeitabhängige Schrödingergleichung (.9) nun: n= c n (t)e i Ent ψ n (.74) n= i c n (t)e i Ent ψ n = ( Ĥ + λ ˆV(t) ) c n (t)e i Ent ψ n t n= n= ( i dc ) n(t) ( + E n c n (t) e i Ent ψ n = En + λ ˆV(t) ) c n (t)e i Ent ψ n (.75) dt n= n=

21 Diese Gleichung kann man auf einen Eigenzustand ψ m projizieren: n= ψ m n= ( i dc n(t) dt ( i dc n(t) + E n c n (t) dt ) ) + E n c n (t) e i Ent ψ n = ψ m e i Ent ψ m ψ n = } {{ } =δ mn n= ( En + λ ˆV(t) ) c n (t)e i Ent ψ n n= E n c n (t)e i Ent ψ m ψ n +λ } {{ } =δ mn ψ m ˆV(t)c n (t)e i Ent ψ n i dc m(t) e i Emt + dt E m c m (t)e i Emt = E m c m (t)e i Emt + λ c n (t)e i Ent ψ m ˆV(t) ψ n n= i dc m(t) = λ c n (t)e i (E m E n )t ψ m ˆV(t) ψ n (.76) dt n= Nun wird die bereits erwähnte Entwicklung nach Potenzen von λ durchgeführt, d.h. man schreibt c m (t) als: c m (t) = c () m (t) + λc () m (t) + λ c () m (t) +... (.77) Würde man diese unendliche Reihe nicht abbrechen, erhielte man immer noch das exakte Ergebnis und zwar für jedes λ. Dabei ist zu beachten, dass die c (i) m nicht von λ abhängen. Um später das gesuchte c m (t) zu erhalten berechnet man diese und setzt λ =. Störungstheorie n-ter Ordnung bedeutet nun, dass alle Terme c m (i) (t) mit i > n genügend klein sind, um sie zu vernachlässigen. Somit erhält man, indem man die Entwicklung des Zustandes (.77) in Gleichung (.76) einsetzt, in nullter Ordnung: m (t) = λ c () n... = + O(λ) c () m (t) = c m (t ) (.78) dt i dc() n= Das bedeutet, dass sich das System in Störungstheorie nullter Ordnung nicht verändert, es bleibt also in seinem Anfangszustand ψ(t) = n= c n (t )e i E nt ψ n. Dies war auch zu erwarten wenn man sich die Entwicklung des Zustandes (.77) mit einer nicht-existenten Störung, also für λ =, ansieht. Somit ergibt die Störungstheorie in nullter Ordnung genau das ungestörte System. Als nächstes betrachtet man die erste Ordnung und integriert: i dc() m (t) } {{ dt +i λ dc() m (t) = λ } dt = c () m (t) = i n= t n= n= c () n e i (E m E n )t ψ m ˆV(t) ψ n + O(λ ) c () n (t )e i (E m E n )t ψ m ˆV(t ) ψ n dt (.79) t Der Term O(λ ) in obiger Formel gibt eine Abschätzung für den Fehler an: dieser ist also proportional zu λ. Aus c () m (t) könnte man nun durch erneutes Einsetzen in Gleichung (.76) einen Ausdruck für c () m und damit Störungstheorie in zweiter Ordnung erhalten. Dies lässt sich beliebig fortführen und man erhält so immer höhere Ordnungen und damit genauere Lösungen. Wir werden uns im Folgenden aber auf die erste Ordnung beschränken. Anwendung Wir haben im letzten Kapitel eine Näherung für die Zeitentwicklung eines quantenmechanischen Systems hergeleitet und werden diese nun auf den getriebenen harmonischen Oszillator anwenden. Wie auch schon in den vorherigen Kapiteln, gehen wir wieder davon aus, dass sich der Oszillator zum Zeitpunkt t im Grundzustand ψ befindet. Somit gilt: c () m (t ) = für m = sonst (.8)

22 Außerdem verwenden wir auch hier wieder das Potential (.55), also die gleiche treibende Kraft F S (t) wie in den vorherigen Kapiteln. Nun sieht man sich Gleichung (.79) nochmals an: es taucht darin das Matrixelement ˆV mn (t) = ψ m ˆV(t) ψ n auf. Durch Gleichung (.8) ist n somit auf festgelegt. An der Matrixdarstellung des Erzeugungs- (.4) und des Vernichtungsoperators (.43) sieht man, dass ˆV mn für n = nur für m = einen Wert liefert und zwar: ˆV (t) = mω F S (t) (.8) In Störungstheorie erster Ordnung erhält man also ausschließlich eine Änderung der Besetzungswahrscheinlichkeit des ersten Zustandes über dem Grundzustand und der Grundzustand geht weiterhin mit dem Faktor ein. Somit ist die Normierung des Zustandes in dieser Näherung nicht erhalten. Trotzdem ergeben sich für c (t) plausible Werte. Der Zustand ist gegeben durch: mit c () (t) = i ψ(t) = e i ωt ψ + e 3i ωt c () (t) ψ t t e iω t ˆV (t )dt = i mω t t F S (t )e iω t dt (.8) Es fällt noch auf, dass c () (t) genau dem Integral ζ(t,t ) (.6) aus Kapitel.. entspricht. Wie gut diese Näherung zu den exakten Ergebnissen aus Kapitel.. passen, werden wir in Kapitel 5 untersuchen. Insbesondere werden wir betrachten, für welche Bereiche der Anregungsamplitude A S und der Anregungsfrequenz ω S sich noch plausible Werte ergeben.

23 3 Anharmonischer Oszillator Im Allgemeinen bezeichnet man jeden Oszillator, dessen Rückstellkraft nicht direkt proportional zur Auslenkung ist, als anharmonisch. Ein anharmonisches Potential ist somit im Gegensatz zum harmonischen Potential (.7) nicht nur durch Terme mit x beschrieben, sondern es kommen noch andere Potenzen vor. Da jedes analytische Potential als Taylorreihe geschrieben werden kann, genügt die Beschreibung mit Potenzen, um jede Potentialform abzudecken. Wir werden uns in dieser Bachelorarbeit auf einen zusätzlichen Term mit x 4 beschränken. Auch in diesem scheinbar einfachen Fall ist der anharmonische Oszillator schon nicht mehr analytisch exakt lösbar. Das Potential des anharmonischen Oszillators wird also folgendermaßen festgelegt: V(x) = mω x + Ax 4 F(x) = dv(x) dx = mω x A }{{} 4 x3 (3.) =k Dabei ist A ein Faktor, der die Stärke der Anharmonizität angibt und sowohl positiv als auch negativ sein kann. Auf Effekte, die bei negativem A auftreten, werden wir in Kapitel 5 noch genauer eingehen. Für positives A nimmt die Rückstellkraft mit größer werdendem Abstand stärker zu als beim harmonischen Oszillator, für negatives A schwächer, bis sie irgendwann repulsiv wirkt. In Abbildung 3. sind die unterschiedlichen Fälle dargestellt. Wie man im untersten Bild sieht, könnte man den quadratischen Term auch explizit negativ verwenden und erhält daraus mit positivem A ein Doppelmuldenpotential, also ein Potential mit zwei Minima. Dies soll aber nicht Gegenstand dieser Arbeit sein. 3

24 ,4 x,,5,5,8,6,4,,,4,6,8 x x + x 4,,5,8,6,4,,,4,6,8 x x x 4,8,6,4,,,4,6,8 x,4 x + x 4,,8,6,4,,,4,6,8 x Abbildung 3.: Verschiedene Potentiale (von oben nach unten): harmonisch A =, anharmonisch A =, anharmonisch A = und Doppelmuldenpotential mit A = 4

25 3. Quantenmechanische Störungstheorie Wir werden nun den anharmonischen Oszillator in quantenmechanischer Störungstheorie behandeln. Mit geändertem V( ˆx) ändert sich im Vergleich zu (.) auch der zeitunabhängige Teil des Hamiltonoperators und die Berechnungen aus Kapitel.. stimmen nicht mehr. Insbesondere ändern sich die Eigenenergien und die Eigenfunktionen. Ähnlich wie in Kapitel..3 kann man nun den Term A ˆx 4 als Störung betrachten und zeitunabhängige Störungstheorie verwenden, um aus den bekannten Eigenenergien und Eigenfunktionen des harmonischen Oszillators Korrekturen zu berechnen. Herleitung Die Strategie bei der zeitunabhängigen Störungstheorie ist recht ähnlich der zeitabhängigen Störungstheorie mit dem wesentlichen Unterschied, dass man nicht die Zeitentwicklung eines bekannten Anfangszustandes sucht, sondern die Änderung der Eigenenergien und Eigenzustände selbst. Die Störung wird wieder mit einem Faktor λ skaliert. Nun wird allerdings die zeitunabhängige Schrödingergleichung (.), also die Eigenwertgleichung des Hamiltonoperators verwendet: Ĥ = Ĥ + λ ˆV Ĥ φ n = ( Ĥ + λ ˆV ) φ n = ɛ n φ n (3.) Analog zum zeitabhängigen Fall ist Ĥ der Hamiltonoperator des ungestörten Systems, in unserem Fall der des harmonischen Oszillators, und ˆV die Störung, also der Term A ˆx 4. Nun werden sowohl die Eigenenergien ɛ n als auch die Eigenzustände φ n nach λ entwickelt: ɛ n = ɛ () n + λɛ () n + λ ɛ () n +... φ n = φ () n + λ φ () n + λ φ () n +... (3.3) Die gesuchten Eigenenergien und Eigenzustände des gestörten Systems ergeben sich nach Berechnung der Korrekturen wieder mit λ =. Man erhält die Korrekturen, analog zur zeitabhängigen Störungstheorie wieder, indem man die Ordnungen nacheinander in die verwendete Schrödingergleichung einsetzt, also hier in (3.). In nullter Ordnung ergibt sich: (Ĥ + λ ˆV ) φ () n = ɛ ( n φ () n + O(λ) Ĥ φ () n = ɛ () n φ () n (3.4) Dies ist genau die ungestörte zeitunabhängige Schrödingergleichung. Damit ist der erste Term der Eigenenergie ɛ n () genau durch die Eigenenergie E n des ungestörten Systems und der erste Term des Eigenzustandes φ () n durch den Eigenzustand ψ n des ungestörten Systems gegeben. Das ist wieder konsistent mit dem Fall λ =. ɛ () n = E n φ () n = ψ n (3.5) In erster Ordnung erhält man: (Ĥ + λ ˆV ) ( ψ n + λ φ () n ) = ( E n + λɛ n () ) ( ψn + λ φ () n ) + O(λ ) Ĥ ψ n +λĥ } {{ } φ () n + λ ˆV ψ n = E n ψ n + λe n φ () n + λɛ n () ψ n + O(λ ) =E n ψ n Ĥ φ () n + ˆV ψ n = E n φ () n + ɛ () n ψ n (3.6) Dies lässt sich wieder beliebig fortführen, um nacheinander immer höhere Ordnungen zu erhalten. Wir beschränken uns auf die erste Ordnung. Nun stellen wir die Zustandskorrektur erster Ordnung durch die 5

26 Eigenzustände ψ n des ungestörten Systems dar und projizieren Gleichung (3.6) auf einen Eigenzustand ψ k des ungestörten Systems: m= ( anm Ĥ ψ m } {{ } =E m ψ m φ () n = a nm ψ n m= ) + ˆV ψ n = E n m= a nm ψ m + ɛ () n ψ n (E n E m )a nm ψ m + ɛ n () ψ n = ˆV ψ n m= (E n E m )a nm ψ k ψ m } {{ } m= Dies gilt für alle k und man erhält daraus: =δ km +ɛ () n ψ k ψ n = ψ } {{ } k ˆV ψ n =δ kn (E n E k )a nk + ɛ () n δ kn = ψ k ˆV ψ n (3.7) k = n (E n E n ) a } {{ } nn + ɛ n () = ψ n ˆVψ n = k n (E n E k )a nk = ψ k ˆV ψ n Somit sind die Korrektur erster Ordnung der Energie ɛ n () und alle a nk bis auf a nn bestimmt. Aus der Normierung des Zustandes φ n kann man folgern, dass a nn = gelten muss. Siehe dazu [Fli8, S. 97]. Somit ist die Korrektur erster Ordnung gegeben durch: ɛ () φ () n = n = ψ n ˆV ψ n m= m n ψ m ˆV ψ n E n E m ψ m (3.8) Anwendung Wir setzen nun ˆV = A ˆx 4 in die störungstheoretische Korrektur der Eigenwerte und Eigenfunktionen (3.8). Dazu benötigen wir die Matrixelemente von ψ m ˆV ψ n = A ˆx mn. 4 In Kapitel.. haben mit (.44) bereits die Matrixdarstellung von ˆx bestimmt: (â ˆx = ) + â = (3.9) mω mω N N Diese Matrix quadrieren wir einfach zwei mal und erhalten somit die Matrixdarstellung von ˆx 4. Dies wurde in Anhang A.3 durchgeführt. Somit kann man die Energieeigenwerte ɛ n des anharmonischen Oszillators (3.) in Störungstheorie erster Ordnung berechnen. Die Energie des Grundzustandes ɛ lautet: ( ) ( ) ɛ = E + A ˆx 4 = E + A α() = E + 3A (3.) mω mω 6

27 Auch die Eigenzustände lassen sich berechnen und für den Grundzustand ergibt sich in erster Ordnung Störungstheorie: ˆV m, ˆx 4 ˆx 4 4 φ = ψ + ψ m = ψ + A E m= E ψ + ψ 4 m E E E E = 4 ( ) ( β() = ψ A ψ + γ() ) ψ 4 = mω ω 4 ω A 6 A = ψ 3 ψ ψ 4 (3.) 4 8 mω 3 Wir haben also nun den Grundzustand des anharmonischen Oszialltors φ in der Eigenbasis des harmonischen Oszillators ψ n berechnet. Da wir die Matrixdarstellungen aller wichtigen Operatoren in der Eigenbasis des harmonischen Oszillators schon berechnet haben, können wir nun φ in zeitabhängiger Störungstheorie behandeln. Wir setzen also φ und das zeitabhängige Potential ˆV(t) = A ˆx 4 + F S (t) ˆx in (.79) ein. Zu der Integration kommt dabei mit A ˆx 4 nur ein zeitlich konstanter Term hinzu. Somit erhalten wir die Zeitentwicklung des anharmonischen Oszillators. mω 3 7

28 4 Numerische Behandlung In den vorherigen Kapiteln haben wir entweder versucht, durch möglichst geschickte Rechnung ein klassisches oder quantenmechanisches Problem in eine lösbare Form zu bringen, oder, wenn dies nicht möglich war, durch eine geeignete Näherung in Störungstheorie dennoch eine brauchbare Näherung zu erhalten. Es gibt jedoch auch Problemstellungen, in denen beides versagt. Der anharmonische Oszillator ist ein Beispiel, das nur bedingt störungstheoretisch behandelt werden kann. Störungsrechnung beinhaltet immer die Annahme einer vergleichsweise kleinen Störung, in unserem Fall einer kleinen treibenden Kraft. Ist diese Bedingung nicht mehr erfüllt liefert die Störungsrechnung, wenn überhaupt, erst in sehr hohen Ordnungen brauchbare Ergebnisse. Hohe Ordnungen sind jedoch durch komplizierte Mehrfachintegrale gegeben, die nicht oder nur sehr schwierig lösbar sein können. Abhängig von der Form der treibenden Kraft kann sich auch schon in erster Ordnung ein nicht mehr analytisch darstellbares Integral ergeben. In der heutigen Zeit hat man eine weitere Möglichkeit die fundamentalen Differentialgleichungen der beiden Mechaniken, also das zweite newtonsche Gesetz (.) für die klassische Mechanik und die Schrödingergleichung (.9) für die Quantenmechanik zu lösen. Beide Gleichungen geben durch eine Zeitableitung an, wie sich eine Größe (die Koordinate der Massepunkte bzw. die Wellenfunktion) verändert. Es sind beides sogenannte Anfangswertprobleme, die allgemein durch folgende Gleichung gegeben sind: dy(t) dt = f (t,y(t)) mit bekanntem y(t ) = y (4.) Alle im Folgenden behandelten Methoden dienen der Lösung solcher Anfangswertprobleme. Eine Ableitung ist immer definiert durch einen Grenzübergang, also den Limes t, aus einem Differenzenquotienten y(t+ t) y(t) t. Das Grundprinzip der numerischen Berechnung ist nun, diesen Grenzübergang rückgängig zu machen, um somit eine Berechnung in diskreten Zeitschritten zu ermöglichen. 4. Euler-Verfahren 4.. Explizites Euler-Verfahren Man erhält das sogenannte explizite Euler-Verfahren, indem man schlicht die Taylorentwicklung von y(t+ t) um den bekannten Anfangswert y(t) verwendet. Zusätzlich ersetzt man den Zeitparameter t durch einen Index i um die Diskretisierung in der Zeit zu verdeutlichen: y(t + t) = y(t) + t dy(t) dt }{{} = f (t,y(t)) + t y i := y(t + i t) d y(t) dt +... y i+ = y i + t f (t,y i ) + O( t ) (4.) Terme proportional zu t und höhere Ordnungen werden also vernachlässigt oder anders ausgedrückt: f (t,y(t)) und damit auch dy(t) dt werden im Zeitintervall [t; t + t[ als konstant angenommen. Damit handelt es sich um ein Verfahren erster Ordnung. Auf der rechten Seite der fundamentalen Gleichungen hat man mit f (t,y(t)) einen Ausdruck, der angibt, wie sich y(t) zum Zeitpunkt t ändert. Diesen Ausdruck muss man berechnen, um ihn in Gleichung (4.) einzusetzen und daraus y i+ zu bestimmen. Dies kann direkt möglich sein, z.b. eine gegebene treibende Kraft in der klassischen Mechanik. Es kann sich dabei aber auch um einen weiteren Differentialoperator handeln, wie z.b. für die Schrödingergleichung in der Ortsdarstellung. In diesem Fall kann man den Differentialoperator 8

29 wieder mit Hilfe einer Taylorentwicklung ausdrücken, worauf wir in Kapitel 4.4 noch genauer eingehen werden. Man kann also aus einem gegebenen Anfangswert den Wert für einen Zeitschritt später berechnen. Dies setzt man beliebig fort und erhält somit die gesuchte Zeitentwicklung in diskreten Schritten t. Dieses Verfahren ist die einfachste Methode, um ein Anfangswertproblem numerisch zu behandeln. Der Mathematiker Leonhard Euler behandelte es bereits in seinem Buch Institutionum calculi integralis von 768 [HNW8, S. 35] und die Methode ist daher nach ihm benannt. Ein weiterer Punkt ist, dass auf der rechten Seite der Gleichung nur Werte y i zum Zeitpunkt t vorkommen. Die Gleichung ist also ein expliziter Ausdruck für den Iterationsschritt, der y i+ liefert. Deswegen wird das Verfahren explizites Euler-Verfahren genannt. Genauigkeit Diese Näherung gilt wenn t genügend klein ist. Was genau dabei genügend bedeutet und wie genau die Ergebnisse auch über viele Schritte, also große Zeiten hinweg sind, werden wir in Kapitel 5 genauer betrachten. Dazu werden wir die Resultate dieses Verfahrens für den harmonischen Oszillator mit den analytischen Lösungen aus den Kapiteln.. und.. vergleichen. Der Term O( t ) in Gleichung (4.) lässt aber schon eine Abschätzung zu: der Fehler in einem Zeitschritt ist für ein Verfahren erster Ordnung in etwa proportional zu t. Stabilität Der Begriff der Stabilität eines numerischen Verfahrens gibt ein Kriterium an, für welche Funktionen f (t,y(t)) es funktioniert, für welche es also sinnvolle Näherungen liefert. Wie wir sehen werden, ist dies nicht immer und speziell auch beim expliziten Euler-Verfahren in Verbindung mit dem harmonischen Oszillator nicht gegeben. Wir werden die Stabilität nun theoretisch untersuchen, aber man erkennt in Kapitel 5 auch am praktischen Beispiel sofort, welche Auswirkungen die (In-)Stabilität eines Verfahrens auf die Ergebnisse hat. Man verwendet zur theoretischen Untersuchung die dahlquistsche Testgleichung [Dah63]: f (t,y(t)) = λy(t) mit y(t = ) =, λ C und Re(λ) < dy(t) = λy(t) (4.3) dt Man sieht sofort, dass die analytische Lösung durch: y(t) = e λt und lim t y(t) = (4.4) gegeben ist. Dies wird mit den jeweiligen numerischen Verfahren verglichen, hier also mit dem expliziten Euler-Verfahren (4.). Man bringt dazu das numerische Verfahren in die Form: y i+ = R( tλ)y i y i = R( tλ) i (4.5) Dabei wird R(z) Stabilitätsfunktion und der Bereich R(z) < in der komplexen Ebene Stabilitätsgebiet genannt. In diesem Bereich konvergiert y i für i gegen und liefert damit das richtige Ergebnis für den Grenzwert der analytischen Lösung (4.4). Für R(z) > bilden sich dagegen Oszillationen mit steigender Amplitude und das Verfahren divergiert, es liefert damit kein brauchbares Ergebnis mehr. Das Stabilitätsgebiet lässt also Aussagen darüber zu, wann das jeweilige Verfahren funktioniert. Sowohl der klassische als auch der quantenmechanische harmonische Oszillator sind sogenannte steife Anfangswertprobleme. Für diese Probleme ist es von erheblichem Vorteil, wenn die komplette linke Hälfte der komplexen Ebene im Stabilitätsgebiet enthalten ist. Dies wird klar, wenn man sich verdeutlicht, dass λ ein Parameter ist, der durch die Problemstellung mit Re(λ) < festgelegt wird. Für ein solches Verfahren kann man also die Schrittweite t > beliebig wählen und befindet sich dennoch immer im Stabilitätsgebiet R( tλ) <. Man erhält relativ sinnvolle Ergebnisse. Diese werden zwar für große t sehr ungenau, sie divergieren aber nicht. Ein solches Verfahren wird A-stabil genannt. 9

30 Für das explizite Euler-Verfahren erhält man für die Stabilitätsfunktion R(z): y = y i+ = y i + t f (t,y i ) = ( + tλ) } {{ } =R( tλ) y i R(z) = + z (4.6) Daraus erkennt man, dass das Stabilitätsgebiet durch das Innere eines Kreises mit Radius um den Punkt in der komplexen Ebene gegeben ist. Das explizite Euler-Verfahren ist also nicht A-stabil. Man muss die Schrittweite t allein aus Stabilitätsgründen genügend klein wählen, damit + tλ < erfüllt ist. Das kann zu einem sehr hoher Rechenaufwand führen, nur damit das Verfahren nicht divergiert. Genauigkeitsüberlegungen haben dabei noch gar keine Rolle gespielt. 4.. Implizites Euler-Verfahren Das Problem der Stabilität des expliziten Euler-Verfahrens kann umgangen werden. Dazu setzt man wieder die Taylorentwicklung an. Anstatt allerdings den gesuchten Wert um den bekannten Anfangswert zu entwickeln, kann man auch diesen Anfangswert y(t) um den noch unbekannten gesuchten Wert y(t + t) entwickeln. Dies liefert das implizite Euler-Verfahren: y(t) = y(t + t) t dy(t + t) dt } {{ } = f (t+ t,y(t+ t)) + t d y(t + t) dt +... y i+ = y i + t f (t + t,y i+ ) + O( t ) (4.7) Aus dieser Gleichung kann man, im Gegensatz zum expliziten Euler-Verfahren, den Wert von y i+ nicht direkt berechnen, er ist nur implizit gegeben. Daher kommt auch der Name implizites Euler-Verfahren. Um diesen Wert nun zu erhalten, muss das Gleichungssystem, das durch Gleichung (4.7) gegeben ist, gelöst werden. Die folgende Stabilitätsbetrachtung dient gleichzeitig als einfaches Beispiel zur Anwendung. Hier sei noch erwähnt, dass es sich auch bei dem impliziten Euler-Verfahren um ein Verfahren erster Ordnung handelt und somit der Fehler pro Zeitschritt, wie schon beim expliziten Euler-Verfahren, in etwa proportional zu t ist. Stabilität Analog zu Kapitel 4.. werden wir auch hier wieder unter Verwendung der dahlquistischen Testgleichung (4.3) das Stabilitätsgebiet bestimmen: y = y i+ = y i + t f (t + t,y i+ ) = y i + tλy i+ Um daraus nun die Rekursionsformel zu erhalten, muss man diese Gleichung nach y i+ auflösen. Hier ist das relativ einfach. Im Allgemeinen kann y selbst aber z.b. ein Vektor sein und man erhält ein ganzes Gleichungssystem, das man z.b. mit dem Gauß-Verfahren lösen kann. Genau das wird bei uns auch für den harmonischen Oszillator sowohl klassisch als auch quantenmechanisch der Fall sein. Es könnte auch sein, dass y i+ in f (t + t,y i+ ) nicht nur linear vorkommt was das Problem noch weiter verkomplizieren würde. Bei uns ist aber immer nur ein linearer Zusammenhang gegeben. Auflösen nach y i+ liefert: ( tλ)y i+ = y i y i+ = R(z) = z } {{ tλ } =R( tλ) y i (4.8) 3

31 Aus R(z) = z < folgt z >. Dies bedeutet, dass das Stabilitätsgebiet durch das gesamte Äußere des Kreises mit Radius um den Punkt + in der komplexen Ebene gegeben ist. Damit ist die linke Halbebene enthalten und das implizite Euler-Verfahren ist A-stabil und damit zum numerischen Lösen des harmonischen Oszillators um ein Vielfaches besser geeignet als das explizite Euler-Verfahren. In Kapitel 5 werden die Ergebnisse dieser beider Verfahren direkt gegenübergestellt. 4. Runge-Kutta-Verfahren Im letzten Kapitel haben wir mit den beiden Euler-Verfahren zwei einfache Methoden zur numerischen Lösung einer Differentialgleichung behandelt. Beide Methoden waren Verfahren erster Ordnung und folglich war ihr Fehler proportional zu t. In diesem Kapitel soll nun die Klasse der Runge-Kutta-Verfahren behandelt werden. Diese stellen eine Verallgemeinerung der Euler-Verfahren dar und beide Euler-Verfahren sind somit auch Runge-Kutta-Verfahren. Die Grundidee ist, dass die Funktion f (t,y(t)) in einem Iterationsschritt nicht nur an einer Stelle ausgewertet wird, wie das bei den Euler-Verfahren der Fall ist, sondern an beliebig vielen. Ein s-stufiges Runge-Kutta-Verfahren wertet f (t,y(t)) an s verschiedenen Stellen aus. Ein solches Verfahren kann man mit Kombinationen von Taylorentwicklungen um verschiedene Punkte herleiten. Als Beispiel wird nun die Mittelpunktmethode hergeleitet. Dazu entwickelt man zuerst sowohl den Anfangsals auch den Zielwert um die Entwicklungsstelle t + t: y(t) = y(t + t) t dy(t + t) dt y(t + t) = y(t + t) + t dy(t + t) + t d y(t + t) 4 + t dt 4 und subtrahiert dann die beiden Taylorentwicklungen voneinander: dt +... (4.9a) d y(t + t) dt +... (4.9b) (4.9b) (4.9a) y i+ y i = t dy(t + t) +O( t 3 ) (4.) } {{ dt } = f (t+ t,y(t+ t)) Die Besonderheit in diesem Schritt ist, dass die Terme mit t sich aufheben und man somit eine Näherung zweiter Ordnung erhält. Allerdings ist der Wert von y(t+ t) noch unbekannt und man setzt dafür nochmals die Taylorentwicklung ein: y(t + t) = y(t) + t dy(t) dt }{{} = f (t,y i ) + t d y(t) 4 dt +... y i+ = y i + t f (t,y i) + O( t ) ( y i+ = y i + t f t + ) t,y i+ + O( t 3 ) (4.) Die Mittelpunktmethode stellt, wie man nun auf den ersten Blick erkennen kann, ein zweistufiges explizites Runge-Kutta-Verfahren dar: man berechnet zuerst aus y i einen Zwischenwert y i+ und dann aus diesen beiden den gesuchten Wert y i+. Beide Berechnungen sind explizit und damit das gesamte Verfahren. Außerdem ergibt sich nur eine Fehler proportional zu t 3. Der Fehler des Zwischenwertes geht zwar mit t, dieser wird jedoch im zweiten Schritt nochmals mit t multipliziert. Dieses Verfahren ist allerdings, da es explizit ist, wieder nicht A-stabil. Ein s-stufiges Runge-Kutta-Verfahren hat allgemein folgende Form: s k j = f t + tc j,y i + t a jl k l, j =,...,s (4.a) l= y i+ = y i + t s b j k j j= (4.b) 3

32 Es müssen also zuerst die s Zwischenwerte k bis k s berechnet werden um dann aus ihnen eine Linearkombination zu bilden, die die Näherung für y i+ darstellt. Im Allgemeinen ist die Berechnung der Zwischenwerte aber nicht explizit möglich, denn die Zeile (4.a) stellt ein ganzes Gleichungssystem dar. Je nach gegebenem f (t,y(t)) kann dies sehr kompliziert werden. Wir werden in den folgenden Kapiteln aber noch genauer sehen, was für diese Berechnung nötig ist. Ein Runge-Kutta-Verfahren ist explizit, wenn für l j alle a jl = sind. In diesem Fall kann jedes k j aus y i und den vorhergehenden k j explizit berechnet werden. Für die Runge-Kutta-Verfahren kann man, genauso wie bereits für die Euler-Verfahren, mit der dahlquistischen Testgleichung wieder das Stabilitätsgebiet berechnen. Dies würde hier aber zu weit führen. Führt man die Berechnung durch wird aber deutlich, dass ein explizites Runge-Kutta-Verfahren im Gegensatz zu einem impliziten nie A-stabil sein kann. Die charakteristischen Koeffizienten b j, c j und a jl stellt man oft in einem sogenannten Butcher-Tableau folgendermaßen dar: c a a... a s c a a... a s c s a s a s... a ss b b... b s Im Tabelle 4. sind einige gängige Runge-Kutta-Verfahren mit Ordnung, Angabe, ob sie implizit oder explizit sind, und Butcher-Tableau aufgeführt. Alle als implizit gelisteten Verfahren sind auch A-stabil. 3

33 Name explizites Euler-Verfahren. Ordnung explizit implizites Euler-Verfahren. Ordnung implizit Mittelpunktmethode. Ordnung explizit Gauß-Legendre (auch impl. Mittelpunktmethode). Ordnung implizit Trapezmethode. Ordnung implizit klassisches Runge-Kutta-Verfahren 4. Ordnung explizit Butcher-Tableau Gauß-Legendre 4. Ordnung implizit Tabelle 4.: Gängige Runge-Kutta-Methoden 33

34 4.3 Klassische Betrachtung Um nun den klassischen Oszillator numerisch zu berechnen fehlt uns noch ein kleines Detail: alle in den vergangenen Kapiteln betrachteten Verfahren gehen von einer Differentialgleichung erster Ordnung aus. Das zweite newtonsche Gesetz ist allerdings eine Differentialgleichung zweiter Ordnung. Eine Differentialgleichung zweiter Ordnung kann man aber auch einfach durch zwei Differentialgleichungen erster Ordnung ausdrücken und aus F = ma mit a = v = ẍ folgt: dx(t) = v(t) dt dv(t) = F(t,x(t)) dt m (4.3) Nun fasst man x(t) und v(t) zu einem zweidimensionalen Vektor zusammen und schreibt das zweite newtonsche Gesetz als Vektor-Differentialgleichung in genau der Form (4.) die wir als Ausgang für alle numerischen Überlegungen verwendet haben: ( ) x(t) u(t) = v(t) d u(t) dt u v (t) = f (t, u(t)) mit f (t, u(t)) = (4.4) F(t,u x (t)) m Dabei bezeichnen u x (t) = x(t) und u v (t) = v(t) die x- bzw. v-komponente der erweiterten Koordinate u(t). Man hat nun alles zusammen, was man braucht, um eine numerische Berechnung des klassischen Oszillators durchzuführen: die Bewegungsgleichung in der Form (4.) und ein numerisches Verfahren, das angibt, wie ein Iterationsschritt von u(t) nach u(t + t) aussieht. Die zeitliche Diskretisierung wird wieder durch einen Index i gekennzeichnet: ( ) ( ) xi x(t + i t) u i := := u(t + i t) = (4.5) v(t + i t) v i Wir werden nun den Iterationsschritt am Beispiel des impliziten Euler-Verfahrens beschreiben. Das Prinzip ist aber für jedes numerische Verfahren das gleiche. Alles was man nun noch zu tun hat, ist die charakteristischen Koeffizienten und die erweiterte Koordinate u i und f (t, u i ) aus (4.4) in die allgemeine Form des Runge-Kutta-Verfahrens (4.a) und (4.b) einzusetzen. Für das implizite Euler-Verfahren erhält man mit der Kraft für den getriebenen harmonischen Oszillator (.8): F(t,x) = kx + F S (t) u i+ = u i + t f (t + t, u i+ ) Schreibt man f (t + t, u i+ ) aus, erhält man das zu lösende Gleichungssystem: x i+ = x i + tv i+ v i+ = v i + t m ( kx i+ + F S (t + t) ) (4.6) } {{ } =F(t,x i+ ) Man hat also ein lineares Gleichungssystem mit zwei Gleichungen und zwei Unbekannten erhalten. Dieses wird in jedem Iterationsschritt nach den Unbekannten x i+ und v i+ aufgelöst, wozu man z.b. den Gauß- Algorithmus verwenden kann. Man hat jetzt aus einem gegebenen Anfangszustand x und v die Zeitentwicklung des getriebenen klassischen harmonischen Oszillators in diskreten Zeitschritten t erhalten. Dabei 34

35 ist die numerische Berechnung unabhängig von der Form der treibenden Kraft F S, da nur ihr Wert zu bestimmten Zeiten in die Berechnung eingeht. Dieser kann in beliebiger Form gegeben sein. Genau hier liegt der Vorteil der numerischen Methode: egal wie kompliziert die treibende Kraft ist, man erhält immer ein Ergebnis. Die Genauigkeit kann dabei durch t gesteuert werden und ist nur durch die zur Verfügung stehende Rechenzeit bzw. -leistung begrenzt. Für kleinere t wird das Ergebnis je nach Fehlerordnung des Verfahrens um ein Vielfaches genauer, es müssen aber auch mehr Berechnungen durchgeführt werden. Hier wurde nur der harmonische Oszillator betrachtet. Möchte man den anharmonischen Fall, wie er in Kapitel 3 beschrieben wurde, numerisch berechnen, so ändert sich F(t,x). Insbesondere taucht darin dann ein Term auf, in dem x in dritter Potenz vorkommt. Dieser Term taucht folglich auch in Gleichung (4.6) auf. Damit ist das Gleichungssystem, das aus jedem impliziten Verfahren resultiert, nicht mehr linear und lässt sich nur noch schwierig lösen. So kann man ein nicht-lineares Gleichungssystem auch nicht mehr mit dem Gauß-Verfahren lösen, sondern müsste hier z.b. das Newton-Verfahren verwenden um eine Näherungslösung zu erhalten. Verwendet man hingegen ein explizites Verfahren, wie z.b. das klassische Runge-Kutta-Verfahren, so taucht darin F(t,x) nur von bekannten x auf und kann somit direkt ausgerechnet werden. Ein explizites Verfahren ist somit unabhängig von der Form von F(t,x) anwendbar. Wir werden uns daher für den klassischen anharmonischen Oszillator auf explizite Verfahren beschränken. Obwohl diese nicht A-stabil sind, kann man damit sehr präzise Lösungen erhalten, wie Kapitel 5 zeigen wird. 4.4 Quantenmechanische Betrachtung Wir wollen nun mit den zuvor betrachteten numerischen Methoden den quantenmechanischen Oszillator behandeln. Man muss sich hier, bevor man losrechnen kann, für eine Basis entscheiden: naheliegend sind einerseits die Orts- und Impulsbasis und andererseits die Besetzungszahlbasis. Dabei sind die Berechnungen in Orts- und Impulsbasis ähnlich, da der Orts- und der Impulsoperator beide die gleiche Form in der Basis des jeweils anderen haben. Wir werden uns daher auf die Ortsbasis beschränken. Für den anharmonischen Oszillator kann man die Berechnung auch in der Besetzungszahlbasis des harmonischen Oszillators durchführen, was einige Vorteile hat Ortsbasis Wir wollen zuerst in der Ortsbasis rechnen. Damit ist der quantenmechanische Zustand des Systems eine komplexwertige Funktion der Zeit t und des Ortes x: x ψ(t) = ψ(t,x) (4.7) Im Gegensatz zur klassischen Mechanik hat man es bei der fundamentalen Gleichung der Quantenmechanik, der Schrödingergleichung (.9), mit einer Differentialgleichung erster Ordnung zu tun. Diese hat somit schon die Form (4.) und wir müssen hier nichts verändern. In der Ortsdarstellung folgt mit ˆp = i x und ˆx = x für die Schrödingergleichung: i ψ(t,x) t = ) m x + V(t,x) ψ(t,x) (4.8) ( Hier hat man nun den Fall, der in Kapitel 4.. schon kurz erwähnt wurde: man hat auf der rechten Seite, also in f (t,ψ(t,x)) mit einen weiteren Differentialoperator. Außerdem ist die Wellenfunktion ψ(t,x) eine x Funktion, die einmal von der Zeit t und dann auch vom Ort x abhängt. Die Zeitabhängigkeit wird analog zur Zeitabhängigkeit von x(t) und v(t) in der klassischen numerischen Berechnung wieder mit der Schrittweite t diskretisiert. Wir müssen nun allerdings, um nicht mit einer ganzen Funktion, sondern mit einzelnen Werten rechnen zu können, auch die Ortsabhängigkeit diskretisieren. Daraus ergibt sich dann eine Näherung der Wellenfunktion zu einer bestimmten Zeit. Also berechnen wir ψ(t,x) nicht für kontinuierliche Werte von x sondern, analog zur Zeitabhängigkeit, nur an diskreten Werten x i. Wir haben bisher immer praktischerweise x = als das Potentialminimum, also die Ruhelage, gewählt. Dann wird sich der klassische Massepunkt und damit auch der Bereich, in dem der Betrag der Wellenfunktion ungleich null ist, immer in der Umgebung 35

36 von x = befinden. Für x können wir für relativ kleine Energien annehmen, dass ψ(t,x) = ist. Wir wählen uns n Stützstellen x bis x n in diesem Bereich um x =, mit Abstand x und berechnen die Wellenfunktion nur innerhalb dieses Bereichs: x j = x min + j x für j =,...,n (4.9) Die Parameter x min und x müssen dementsprechend gewählt werden. Damit haben wir ψ(t,x) in beiden Parametern diskretisiert, und um dies deutlich zu machen, definieren wir: ψ i j := ψ j (t + i t) := ψ(t + i t,x min + j x) ψ (t + i t) ψ (t + i t) ψ i := ψ(t + i t) :=. ψ n (t + i t) (4.) Die ortsdiskretisierte Wellenfunktion ist also ein zeitabhängiger n-dimensionaler Vektor. Die zusätzliche Diskretisierung der Zeit ergibt den zweiten Index i. Finite Differenzen Da wir nun jedoch keine Funktion mit kontinuierlichem Parameter x mehr haben, sondern nur noch eine Näherung davon, müssen wir auch den Differentialoperator, der in der Schrödingergleichung in Ortsbasis (4.8) auftaucht, anders ausdrücken. Dies bewerkstelligt man, indem man wieder Taylorentwicklungen x verwendet. Da es sich um einen Differentialoperator zweiten Grades handelt, benötigt man mindestens die Taylorentwicklung um zwei Punkte. Um den Wert von ψ(t,x) am Ort x zu berechnen, verwendet man die x Taylorentwicklungen von ψ(t,x x) und ψ(t,x + x) um x und erhält: ψ(t,x ) = ψ(t,x) x ψ(t,x) x ψ(t,x + ) = ψ(t,x) + x ψ(t,x) x + x + x ψ(t,x) x +... (4.a) ψ(t,x) x +... (4.b) Durch Addition der beiden Zeilen fallen alle ungeraden Terme, also insbesondere x ψ(t,x) x, weg. Der erste weggelassene Term wächst mit x 4, wodurch sich die Fehlerordnung ergibt: (4.a) + (4.b) ψ j (t) + ψ j+ (t) = ψ j (t) + x ψ(t,x) x + O( x 4 ) ψ(t,x) x = ψ j (t) ψ j (t) + ψ j+ (t) x + O( x ) (4.) Man hat also eine Näherung zweiter Ordnung für die zweite Ableitung erhalten. Speziell diese Formel nennt man Dreipunktformel. Verwendet man außer den Entwicklungen von ψ(t,x x) und ψ(t,x + x) auch noch die Entwicklungen von ψ(t,x x) und ψ(t,x + x), so kann man durch Linearkombination aller vier Gleichungen erreichen, dass auch der Term mit x 4 wegfällt und nur Terme mit x 6 und höher übrig bleiben. Somit liefert dies eine Näherung vierter Ordnung. Dies lässt sich für beliebige Ableitungen in beliebiger Ordnung durchführen und liefert allgemein für die n-te Ableitung eine Näherung m-ter Ordnung: n ψ(t,x) x n = m x n a k ψ j+k (t) + O( x m ) (4.3) k= m Dabei sind a i die Finite-Differenzen-Koeffizienten und das Verfahren, um die Ableitung zu nähern, wird Finite-Differenzen-Methode genannt. Die Koeffizienten der zweiten Ableitung für verschiedene Ordnungen sind in Tabelle 4. angegeben. Im Allgemeinen müssen diese finiten Differenzen nicht symmetrisch sein, 36

37 allerdings reicht dies für unsere Zwecke aus. Die einzigen zwei Stellen, an denen es Probleme geben könnte, wären x und x n. Da wir aber angenommen haben, dass die Wellenfunktion außerhalb dieses Bereichs null ist, muss sie auch am Rand schon verschwindend klein sein, und wir müssen keine asymmetrischen Differenzen verwenden. Ist dies nicht gegeben, funktioniert unsere numerische Berechnung sowieso nicht mehr, da die Welle den Bereich in den nächsten Zeitschritten verlassen würde, d.h. wir müssen den Bereich schlicht größer wählen. Ordnung m a 4 a 3 a a a a a a 3 a Tabelle 4.: Finite-Differenzen-Koeffizienten a k der zweiten Ableitung aus [For88] Iterationsschritt Mit der ortsdiskretisierten Wellenfunktion (4.) und der Näherung für die Ableitung (4.3) können wir nun am Ort x j den Hamiltonoperator angewandt auf diese Wellenfunktion schreiben als: = m x Ĥ(t)ψ(t,x j ) = ( ) m x + V(t, x j) Ψ(t,x j ) = m j+m ) a k Ψ j+k (t) + V(t,x j )Ψ j (t) = ( m x a k j + δ jk V(t,x k ) Ψ k (t) (4.4) k= j m } {{ } =:Ĥ jk (t) k= m Das bedeutet also, dass wir den Hamiltonoperator Ĥ(t) in Ortsdiskretisierung durch eine zeitabhängige Matrix mit den Komponenten Ĥ jk (t) ausgedrückt haben. Die Anwendung des Hamiltonoperators auf einen Zustand stellt nun eine einfache Matrix-Vektor-Multiplikation dar. Die Matrix des Hamiltonoperators sieht wie folgt aus: α +V(t,x ) α... α α +V(t,x ) α... Ĥ(t) =... α α +V(t,x ) α mit α k := α α +V(t,x n ) α m x a k (4.5) Alle Elemente dieser Matrix sind für jeden Zeitpunkt t bekannt und somit ausrechenbar. Man setzt diese Matrix nun in die Schrödingergleichung in Ortsbasis (4.8) ein und formt diese dadurch in eine Vektor- Differentialgleichung der Form (4.) um: i d ψ(t) dt = Ĥ(t) ψ(t) (4.6) 37

38 Genau diese Form haben wir bis auf einen Faktor i bereits bei der klassischen Berechnung in Kapitel 4.3 erhalten und verwendet. Somit können wir daraus wieder f (t, ψ(t)) ablesen: dψ j (t) = i n Ĥ jk (t)ψ k (t) dt k= } {{ } für j =,...,n = f j (t, ψ(t)) f j (t, ψ(t)) = i n m x a k j ψ k (t) V(t,x j)ψ j (t) (4.7) k= Dies kann nun wieder in ein beliebiges numerisches Verfahren eingesetzt werden und liefert damit den Iterationsschritt, was hier nochmals am Beispiel des impliziten Euler-Verfahrens demonstriert wird: V(t,x) = Ax 4 + mω x + F S (t)x ψ i+ = ψ i + t f (t + t, ψ i+ ) f (t + t, ψ i+ ) wird wieder ausgeschrieben und liefert: ψ i+, j = ψ i j + i t m x j+m k= j m a k j ψ i+,k (t) t ( Ax 4 j + ) mω x j + F S(t + t)x j ψ i+, j } {{ } =V(t+ t,x j ) für j =,...,n (4.8) Dies sieht nun zwar relativ kompliziert aus, ist aber nur ein lineares Gleichungssystem mit den n unbekannten ψ i+, bis ψ i+,n und n Gleichungen. Damit ist es z.b. durch das Gauß-Verfahren einfach lösbar. Im Unterschied zum klassischen Iterationsschritt (4.6) ist nun auch x keine Variable mehr, sondern die x j haben feste Werte und ihre höhere Potenz behindert nicht das Lösen des Systems. Das Gleichungssystem bleibt auch für den anharmonischen Oszillator linear. Außerdem ist a k j für k j > m gleich null, wobei m die Ordnung der gewählten finiten Differenz für die Ortsableitung ist. Damit ist die Koeffizientenmatrix des Gleichungssystems eine Bandmatrix der Breite m + und somit sehr dünn besetzt. Das Gleichungssystem lässt sich somit mit einem modifizierten Gauß-Algorithmus in O(nm ) relativ schnell lösen. Wie schon beim klassischen Fall, ist auch diese Lösung vollkommen unabhängig von der Form von F S (t). Diesmal kommt sogar V(x) nur mit bestimmten Werten für x (nämlich genau die x j ) vor. Damit ist ein numerisches Verfahren wie dieses auch unabhängig von der Form von V(x) und kann für ein beliebiges Potential angewandt werden Besetzungszahlbasis des harmonischen Oszillators Nun wollen wir die Berechnung in der Besetzungszahlbasis durchführen. Der quantenmechanische Zustand ist damit eine Funktion der Zeit t und der Besetzungszahl n: ψ n ψ(t) = ψ(t,n) (4.9) Im letzten Kapitel mussten wir, um numerisch rechnen zu können, zuerst die x-werte diskretisieren, da x kontinuierliche Werte annehmen konnte. Damit war zusätzlich zu der Näherung zur Diskretisierung der Zeitwerte t eine weitere Näherung nötig. Die Besetzungszahl n kann aber nur ganze positive Werte annehmen, und zwar genau die Eigenwerte des Besetzungszahloperators ˆN. Somit ist hier keine weitere künstliche Diskretisierung, und damit auch keine Näherung mehr nötig. Um dies zu verdeutlichen, definieren wir analog zur Ortsdiskretisierung: ψ in := ψ n (t + i t) := ψ(t,n) ψ (t + i t) ψ i := ψ(t + i t) := ψ (t + i t). (4.3) 38

39 Somit hat man es beim Zustand wieder mit einem Vektor zu tun. Es stellt sich nun allerdings ein neues Problem: die Besetzungszahl kann alle ganzen positiven Werte, also unendlich viele Werte annehmen. Der Vektor ψ(t) ist unendlichdimensional. Es ist aber selbstverständlich nicht möglich unendlich viele Werte numerisch zu berechnen und wir müssen n beschränken. Dazu nehmen wir an, dass ψ n (t) = für n > N gilt. Das bedeutet anschaulich ausgedrückt, dass Zustände mit hoher Besetzungszahl und damit hoher Energie unbesetzt sind. Niederenergetische Zustände befinden sich immer in der Nähe der Ruhelage x =. Die Beschränkung von n ist also in etwa gleichbedeutend mit der Beschränkung von x auf einen Bereich um diese Ruhelage aus Kapitel In Kapitel.. haben wir bereits die Matrixdarstellungen der Operatoren â, â und ˆN bestimmt und wir wissen auch wie der Hamiltonoperator des ungetriebenen harmonischen Oszillators Ĥ (.6) und der Ortsoperator ˆx (.44) dadurch ausgedrückt werden können. Durch die Beschränkung n < N werden automatisch auch diese Matrizen auf die Größe N N beschnitten. ( Ĥ = ω ˆN + ) + + = ω N (â ˆx = ) + â = mω mω N N (4.3) Der Hamiltonoperator des getriebenen anharmonischen Oszillators ist in Besetzungszahlbasis gegeben durch: Ĥ(t) = Ĥ + A ˆx 4 + F S (t) ˆx (4.3) Nun sind wieder alle Matrixelemente des Hamiltonoperators Ĥ(t) zu einem Zeitpunkt t bekannt. Somit kann man die zeitabhängige Schrödingergleichung (.9) wieder in der Form (4.) schreiben. Für f (t, ψ(t)) erhält man: d ψ(t) = f (t, ψ(t)) dt ( mit f n (t, ψ(t)) = iω n + ) ψ n (t) i N ( ) A ˆx 4 nk + F S (t) ˆx nk ψk (t) (4.33) Nach Wahl eines numerischen Verfahrens erhält man daraus wieder das Gleichungssystem für den Iterationsschritt. All dies geschieht vollkommen analog zum Vorgehen in der Ortsbasis, einzig die Matrixelemente des Hamiltonoperators Ĥ nk (t) sind verschieden. Der Vorteil der Berechnung in der Besetzungszahlbasis ist, dass die Diskretisierung schon vorgegeben ist und damit die zweite Näherung entfällt. In der Ortsbasis muss man n sehr groß wählen um den Fehler zu minimieren. Das resultiert in einem großen Gleichungssystem und damit einer langen Berechnungszeit für einen Iterationsschritt. In der Besetzungszahlbasis muss man N nur groß genug wählen um den erwarteten Energiebereich abzudecken. Wie wir in Kapitel 5 sehen werden ist mit einem sehr viel kleineren N ein ebenso genaues Ergebnis möglich, jedoch ist dieses auf dem gleichen Computer sehr viel schneller zu berechnen. Ein kleinerer Nachteil dieser Methode ist jedoch, dass das Potential nicht mehr beliebig ist. Es muss durch die Summe aus harmonischem Potential und Operatoren mit bekannter Matrixdarstellung in Besetzungszahlbasis darstellbar sein. Für unseren Fall ist dies ideal, da die Matrixdarstellung von ˆx und damit auch Potenzen davon bekannt sind Besetzungszahlbasis des anharmonischen Oszillators Auch für den anharmonischen Oszillator existiert eine Besetzungszahlbasis, also eine Eigenbasis des Besetzungszahloperators und des Hamiltonoperators. Ein Operator (mit diskreten Eigenwerten) ist in seiner k= 39

40 Eigenbasis immer durch eine Diagonalmatrix mit den Eigenwerten auf der Diagonalen gegeben. Der Besetzungszahloperator ist in seiner Eigenbasis also durch eine Diagonalmatrix mit den Besetzungszahlen,,,... auf der Diagonalen und der Hamiltonoperator analog durch eine Diagonalmatrix mit den Eigenenergien des Systems E,E,E,... auf der Diagonalen gegeben. Um allerdings Berechnungen in dieser Basis durchzuführen, benötigen wir sowohl die Eigenenergien als auch eine Darstellung des Ortsoperators ˆx in dieser Basis. Beides ist analytisch nicht exakt berechenbar, und wenn die Anharmonizität zu groß wird, versagt auch die Störungstheorie aus Kapitel 3. In den letzten beiden Kapiteln haben wir aber den Hamiltonoperator unter geeigneten Annahmen bzw. Näherungen als endlichdimensionale Matrix dargestellt. Der zeitunabhängige Teil, also (4.5) und (4.3) mit F S (t) =, dieser Matrizen ist dabei immer reell und symmetrisch. Somit sind sie diagonalisierbar. Im Folgenden steht E für die Eigenbasis und B für die gewählte Ausgangsbasis, also entweder die Ortsbasis oder die Eigenbasis des harmonischen Oszillators. Die Diagonalisierung einer Matrix liefert mit Ĥ E und Ŝ die Eigenwerte und die Eigenvektoren. Die Eigenvektoren entsprechen den Eigenzuständen des Systems. E E Ŝ Ĥ B Ŝ = Ĥ E = E... (4.34) Die Matrix Ŝ enthält dabei die Eigenvektoren b i von Ĥ B als Spaltenvektoren. Diese sind linear unabhängig und Ŝ stellt somit eine unitäre Transformation von der Eigenbasis in die Basis B dar. Angenommen man hat einen Zustandsvektor ψ B in der Basis B gegeben und möchte diesen in die Eigenbasis E abbilden, also die Basis wechseln, muss man also nur von links mit Ŝ multiplizieren: ψ E,i = b i ψ B ψ E = Ŝ ψ B (4.35) Die Basis eines beliebigen Operators  B wird, passend zu (4.34), folgendermaßen gewechselt:  E = Ŝ  B Ŝ (4.36) Da wir die Matrixdarstellung des Ortsoperators ˆx B in der Basis B, also der Ortsbasis bzw. der Besetzungszahlbasis des harmonischen Oszillators kennen, können wir mit Ŝ den zeitabhängigen Hamiltonoperator in Eigenbasis angeben: Ĥ(t) = Ĥ E + Ŝ ˆx B Ŝ } {{ } F S (t) (4.37) = ˆx E Alle diese Matrizen sind nach der Diagonalisierung von Ĥ B bekannt und man kann nun wieder mit einem numerischen Verfahren nach Wahl aus einem Ausgangszustand die Zeitentwicklung berechnen. Zusätzlich haben wir durch die Diagonalisierung auch die Eigenzustände und somit insbesondere den Grundzustand erhalten. Zur Diagonalisierung wurde das Jacobi-Verfahren verwendet. Dieses bringt eine Matrix durch mehrere hintereinander ausgeführte sogenannte Jacobi-Rotationen in Diagonalform. Die Jacobi-Rotationen selbst ergeben die Matrix Ŝ. Es handelt sich dabei um ein Näherungsverfahren, das man abbricht, wenn alle Elemente ĤE,i j < ɛ für i j für einen geeignet klein gewählten Wert ɛ, sind. Die verwendete Implementierung stammt von [Hah]. 4

41 5 Ergebnisse In diesem Kapitel sollen nun alle zuvor vorgestellten analytischen und numerischen Methoden miteinander verglichen werden, um ihre Vor- bzw. Nachteile darzulegen. Da die Faktoren m, ω und auch für die beobachtbaren Effekte irrelevant sind und nur die Skalierung ändern, werden diese im Folgenden alle auf gesetzt. Somit entfallen auch alle sonst nötigen Angaben der Einheiten. Außerdem wird die Berechnung immer bei t = gestartet. Die Parameter der treibenden Kraft F S werden, abgesehen von der maximalen Amplitude A S, im Folgenden ebenfalls nicht mehr variiert. Es werden, falls nicht explizit anders angegeben, immer folgende Werte verwendet: B =,5 und t S =. 5. Analytische Lösungen Erwartungswerte Wie bereits in Kapitel.. bestätigt werden konnte, stimmen die klassischen Zeitentwicklungen und die quantenmechanischen Erwartungswerte bei exakter Berechnung überein. Sie werden hier also auch zusammen behandelt. Es stellt sich nun die Frage, für welche Werte der Parameter man den harmonischen Oszillator untersuchen und vergleichen sollte. Wie man in Gleichung (.6) erkennen kann, wirken die Parameter m und A S nur multiplikativ, sie skalieren das Problem also nur auf der x-achse und eine Variation ist damit uninteressant. Auch der Parameter ω wirkt multiplikativ, steht aber zusätzlich noch im Sinus. Dies stellt jedoch nur eine zusätzliche Skalierung auf der Zeitachse dar und somit ist auch eine Variation von ω unnötig. Auch der Parameter B, der in der treibenden Kraft die Anregungsdauer bestimmt, ändert an dem Szenario nur wenig. Damit bleibt nur noch die Anregungsfrequenz übrig. In Abbildung 5. sind die exakten Zeitentwicklungen des Ortes nach Gleichung (.69) bzw (.7) und (.8) und die dazugehörigen treibenden Kräfte abgebildet. Im oberen Graph wird der Oszillator für eine gewisse Zeit mit Resonanzfrequenz ω S = angeregt. Man sieht sehr deutlich, wie in diesem Zeitabschnitt die Amplitude stetig und sehr stark ansteigt. Die Halbwertszeit der Anregung, also die Zeit in der die Anregung mit mehr als 5% ihrer maximalen Amplitude wirkt, beträgt für B =,5 etwas weniger als 8 Zeiteinheiten. Trotzdem steigt die Amplitude der Schwingung auf ca. an. Würde man die treibende Kraft zeitlich nicht beschränken, ergäbe sich die Resonanzkatastrophe. Im mittleren Graph wird der Oszillator mit einer Frequenz ω S =,7 knapp unter der Resonazfrequenz aber ansonsten gleichen Parametern angeregt. Die Schwingungsamplitude steigt dabei mit steigender Anregungsamplitude stetig an. In diesem Bereich wird dem Oszillator auch die Anregungsfrequenz aufgezwungen. Da sich die Anregungsfrequenz noch recht nahe an der Eigenfrequenz befindet ergibt sich am Punkt maximaler Anregungsamplitude t = auch eine relativ große Schwingungsamplitude mit maximalem Ausschlag von ca.. Ab diesem Zeitpunkt fällt die Anregungsamplitude wieder ab und der Oszillator bildet Oberschwingungen bis die Anregung verschwindend gering wird. Ab dann geht der Oszillator wieder in eine harmonische Schwingung über, deren Amplitude von der Anregungsamplitude und der Anregungszeit abhängt. Für den Fall ω S =,8 ergibt sich fast das gleiche Bild (in der Abbildung unten). Hier ist die Anregungsfrequenz allerdings schon weiter von der Eigenfrequenz entfernt und so ist auch die Schwingungsamplitude geringer. Man erkennt hier im Bereich von t bis etwa t 5 sehr gut die Oberschwingungen. Diese Ergebnisse sind wenig spektakulär und decken sich vollständig mit unseren Erwartungen. 4

42 x(t) = ˆx (t) F S (t) t t,4,,, t Abbildung 5.: Exakte klassische Zeitentwicklung x(t) bzw. quantenmechanischer Ortserwartungswert ˆx (t): Resonanzfall ω S = (oben), Anregung langsamer als Resonanzfrequenz ω S =,7 (Mitte), Anregung schneller als Resonanzfrequenz ω S =,8 (unten). Die maximale Amplitude der treibenden Kraft ist jeweils A S =. 4

43 Zustand Im Gegensatz zum vorherigen Abschnitt sollen nun nicht nur die Erwartungswerte, sondern der gesamte Zustandsvektor analysiert werden. Wir haben den exakten Zustandsvektor in Kapitel.. in Spektraldarstellung ausgerechnet und werden nun auch diese betrachten. Die Spektraldarstellung ist dadurch gekennzeichnet, dass sie einen Zustand ψ(t) als Linearkombination der Eigenzustände ψ n darstellt. Die Spektralkoeffizienten werde wie gehabt mit c n (t) bezeichnet und ihr Betragsquadrat gibt somit an, mit welcher Wahrscheinlichkeit sich das System zum Zeitpunkt t im Eigenzustand ψ n befindet. Man erhält dafür aus der Zeitentwicklung des Zustandes (.64): c n (t) α(t) α(t) n = e n! mit α(t) = ζ(t,t )i (5.) Diese Darstellung ist in Abbildung 5. für die ersten sechs c n abgedruckt. Zum Vergleich ist jeweils der Ortserwartungswert in grau mit eingezeichnet. Im oberen Graph wurde dabei wieder die Resonanzfrequenz verwendet. Für die Spektraldarstellung spielt die Anregungsamplitude A S nun eine entscheidende Rolle. Sie bestimmt maßgeblich, wie viel Energie dem Oszillator zugeführt wird, und damit, auf welche Spektralkoeffizienten sich diese aufteilt. Dabei ist für den Resonanzfall mit A S =, eine geringere Anregungsamplitude gewählt worden, damit die wenigen im Diagramm darstellbaren Spektralkoeffizienten sich den Großteil der Energie teilen. Am Anfang befindet sich der Oszillator im Grundzustand, d.h. nur c = ist ungleich null. Setzt dann die Anregung ein, sieht man sehr gut, wie mit steigender Schwingungsamplitude und damit steigender Energie des Oszillators die Spektralkoeffizienten nacheinander ansteigen. c wird dabei monoton kleiner. Die Anstiege und Abnahmen geschehen stufenweise, da die treibende Kraft oszilliert, also periodisch auch verschwindet. Zu Beginn der Anregung steigt c etwa um den Betrag an, um den c abnimmt. Etwas später kommt dann c hinzu und so weiter. Die Summe aller c n muss selbstverständlich immer ergeben und somit verlieren die niedrigeren Spektralkoeffizienten an Wert, sobald genug Energie auf die höheren verteilt wird. Dabei fällt auf, dass ein Spektralkoeffizient c n genau dann beginnt an Wert zu verlieren, wenn sich sein Graph mit dem des letztniedrigeren, also c n, schneidet. Dies ist eine Konsequenz aus der Poissonverteilung der Eigenzustände. Die Wahl einer höheren Anregungsamplitude hätte zur Folge, dass die Spektralkoeffizienten schneller ansteigen und die niedrigeren schneller wieder abfallen. Die Energie würde dann schneller auf höhere Energieniveaus verteilt und es würde unwahrscheinlicher, den Oszillator in einem niedrigen Energieniveau anzutreffen. Dabei ist noch zu erwähnen, dass, da es sich um kohärente und damit Poisson-verteilte Zustände handelt, die Aufteilung auf die c n nur von α und damit von der Gesamtenergie abhängt. Ein anderes Bild ergibt sich, wenn man den Oszillator, wie im unteren Graph in Abbildung 5. abgebildet, langsamer als die Resonanzfrequenz anregt. Hier wurde mit A S = wieder eine weit höhere maximale Anregungsamplitude gewählt. Mit steigender Anregungsamplitude nimmt c ab, oszilliert aber auch zunehmend. Passend dazu nimmt c zu und oszilliert gegenphasig. Bei t = und maximaler Anregungsamplitude haben dann alle dargestellten Spektralkoeffizienten einen von null verschiedenen Wert. Mit abfallender Anregungsamplitude stellen sich wieder die bereits bei den Erwartungswerten erkennbaren Oberschwingungen ein und ab ca. t = teilen sich die ersten drei und ab ca. t = 4 die ersten beiden Spektralkoeffizienten fast die gesamte Energie auf. Dabei hat c letztendlich einen Wert von ca.,. Durch diese Anregung wird der Oszillator also mit einer Wahrscheinlichkeit von ca. % in das zweite Energieniveau gehoben. 43

44 ,8,6,4 c (t) c (t) c (t) c 3 (t) c 4 (t) c 5 (t) ˆx (t),,, t,8,6,4,,, t Abbildung 5.: Exakte Spektraldarstellung des Zustandes des getriebenen quantenmechanischen Oszillators: Resonanzfall ω S = und A S =, (oben), Anregung schneller als Resonanzfrequenz ω S =,8 und A S = (unten) 44

45 5. Störungstheorie Wir werden nun die exakten Ergebnisse mit den störungstheoretischen Ergebnissen vergleichen. In Abschnitt..3 wurde bereits dargelegt, dass sich in Störungstheorie erster Ordnung nur der Spektralkoeffizient c ändert. Somit vergleichen wir auch die exakten und störungstheoretischen Ergebnisse nur für diesen einen Spektralkoeffizienten (.8). In Abbildung 5.3 sind jeweils die Betragsquadrate dieses Spektralkoeffizienten c in exakter Berechnung und Störungstheorie eingezeichnet. Dabei wurden verschiedene Werte für A S und ω S verwendet. Man sieht, dass die Werte für kleine Beträge sehr gut übereinstimmen. Das ist genau das Ergebnis, das wir in Störungstheorie erwartet haben. Wir haben angenommen, dass die Störung klein ist und somit muss auch die durch die Störung verursachte Anregung des Oszillators in höhere Energieniveaus klein sein. Dies ist entweder der Fall, wenn wie im oberen linken Graphen (A S =, und ω S = ) die Anregungsamplitude sehr klein ist, oder wie in den beiden unteren Graphen, nicht mit der Resonanzfrequenz angeregt wird, und somit nicht so viel Energie auf den Oszillator übertragen werden kann. Im unteren rechten Graphen weicht der störungstheoretische Wert für c zwar bei hoher Anregungsamplitude sehr stark vom exakten Wert ab und wird viel zu groß, nach der Anregung stimmt der Wert dann aber wieder relativ gut. Aus dem linken oberen Graphen kann man ablesen, dass die Werte bis zu c,4 übereinstimmen. Im oberen rechten Graphen sieht man, was passiert, wenn die Annahme der relativ kleinen Störung nicht erfüllt ist: der störungstheoretische Wert wächst während der Anregung stetig bis zu einer Wahrscheinlichkeit von % an, während der exakte Wert schon wieder leicht abfällt. Eine Wahrscheinlichkeit von mehr als % ist unphysikalisch und für diese Ausgangsparameter versagt also die Störungstheorie. Im Gegensatz dazu ist im Graphen unten links die Anregunsamplitude klein und zusätzlich ist kein Resonazfall gegeben. Hier sind dann beide Werte sehr klein und stimmen fast exakt überein. Das Versagen der störungstheoretischen Berechnung bei großen Werten von c lässt sich auch erkennen, wenn man die Formel mit der exakten Formel vergleicht. Der Störungstheoretische Wert für c entspricht nämlich genau dem Betragsquadrat von α(t) in der exakten Berechnung. Um den exakten Wert für c zu erhalten wird aber die Poissonverteilung mit α verwendet, es taucht also ein zusätzlicher Exponentialfaktor auf und es gilt: c,stör. (t) = α(t) c,exakt (t) = e α(t) α(t) (5.) Für kleine Werte von α(t) und damit auch kleine Werte der beiden c (t) gilt e α(t) und dann stimmt die störungstheoretische Näherung in etwa mit dem exakten Wert überein. Für größere Werte ist die Exponentialfunktion jedoch kleiner als und die Näherung gilt nicht mehr. 45

46 A S =, Resonanzfall ω S = : A S =,,8,6,5 c (t) (Stör.) c (t) (exakt) F S (t),4,, t t Anregung langsamer als Resonanzfrequenz ω S =,7: A S =, A S =,,,5,,,5 5 5 t 5 5 t Abbildung 5.3: Vergleich des zweiten Spektralkoeffizienten c in Störungstheorie erster Ordnung mit dem exakten Resultat (treibende Kraft F S (t) nicht maßstabsgetreu) 46

47 5.3 Numerische Methoden 5.3. Programm Abbildung 5.4: Screenshot des Programs Im Zuge dieser Bachelorarbeit wurde ein Programm entwickelt, das die hier vorgestellten numerischen und analytischen Resultate berechnen und darstellen kann. Dazu wurde die Programmiersprache C++ und zur Ausgabe die Microsoft Foundation Classes (MFC) verwendet. Bis auf das bereits erwähnte Jacobi- Verfahren wurde das gesamte Programm selbst geschrieben. Abbildung 5.4 zeigt die Benutzeroberfläche. Auf der linken Seite finden sich alle Eingabeparameter, wie z.b. die Eigenfrequenz ω oder die Zeitschrittweite t. Im mittleren Teil wird der zuletzt berechnete Zustand angezeigt. Ganz oben wird die klassische Position des Massepunktes auf der x-achse dargestellt. In der Mitte wird die quantenmechanische Wellenfunktion, in orange für den Realteil und in pink für den Imaginärteil, und ihr Betragsquadrat in rot angezeigt. Dabei kann man die Basis auf der rechten Seite auswählen. Zusätzlich können der exakte Wert für die klassische Position (blau) und die exakten (ebenfalls blau) und störungstheoretischen (grün) Wellenfunktionen eingeblendet werden. Die Graphen verwenden dabei keine Einheiten, da sich alle berechneten Werte in Dateien exportieren lassen, um sie später weiterzuverarbeiten. Dazu gehört z.b. auch die Eigenzustände des anharmonischen Oszillators. Im unteren Teil wird die treibenden Kraft F S im zeitlichen Verlauf visualisiert, die t-achse verläuft nach rechts und die Kraft ist nach oben bzw. unten aufgetragen. Auf der rechten Seite werden einige der berechneten Werte angezeigt, unter anderem die Mittelwerte des Ortes und der Energie und die Spektraldarstellung der Wellenfunktion. Hier wird im Folgenden mit diesen exportierten Werten gearbeitet. Ohne, dass das Programm dabei allzu aufwändig optimiert werden musste, laufen die Berechnungen mit geeigneten Parametern in durchaus akzeptablem Tempo ab. Das Programm funktioniert auch auf leistungsschwächeren Computern reibungslos. 47

48 5.3. Instabilität In Kapitel 4.. hatten wir uns bereits theoretisch mit der Stabilität des expliziten Euler-Verfahrens beschäftigt und festgestellt, dass es für unser Problem nur bedingt geeignet ist. Es soll nun an einem konkreten Beispiel aufgezeigt werden, welche Auswirkungen die Instabilität eines numerischen Verfahrens auf das Ergebnis hat. Klassisch Wir verwenden dazu im klassischen Fall den ungetriebenen harmonischen Oszillator mit x() = und stellen die beiden Euler-Verfahren in Abbildung 5.5 gegenüber. Man erkennt, dass für das explizite Euler-Verfahren die Schwingungsamplitude immer mehr zunimmt. Dies setzt sich auch weiter fort und der Oszillator gewinnt somit immer mehr an Energie. Das ist physikalisch nicht sinnvoll, da die Energie des Oszillators ohne externe Kraft nicht zunehmen darf. An der exakten Lösung sieht man, dass für einen ungedämpften Fall, wie wir ihn hier untersuchen, die Schwingungsamplitude konstant bleiben sollte. Verringert man die Zeitschrittweite t, so stimmt die Lösung des expliziten Euler-Verfahrens besser mit dem exakten Ergebnis überein, aber die Amplitude nimmt immer noch etwas zu. Im Gegensatz dazu wird beim impliziten Euler-Verfahren die Amplitude mit der Zeit kleiner. Auch das ist nicht korrekt, da eben keine Dämpfung vorliegt. Durch verkleinern der Zeitschrittweite kann man auch hier bessere Ergebnisse erzielen. Beide Verfahren ergeben ab einem t von ca., in diesem Szenario und der betrachteten Zeitspanne schließlich brauchbare Ergebnisse. 4 4 t =,5, explizit t =,5, implizit t =,, explizit exakt t Abbildung 5.5: Auslenkung x(t) des ungetriebenen harmonischen Oszillators mit x() =, berechnet mit dem expliziten bzw. impliziten Euler-Verfahren Quantenmechanisch Um die Stabilität der quantenmechanischen Berechnung zu untersuchen, verwenden wir den harmonischen Oszillator im Grundzustand. Klassisch bewegt sich das System nicht, wenn der Massepunkt sich mit v = in der Ruhelage x = befindet. Quantenmechanisch bleibt nur das Betragsquadrat der Wellenfunktion konstant, die Phase der Wellenfunktion selbst dreht sich allerdings mit der Kreisfrequenz E = ω und wir müssen hier somit keine Auslenkung annehmen um die Stabilität zu untersuchen. Startet man die Berechnung mit dem expliziten Euler-Verfahren, t =,5, x =, und der Dreipunktformel für die Ableitung in Ortsbasis, so fällt sofort auf, dass die Wellenfunktion schon nach wenigen Iterationsschritten (ca. 6) an den Rändern des berechneten Bereichs x min und x min + n x anwächst und in der Mitte verschwindet. Zusätzlich setzen am Rand chaotische Oszillationen ein, die sich langsam zur Mitte 48

49 hin ausbreiten. Dieses Verhalten ist physikalisch nicht sinnvoll. Abbildung 5.6 zeigt das entstandene Bild bei t =, also nach Iterationsschritten. Man könnte nun annehmen, dass es z.b. aufgrund des doch relativ großen x, oder weil wir den Rand im Hamiltonoperator einfach abgeschnitten haben, zu diesem Fehler kommt. Verwendet man jedoch das implizite Euler-Verfahren und ansonsten gleiche Parameter, so ergibt sich ein Graph, der in Abbildung 5.6 nicht vom Graph des exakten Ergebnisses zu unterscheiden ist. Verkleinert man x oder wählt eine höhere Ordnung für die Näherung der Ableitung, verschlechtert sich das Ergebnis für das explizite Euler-Verfahren nur. Durch Verkleinerung von t kann man die Simulation eine gewisse Zeit lang stabil halten. Man muss allerdings einen Wert von nur,5 wählen, damit die Wellenfunktion bis t = nicht kollabiert. Sie kollabiert dann allerdings bei ca t = 5. Auch das klassische Runge-Kutta-Verfahren zeigt für t =,5 das gleiche Verhalten. Hier kann man mit kleinerem t das Ergebnis aber deutlich verbessern: durch die höhere Ordnung des Verfahrens (vierte Ordnung) muss man bei weitem keine so kleinen Zeitschritte wählen, sondern erhält schon für t =, eine stabile Simulation. Diese bleibt dann auch nach sehr langer Zeit t stabil, obwohl das Verfahren explizit ist. Auch eine Berechnung in der Eigenbasis hilft bei einem expliziten Verfahren nicht weiter. Ein einzelner Eigenzustand lässt sich zwar stabil simulieren, sobald allerdings eine kleine Anregung hinzukommt, kollabiert der Zustandsvektor wieder ins Chaos. Im Gegensatz dazu bleiben die vorgestellten impliziten Verfahren sogar für unsinnig große Zeitschrittweiten, z.b. t = 5, stabil. Es ergeben sich zwar bei externer Anregung chaotisch aussehende Wellenfunktionen, die sich dann wieder in den Grundzustand zurück entwickeln. Dadurch verliert das angeregte System seine Energie, was, wie schon erwähnt, nicht korrekt ist, aber es bleibt selbst für so große t eine physikalisch plausible Wellenfunktion erhalten.,5,5 Realteil Realteil (exakt) Imaginärteil Imaginärteil (exakt) x Abbildung 5.6: Instabilität des expliziten Euler-Verfahrens mit t =,5 beim quantenmechanischen Oszillator. Dargestellt sind Real- und Imaginärteil der Wellenfunktion zur Zeit t =. 5.4 Numerische Ergebnisse für den harmonischen Oszillator 5.4. Klassisch In Abbildung 5.7 sind die numerischen Ergebnisse für drei verschiedene Verfahren und drei verschiedene Anregungsfrequenzen dargestellt. Alle numerischen Verfahren liefern ein Ergebnis, das bis auf systematische Abweichungen für große Zeiten mit dem exakten Resultat (siehe Abbildung 5.) übereinstimmt. Die Euler-Verfahren mit t =, zeigen ein ähnliches Verhalten wie in Abbildung 5.5: das explizite Euler- Verfahren liefert mit der Zeit eine zu große und das implizite Euler-Verfahren eine zu kleine Amplitude. Auffällig ist hier noch, wie gut die Ergebnisse des Runge-Kutta-Verfahrens sind. Es wurde das klassische 49

50 Runge-Kutta-Verfahren mit einer Zeitschrittweite von t =, verwendet. Das ist mal so viel wie die Zeitschrittweite der Euler-Verfahren in der Abbildung. Und trotzdem liefert das Runge-Kutta-Verfahren eine Kurve, die nahezu deckungsgleich mit dem exakten Ergebnis ist. Das exakte Ergebnis ist in magenta eingezeichnet, ist aber unter dem, in blau eingezeichneten, Ergebnis des Runge-Kutta-Verfahrens kaum zu erkennen. 5

51 t =,, expl. Euler t =,, impl. Euler t =,, kl. Runge-Kutta exakt F S (t) t t,4,,, t Abbildung 5.7: Auslenkung des getriebenen harmonischen Oszillators mit verschiedenen numerischen Verfahren, Resonanzfall ω S = (oben), Anregung langsamer als Resonanzfrequenz ω S =,7 (Mitte), Anregung schneller als Resonanzfrequenz ω S =,8 (unten) 5

52 5.4. Quantenmechanisch Wie bereits in Abschnitt 4.4 beschrieben, muss man sich bei einer quantenmechanischen Berechnung für eine Basis entscheiden. Wir werden hier die Besetzungszahlbasis und die Ortsbasis betrachten. Die exakte Darstellung in der Besetzungszahlbasis haben wir in Kapitel 5. bereits ausgerechnet. Somit können wir die Genauigkeit der numerischen Berechnungen überprüfen. In den Abbildungen 5.8 und 5.9 sind für den Resonanzfall und eine Anregung langsamer als die Resonanzfrequenz die ersten vier Spektralkoeffizienten für verschiedene numerische Verfahren aufgetragen. In Abbildung 5. sind die dazugehörigen Erwartungswerte Ĥ (t) und ˆx (t) dargestellt. Wir werden im Folgenden die Genauigkeit der einzelnen Verfahren nochmals unter die Lupe nehmen. Hier betrachten wir nun kurz, welche Besonderheiten bei der numerischen Behandlung des quantenmechanischen harmonischen Oszillators mit den unterschiedlichen Verfahren auftreten. Die Zeitschrittweiten t wurden so gewählt, dass auf den Diagrammen die einzelnen Verfahren unterscheidbar sind. Dem entsprechend sind die Werte für t relativ groß. Sieht man sich den Resonanzfall an, so fällt sofort auf, dass das implizite Euler-Verfahren hier ebenfalls nicht sonderlich gut geeignet ist. Es ist im Gegensatz zum expliziten Euler-Verfahren (siehe Kapitel 5.3.) zwar stabil, weicht jedoch, wie auch im klassischen Fall extrem schnell vom exakten Wert ab. Und das, obwohl eine im Vergleich zu den anderen Verfahren extrem kleine Zeitschrittweite gewählt wurde. Die niederenergetischen Zustände c und c werden also bei abklingender Anregung ab ca. t = 4 wieder mit steigender Wahrscheinlichkeit besetzt. Da es sich um Anregung mit Resonanzfrequenz handelt, dürfte dies nicht der Fall sein, es handelt sich um ein Artefakt der numerischen Berechnung. Auch die implizite Mittelpunktmethode ist in diesem Beispiel nicht sonderlich genau: die Zustände c und c 3 werden zu stark besetzt. Außerdem erkennt man, dass die Kohärenz des Zustandes mit fortschreitender Zeit nicht mehr gegeben ist. Eine Folge davon ist die Phasenverschiebung von ˆx (t), die in Abbildung 5. zu erkennen ist. Man beachte aber, dass hier eine sehr große Zeitschrittweite t =, verwendet wurde. Verringert man diese, so lassen sich ohne weiteres sehr genaue Ergebnisse erreichen. Das klassische Runge-Kutta- und das Gauß- Legendre-Verfahren sind hier auch bei sehr geringer Zeitschrittweite erstaunlich genau. Wie schon im klassischen Fall sind die beiden Graphen, zumindest für die hier dargestellten Spektralkoeffizienten, mit denen des exakten Ergebnisses nahezu deckungsgleich. In Abbildung 5. erkennt man aber, dass der Zeitschritt für das Gauß-Legendre-Verfahren grenzwertig ist: auch hier ist die Kohärenz nicht mehr hundertprozentig gegeben. Bei Anregung langsamer als Resonanzfrequenz funktioniert das implizite Euler-Verfahren besser, ansonsten ändert sich nichts wesentlich. Hier wurden nur die ersten vier Spektralkoeffizienten betrachtet. Für höhere Energieniveaus dreht sich die Wellenfunktion schneller und man muss, damit die Ergebnisse genau genug bleiben, die Zeitschrittweite verkleinern. Dies ist auch der Grund warum die Kohärenz der Wellenfunktion für so große t über längere Zeiten nicht erhalten bleibt. 5

53 ,5 c (t) t,4 c (t), t,3 c (t),, t, c 3 (t), t t =,, impl. Euler t =,, impl. Mittelpunkt exakt t =,, kl. Runge-Kutta t =,3, Gauß-Legendre F S (t) Abbildung 5.8: Die ersten vier Spektralkoeffizienten des getriebenen harmonischen Oszillators im Resonanzfall ω S = für verschiedene numerische Verfahren. Die maximale Amplitude der treibenden Kraft ist A S =,. 53

54 ,5 c (t) t,4 c (t), t,3 c (t),, t, c 3 (t), t t =,, impl. Euler t =,, impl. Mittelpunkt exakt t =,, kl. Runge-Kutta t =,3, Gauß-Legendre F S (t) Abbildung 5.9: Die ersten vier Spektralkoeffizienten des getriebenen harmonischen Oszillators bei Anregung langsamer als Resonanzfrequenz ω S =,7 für verschiedene numerische Verfahren. Die maximale Amplitude der treibenden Kraft ist A S =. 54

55 ,5 Ĥ (t),5, t ˆx (t) t,5 Ĥ (t),5, t,5 ˆx (t), t t =,, impl. Euler t =,, impl. Mittelpunkt exakt t =,, kl. Runge-Kutta t =,3, Gauß-Legendre F S (t) Abbildung 5.: Erwartungswerte Ĥ (t) und Ausschnitte von ˆx (t) für ω S = und A S =, (obere zwei) und ω S =,7 und A S = (untere zwei) zu den verschiedenen numerischen Verfahren 55

56 Ortsbasis Um die Berechnung in Ortsbasis durchzuführen, muss man zusätzlich zum numerischen Verfahren eine Näherung für die Ortsableitung wählen. Siehe dazu Kapitel Für kleinere Ordnungen und kleinere x dieser Näherung wird das Ergebnis erwartungsgemäß ungenauer. Eine zu schlechte Näherung hat insbesondere zur Folge, dass die Wellenfunktion mit der Zeit ihre Kohärenz verliert. Ein kohärenter Zustand in Ortsdarstellung ist hier der um den Ortsmittelwert verschobene Grundzustand (siehe [Mab7]). Ist diese Kohärenz nicht mehr gegeben, entwickeln sich neben dem Hauptmaximum kleinere Nebenmaxima. Die Simulation ist dann zu ungenau und auch die Erwartungswerte liefern keine vernünftigen Resultate mehr. In Abbildung 5. sind die Wellenfunktionen für vier verschiedene Näherungen zum Zeitpunkt t = dargestellt. Man sieht, dass man entweder eine Näherung hoher Ordnung oder ein kleines x verwenden muss, um die nötige Genauigkeit zu erhalten. Im nächsten Abschnitt werden wir auch verschiedene Näherungen qualitativ auf ihre Genauigkeit untersuchen. 56

57 ,6,4 3-Punkt-Formel, x =, numerisch exakt, x,6 5-Punkt-Formel, x =,,4, x,6 5-Punkt-Formel, x =,4,4, x,6 9-Punkt-Formel, x =,4,4, x Abbildung 5.: Betragsquadrat der Wellenfunktion des getriebenen harmonischen Oszillators zur Zeit t = für verschiedene Näherungen der Ortsableitung (mit Gauß-Legendre-Verfahren vierter Ordnung zur Zeitentwicklung, ω S =, A S =,, t =,) 57

58 5.4.3 Genauigkeit Bisher haben wir die Resultate der numerischen Berechnung nur qualitativ betrachtet. Dabei war teilweise schon auf den ersten Blick aus den Diagrammen zu entnehmen, wann ein Verfahren relativ genaue Ergebnisse liefert und wann es versagt. Wir wollen dies nun in Zahlen fassen und genau untersuchen für welche Parameter welche Verfahren geeignet sind. Dazu benötigen wir zuerst ein Maß für die Genauigkeit bzw. den Fehler einer Berechnung. Im klassischen Fall berechnet das Programm den maximalen Fehler der Auslenkung in jedem Zeitschritt. Um die Ergebnisse vergleichbar zu machen, berechnet man daraus den relativen Fehler δ x durch Skalierung mit der inversen maximalen Auslenkung: δ x = max ( x i x(t + i t) ) max ( x(t + i t) ) (5.3) Dabei ist x i die Position aus der numerischen Berechnung nach dem i-ten Iterationsschritt, also zum Zeitpunkt t = t + i t und x(t + i t) die exakte Position zu diesem Zeitpunkt. Nun könnten wir um den Fehler der quantenmechanischen Berechnung zu erhalten in diese Formel schlicht die Erwartungswerte einsetzen. Dies wäre aber wenig sinnvoll, da die Erwartungswerte nur einen Bruchteil der Information über das System enthalten. Stattdessen werden wir den Fehler der Wellenfunktion wie folgt berechnen: δ ψ,i = ( ψ i ψ(t + i t) )( ψ i ψ(t + i t) ) = n in Ortsbasis: = x ψ i j ψ(t + t,x min + j x) in Besetzungszahlbasis: = j= n ψ i j c j (t + t) j= δ ψ = max ( δ ψ,i ) (5.4) Wir bilden also den Erwartungswert der Abweichung. Dabei ist ψ i analog zu (5.3) der numerisch berechnete Zustand zur Zeit t = t + i t und ψ(t + i t) der exakte Zustand. Da die Wellenfunktionen immer normiert sind, ist auch die Abweichung normiert. Diese Berechnung der Fehlers hat einerseits den Vorteil, dass alle Komponenten des Zustandsvektors mit gleichem Gewicht eingehen, und andererseits spielt auch der Phasenfaktor eine Rolle. Würde man nur die Betragsquadrate, z.b. der Spektralkoeffizienten, vergleichen, so würde man damit Phasenfaktoren vernachlässigen. Verwenden wir in (5.4) die Ortsbasis, stehen wir vor dem Problem, dass wir die exakte Wellenfunktion ψ(t,x) bisher nicht explizit berechnet haben. Um diese auszurechnen, setzen wir hier die Spektraldarstellung mit bekannten Koeffizienten c n (t) und Eigenfunktionen ψ n ein und brechen bei N ab. Damit ist ψ(t,x) streng genommen nicht exakt, bei genügend großem N für unsere Zwecke jedoch vollkommen ausreichend. In Tabelle 5. sind für den klassischen Fall für verschiedene numerische Verfahren die relativen Fehler und die zur Berechnung benötigten Zeiten eingetragen. Die Zeiten wurden dabei auf einem Intel Core i7-7qm gemessen und dienen als Richtwert. Wie zu erwarten war, schneiden die Euler-Verfahren sehr schlecht ab, und schon ab einer Zeitschrittweite von ca., liefern sie mit einem relativen Fehler von 65% bzw. 39% nur noch sehr ungenaue Ergebnisse. Verwendet man noch größere Zeitschritte versagen die Euler-Verfahren vollkommen. Das Runge-Kutta-Verfahren liefert bei einem Zeitschritt von t =, das mit Abstand beste Ergebnis. Der relative Fehler liegt in der Größenordung 8. Auffällig ist, dass sich der Fehler bei einer weiteren Verringerung der Zeitschrittweite wieder vergrößert. Es überwiegen dann also Ungenauigkeiten in den Gleitkommaberechnungen des Programms. Die zur Berechnung benötigte Zeit steigt für jedes Verfahren logischerweise linear mit t. Vergleicht man die zur Berechnung nötige Zeit und die resultierenden Fehler, bestätigen sich unsere Erwartungen: das Runge-Kutta-Verfahren liefert bei richtig gewähltem t in sehr viel kürzerer Zeit sehr viel genauere Ergebnisse als die Euler-Verfahren. Um die Genauigkeit bei den quantenmechanischen Verfahren zu berechnen, wählen wir bei den verwendeten Parametern in der Ortsbasis jeweils N = 5. Dies reicht aus, damit höherenergetische Energieniveaus 58

59 Verfahren t..... expl. Euler Fehler 5,3,65 48,6 Zeit [s],57,6,54 impl. Euler Fehler 4,88,39,99 Zeit [s] 5,7,5 5,4 kl. Runge-Kutta Fehler,5 7,36 8 8,3 8 8,3 4,33 Zeit [s] 9,54,95 9,58 9,56 3 4,75 3 Tabelle 5.: Maximaler relativer Fehler und zur Berechnung nötige Zeit bis t = beim klassischen harmonischen Oszillator für verschieden numerische Verfahren (A S =,, ω S =, B =,5, t S = ) Verfahren t..... impl. Euler Fehler 9,,8,6 Zeit [s] 39, 3,5,34 impl. Mittelp. Fehler,78 5,8,95 Zeit [s] 3,,97,9 Trapezm. Fehler,78 5,8,94 Zeit [s] 33,,95 98,55 kl. Runge-Kutta Fehler 4,54 5,7 8, Zeit [s] 38,46 3,85,44 Gauß-Legendre Fehler 4,54, 9 5,9,73 Zeit [s] 36, 33,44 3,3,69 Tabelle 5.: Maximaler relativer Fehler und zur Berechnung nötige Zeit bis t = beim quantenmechanischen harmonischen Oszillator in der Besetzungszahlbasis für verschieden numerische Verfahren (N = 5, A S =,, ω S =, B =,5, t S = ) 59

60 nicht mehr ins Gewicht fallen. In Tabelle 5. sind die Fehler und dazugehörigen Berechnungszeiten eingetragen. Es ergibt sich ein ähnliches Bild wie bei der klassischen Berechnung: das implizite Euler-Verfahren liefert nur für extrem kleine t akzeptable Näherungen, ist aber selbst für das kleinste betrachtete t mit einem relativen Fehler in der Größenordnung immer noch recht ungenau. Die implizite Mittelpunktund die Trapezmethode, also die Verfahren zweiter Ordnung, liefern für das -fache t mit einem relativen Fehler der Größenordnung 5 schon deutlich bessere Ergebnisse. Sie benötigen dabei weniger als ein Viertel der Zeit. Dies setzt sich für die Verfahren vierter Ordnung fort. Dabei liefern sowohl das klassische Runge-Kutta- als auch das verwendete Gauß-Legendre-Verfahren eine maximale Genauigkeit von ca 4,5. In diesem Bereich kommen dann wieder die Ungenauigkeiten der Gleitkommaberechnung zum Tragen. Noch zu erwähnen ist, dass das Runge-Kutta-Verfahren für t >, instabil wird und die Wellenfunktion kollabiert. In Abbildung 5. (links) sind die relativen Fehler zweier Verfahren gegen die Zeitschrittweite aufgetragen. Man sieht deutlich, dass sich für sehr kleine und große Werte Sättigungen einstellen und die Werte nicht mehr genauer bzw. ungenauer werden. Für kleine t liegt dies, wie bereits erwähnt, an der Gleitkommaberechnung mit doppelter Genauigkeit. Die Sättigung für große t resultiert aus der Normierung der Wellenfunktion, die den maximalen Fehler begrenzt. Es fällt aber auch auf, dass die Fehler dazwischen in etwa proportional zu t γ sind, es sich also im doppelt-logarithmischen Diagramm gerade Linien ergeben. Für die implizite Mittelpunktmethode gilt in diesem Bereich γ 3,93 und für das Runge-Kutta-Verfahren γ 7,75. Das entspricht in beiden Fällen in etwa der doppelten Ordnung des Verfahrens. Der Faktor kommt daher, dass wir die Differenz der Wellenfunktionen in (5.4) quadrieren. Dies passt zu den Fehlerabschätzungen in Kapitel 4. Näherung x a 3 Punkte Fehler,9 Zeit [s] 455,76 5 Punkte Fehler, 4 9,5 3,64 Zeit [s] 63,7 6,48 45,6 7 Punkte Fehler,8 5 4,76 5,,99 Zeit [s] 779,8 388, ,88 9 Punkte Fehler,78 5,8 5 4,35 Zeit [s] 949,56 46,48,84 3,44 Tabelle 5.3: Maximaler relativer Fehler und zur Berechnung nötige Zeit bis t = beim quantenmechanischen harmonischen Oszillator in Ortsbasis für verschiede Näherungen der Ortsableitung ( t =,, x min = 8, A S =,, ω S =, B =,5, t S = ) Wir haben nun die t-abhängigkeit analysiert. Bei der Berechnung in Ortsbasis betrachten wir nun den relativen Fehler in Abhängigkeit von der gewählten Näherung der Ortsableitung und von x. Sieht man sich die Werte in Tabelle 5.3 an, so fallen sofort die im Vergleich zu Tabelle 5. großen Zeiten auf. Um genaue Werte zu erhalten muss t sehr klein sein. Außerdem muss mit den x j der gesamte Bereich abgedeckt werden, in dem sich die Wellenfunktion befinden wird. Dies ist für die verwendeten Parameter ungefähr das Intervall [ 8; 8]. Bei einem x von beispielsweise, ergibt sich somit für n = 6. Das in einem Iterationsschritt zu lösende Gleichungssystem ist also um mehr als ein -faches größer als bei der Berechnung in Besetzungszahlbasis. Auch wenn es nur dünn besetzt ist, steigt die Berechnungszeit damit drastisch an. Bei Wahl einer hohen Ordnung für die Näherung der Ortsableitung kann x zwar größer gewählt werden, aber es kommt immer noch der Fehler des numerischen Verfahrens, abhängig von t, hinzu. Die maximale Genauigkeit entspricht mit,78 5 ziemlich genau dem relativen Fehler der impliziten Mittelpunktmethode für t =, aus Tabelle 5.. Dies spiegelt sich auch in Abbildung 5. (rechts) wieder: auch für kleine x erhält man immer noch einen Fehler der Größenordnung 5. Die Berechnung in Besetzungszahlbasis 6

61 ist also in jedem Fall vorzuziehen. Außerdem fällt auf, dass das Runge-Kutta-Verfahren hier sehr ungeeignet ist: möchte man bei dessen Verwendung x verkleinern, so wird es sehr schnell instabil und auch t muss verkleinert werden, die Berechnungszeit steigt damit weiter an. Deshalb wurde hier auch die implizite Mittelpunktmethode verwendet t 5,,8,6,4 x impl. Mittelpunktmethode kl. Runge-Kutta 3 Punkte 5 Punkte 7 Punkte 9 Punkte Abbildung 5.: t-abhängigkeit des Fehlers bei Berechnung in Besetzungszahlbasis (links), x-abhängigkeit des Fehlers bei Berechnung in Ortsbasis mit t =, und der impliziten Mittelpunktmehtode (rechts) 5.5 Anharmonischer Oszillator Alle Ergebnisse, die wir bisher erhalten haben, konnten mit analytisch exakten Resultaten verglichen werden. Dies hatte den Vorteil, dass wir die störungstheoretischen und numerischen Resultate auf ihre Korrektheit und auch auf ihre Genauigkeit untersuchen konnten. Es ist jedoch nur bedingt sinnvoll, ein Problem, dass mit akzeptablem Aufwand exakt gelöst werden kann, numerisch oder störungstheoretisch, und damit nur ungenau zu lösen. Deswegen werden wir uns nun den anharmonischen Oszillator mit einem Potential der Form (3.) ansehen. Für A kann dieser, wie bereits erwähnt, nicht mehr exakt gelöst werden, weder klassisch noch quantenmechanisch Eigenzustände Wir betrachten nun die Eigenzustände des anharmonischen Oszillators und zuerst speziell den Grundzustand. Für diesen haben wir mit Störungstheorie erster Ordnung in Gleichung (3.) eine Näherung berechnet. Im Gegensatz dazu wurde in Kapitel beschrieben, wie die Eigenzustände numerisch durch Diagonalisierung des Hamiltonoperators berechnet werden. Abbildung 5.3 zeigt die Ergebnisse für drei verschiedene Anharmonizitäten. Durch die verwendeten Parameter von x =,5 und x min = 4 in Kombination mit der 9-Punkt-Formel werden die numerischen Eigenzustände sehr genau und dienen deshalb hier als Referenz. Man erkennt deutlich die Auswirkungen eines A > : durch das am Rand schneller ansteigende Potential wird die Wellenfunktion zusammengepresst und in der Mitte steigt somit die Aufenthaltswahrscheinlichkeit. Im mittleren Bild sieht man außerdem, dass sich bereits für eine vermeintlich 6

62 kleine Anharmonizität von, der Grundzustand erkennbar ändert. Der störungstheoretisch korrigierte Eigenzustand weist bereits erste Ungenauigkeiten auf. Für A =,5 ist das störungstheoretische Ergebnis erster Ordnung nicht mehr zu gebrauchen. In Abbildung 5.4 sind für die Fälle A =, und A = weitere numerisch berechnete Eigenzustände dargestellt. Führt man die Berechnung mit A = durch, so fällt auf, dass das Ergebnis sehr stark vom verwendeten x min abhängt. Für die bisherigen Ergebnisse war die nicht der Fall, x min musste nur groß genug sein, dass die Wellenfunktion in den berechneten Bereich fällt. Bei einem negativen A, also einer abstoßenden Anharmonizität, ist jedoch einer Wellenfunktion, die weit außen eine hohe Aufenthaltswahrscheinlichkeit besitzt, eine sehr niedrige Energie zugeordnet. Der Grund ist, dass das Potential für x nach außen hin mit x 4 abfällt und somit die potentielle Energie eines Teilchens oder einer Wellenfunktion niedriger ist, als in der Potentialmulde bei x =. Ordnet man nun die Wellenfunktionen nach ihrer Energie, erhält man das Bild in Abbildung 5.4 unten: der Grundzustand ψ (x), also der Zustand, der von den berechneten Zuständen die niedrigste Energie besitzt, liegt fast vollständig im äußeren Bereich. Erst Zustände mit höherer Energie, z.b. ψ (x) entsprechen einer Aufenthaltswahrscheinlichkeit in der Potentialmulde. 6

63 ,8,6,4 harmonisch störungstheoretisch numerisch V(x) V(x) (harm),,8,6,4,,8,6,4,,8,6,4,,,4,6,8,,4,6,8 x,8,6,4,,8,6,4,,,4,6,8,,4,6,8 x,8,6,4,,8,6,4,,8,6,4,,,4,6,8,,4,6,8 x Abbildung 5.3: Betragsquadrat der Wellenfunktion im Grundzustand des anharmonischen Oszillators für A =,5 (oben), A =, (Mitte) und A =,5 (unten), numerische Parameter: x =,5 und x min = 4 mit 9-Punkt-Formel 63

64 ,8 ψ (x) ψ (x) ψ (x) (harm.) V(x) ψ (x) ψ 3 (x) ψ (x) (harm.) V(x) (harm),6,4,,8,6,4,,8,6,4,,,4,6,8,,4,6,8 x,9,8,7,6,5,4,3,, ψ (x) ψ 3 (x) V(x) ψ (x) ψ 4 (x) V(x) (harm),8,6,4,,8,6,4,,,4,6,8,,4,6,8 x Abbildung 5.4: Ausgewählte Eigenfunktionen des anharmonischen Oszillators mit A =, (oben) und A = (unten). Dargestellt ist jeweils die Aufenthaltswahrscheinlichkeit ψ n (x). 64

65 5.5. Zeitentwicklung Mit den nun bekannten Eigenzuständen, inklusive Grundzustand, kann nun die Zeitentwicklung numerisch oder störungstheoretisch durchgeführt werden. Wir beschränken uns hier auf die numerische Lösung. Beim harmonischen Oszillator erhielt man immer kohärente Zustände. In der Ortsbasis entspricht dies einem Zustand mit der Form des Grundzustandes, der zeitabhängig um den klassischen Ort des Teilchens verschoben ist. Beim anharmonischen Oszillator ist dies nicht mehr gegeben. Im Grundzustand ist die Wellenfunktion gemäß Abbildung 5.3 in der Mitte lokalisiert. Sie besitzt ein einzelnes Maximum bei x = und fällt nach außen monoton ab. Wird nun jedoch eine größere Anregung hinzugenommen, so bewegt sich die Wellenfunktion anfänglich, je nach Anharmonizität, eine gewisse Zeit lang ähnlich wie der harmonische Oszillator. Es fällt jedoch bald auf, dass die Wellenfunktion an den Rändern einknickt und sich neben dem Hauptmaximum eines oder mehrere Nebenmaxima bilden. Abbildung 5.5 zeigt einen solchen Fall. Mit fortschreitender Zeit kann es auch passieren, dass das Hauptmaximum absinkt oder ganz verschwindet und dafür Nebenmaxima ansteigen. Die lässt sich anschaulich dadurch erklären, dass eine Wellenfunktion, die sich in Richtung eines Randes bewegt, im Bereich weiter außen schneller abgebremst und wieder zur Mitte hin beschleunigt wird, als im Bereich, der näher an der Mitte ist. Dadurch ergeben sich Selbstinterferenzeffekte. Es lässt sich hier keine Systematik mehr erkennen.,6 ψ(t,x) V(x),4, 4 3,5 3,5,5,5,5,5,5 3 3,5 4 x Abbildung 5.5: Betragsquadrat der Wellenfunktion des anharmonischen Oszillators mit A =,5 und starker Anregung ω S =, A S = zum Zeitpunkt t = 3 Erwartungswerte Da es für genügend große Anregungen kein einzelnes Maximum mehr gibt, macht es auch nur noch wenig Sinn, den Ortserwartungswert zu analysieren. Wir werden uns also den Energieerwartungswert ansehen. In Abbildung 5.6 sind Orts- und Energieerwartungswert für verschiedene Anregungsfrequenzen eingezeichnet. Sieht man sich eine harmonische Anregung mit verschiedenen Frequenzen an, bemerkt man, dass es keine absolute Resonanzfrequenz mehr gibt, es stellt sich also nie eine Resonanzkatastrophe ein, bei der die Auslenkung bzw. die Energie während der Anregung immer weiter steigt. Dies gilt sowohl für den klassischen als auch für den quantenmechanischen anharmonischen Oszillator. Es gibt jedoch weiterhin Frequenzen, bei denen die maximale Auslenkung bzw. maximale Energie besonders hoch ausfallen. Die Anregungsfrequenzen ω S = und ω S =,6 wurden nicht zufällig für die Darstellung ausgewählt. Man sieht an diesen zwei Beispielen, dass für ω S = der klassische Oszillator eine wesentlich höhere Energie als der quantenmechanische erhält. Der klassische Ort und der quantenmechanische Ortserwartungswert stimmen ebenfalls nicht mehr überein. Andererseits ist aber für eine Anregungsfrequenz ω S =,6 die Energie im quantenmechanischen Fall weit höher, als bei der klassischen Berechnung, also genau umgekehrt wie 65

66 bei ω S =. Die hier verwendeten numerischen Ergebnisse sind dabei genau genug, als dass dieser Effekt auf numerische Ungenauigkeiten zurückzuführen wäre. Es liegt also die Vermutung nahe, dass der klassische und der quantenmechanische anharmonische Oszillator sich ganz erheblich in ihrem dynamischen Verhalten unterscheiden. 66

67 x(t) t 3 E(t) t x(t) t 3 E(t) klassisch quantenmechanisch t Abbildung 5.6: Ort und Energie beim anharmonischen Oszillator mit A =,5 und Anregungsfrequenz ω S = (obere zwei) und ω S =,6 (untere zwei). Die maximale Amplitude der treibenden Kraft ist jeweils A S = 4. 67

68 Resonanz Um dies zu bestätigen oder zu widerlegen wurde in Abbildung 5.7 die maximale Energie im klassischen und quantenmechanischen Fall gegen die Anregungsfrequenz aufgetragen. Dabei wurde eine harmonische Anregung gewählt, deren Amplitude zuerst langsam bis zu einem maximalen Wert A S ansteigt, und diese dann über einen längeren Zeitraum hält. Im klassischen Fall fällt zuerst auf, dass die maximale Energie bis zu einer Anregungsfrequenz von ω S,5 ansteigt und dann fast schlagartig auf einen relativ niedrigen konstanten Wert abfällt. Durch die endliche Simulationsdauer von t = streuen die Energien etwas. Trotzdem kann man erkennen, dass der quantenmechanische anharmonische Oszillator mit ω S,6 im Gegensatz zum klassischen anharmonischen Oszillator mit ω S,5 eine etwas höhere Resonanzfrequenz besitzt. Diese Ergebnisse können, meines Wissens, weder durch analytisch exakte, noch durch störungstheoretische Rechnung erhalten werden. Exakt ist der getriebene anharmonische Oszillator nicht behandelbar und bei einer Anharmonizität von A =,5 liefert auch die Störungstheorie, zumindest in erster Ordnung, keine sinnvollen Resultate mehr (siehe Abbildung 5.3 unten). Somit hatte die numerische Behandlung hier durchaus ihre Berechtigung. 4 klassisch quantenmechanisch,5,5,5 3 3,5 4 4,5 5 Abbildung 5.7: Maximale Energie des anharmonischen Oszillators mit A =,5 nach t = in Abhängigkeit von der Anregungsfrequenz ω S bei maximaler Anregungsamplitude A S = 4. Numerische Parameter: t =,5 mit kl. Runge-Kutta-Verfahren für die klassische Berechnung und impl. Mittelpunktmethode für die quantenmechanische Berechnungen. ω S Repulsive Anharmonizität Man möchte nun den anharmonischen Oszillator mit A < untersuchen. Das Potential wirkt dann für eine Wellenfunktion mit Aufenthaltswahrscheinlichkeit in der Ruhelage bei x = als zwei Potentialbarrieren endlicher Höhe links und rechts. Bedingt durch diese endliche Höhe, tunnelt eine Wellenfunktion aus der Ruhelage langsam in die äußeren Bereiche und es existieren keine stationären Zustände mehr. Es existieren jedoch metastabile Zustände, die relativ lange in der Potentialmulde bleiben. Durch Anregung mit einer externen Kraft kann das Verlassen der Potentialmulde beschleunigt werden. Das nennt man activated escape. Versucht man dieses Phänomen mit den vorgestellten numerischen Methoden zu simulieren, stößt man jedoch auf einige Probleme: da wir den Hamiltonoperator durch eine symmetrische Matrix ausgedrückt haben, ist er immer diagonalisierbar, womit auch immer stationäre Zustände existieren. Verwendet man einen Anfangszustand, wie beschrieben, mit Aufenthaltswahrscheinlichkeit in der Potentialmulde, regt diesen von außen an und beobachtet die Zeitentwicklung, zeigt sich anfangs das erwartete Bild und die Wellenfunktion verlässt langsam die Potentialmulde. Schon nach kurzer Zeit stößt sie jedoch bei Berechnung in Ortsbasis 68

69 an den Rand des simulierten Bereichs bzw. werden bei Berechnung in Besetzungszahlbasis zu hohe Energieniveaus besetzt. An diesen Punkten wird die Wellenfunktion reflektiert und kann somit den Bereich nicht verlassen. Es stellt sich ein Gleichgewicht ein, bei dem die Wahrscheinlichkeit, das simulierte Teilchen in der Potentialmulde anzutreffen immer noch recht hoch ist. 69

70 6 Zusammenfassung Im ersten Teil dieser Arbeit wurden die klassischen und quantenmechanischen Grundlagen wiederholt und die exakte Lösung des getriebenen harmonischen Oszillators hergeleitet. Zusätzlich wurden der harmonische und der anharmonische quantenmechanische Oszillator in Störungstheorie erster Ordnung untersucht. Um auch analytisch nicht lösbare Probleme ohne die Annahme einer kleinen Störung relativ genau behandeln zu können, wurden dann verschiedene numerische Verfahren vorgestellt. Es wurde ein Computerprogramm geschrieben, mit dem die vorgestellten Verfahren auf den getriebenen harmonischen und anharmonischen Oszillator angewandt werden können. Bei der numerischen Untersuchung des harmonischen Oszillators hat sich immer wieder gezeigt, dass explizite Verfahren, die für den klassischen Fall noch recht gut funktionieren, bei quantenmechanischer Berechnung sehr schnell instabil werden. Die erhaltenen Ergebnisse wurden mit den zuvor berechneten exakten und störungstheoretischen Resultaten verglichen. Somit konnte einerseits gezeigt werden, für welche Parameter die Störungstheorie in erster Ordnung noch vernünftige Resultate liefert und für welche Parameter sie versagt. Andererseits wurde damit die Genauigkeit der numerischen Verfahren bestimmt. Dabei konnten wir feststellen, dass sich Verfahren höherer Ordnung trotz größerem Rechenaufwand für einen einzelnen Iterationsschritt durchaus lohnen und in kürzerer Rechenzeit bessere Ergebnisse liefern als Verfahren niedrigerer Ordnung. Das Ausmaß der Genauigkeitsverbesserung bei Wahl eines Verfahrens höherer Ordnung hat mich hier besonders überrascht. Es wurde zudem analysiert, wie sich die Wahl der Basis bei quantenmechanischer Berechnung auf die Genauigkeit und die Rechenzeit auswirkt. Dabei konnte gezeigt werden, dass die Besetzungszahlbasis des harmonischen Oszillators in den meisten Fällen der Ortsbasis vorzuziehen ist. Die zusätzlich nötige Diskretisierung des Ortes bei Verwendung der Ortsbasis erhöht die Rechenzeit immens und verschlechtert dabei die Genauigkeit. Andererseits hat die Ortsbasis den Vorteil, dass ohne weiteren Aufwand ein beliebiges Potential eingesetzt werden kann. Für den anharmonischen Oszillator wurden zuerst die quantenmechanischen Eigenzustände numerisch und störungstheoretisch bestimmt und es zeigte sich, dass die Störungstheorie hier schon relativ schnell sehr ungenau wird. Da sowohl klassisch als auch quantenmechanisch für den anharmonischen Oszillator mit harmonischer Anregung keine Resonanzkatastrophe auftritt, wurde die maximale Energie in Abhängigkeit von der Anregungsfrequenz numerisch untersucht. Es hat sich gezeigt, dass das Maximum der Energie beim quantenmechanischen anharmonischen Oszillator im Vergleich zum klassischen zu höheren Frequenzen verschoben ist. Dieses Ergebnis kann nicht analytisch oder in Störungstheorie erster Ordnung hergeleitet werden und rechtfertigt somit die numerische Behandlung. Zum Schluss wurde mit dem Fall A < auch ein Fall beschrieben, der mit der hier verwendeten Simulation nicht ohne weiteres behandelt werden konnte. Um diesen physikalisch sehr interessanten Fall numerisch zu untersuchten, müsste man versuchen, die Verfahren so zu modifizieren, dass die Wellenfunktion den simulierten Bereich verlassen kann und an den Rändern nicht reflektiert wird, d.h. absorbierende anstelle reflektierender Randbedingungen zu verwenden. Mit den beschriebenen Verfahren können aber auch ohne Modifikation andere interessante Potentiale untersucht werden. Ein Beispiel dafür ist das Doppelmuldenpotential aus Abbildung 3.. Ein weiterer Punkt der noch verbessert werden könnte, ist die Performance des Programms. Hierauf wurde bei der Programmierung kein besonders großer Wert gelegt. Würde man hier beispielsweise die Berechnung auf mehrere Prozessorkerne oder auf eine GPU verlagern, könnte sich die Geschwindigkeit problemlos vervielfachen lassen. Durch Optimierung der Berechnung selbst ließe sich noch mehr Rechenzeit einsparen. Zusammengefasst konnte ich in dieser Arbeit meine Kenntnisse in Quantenmechanik festigen und vertiefen. Auch mein persönliches Ziel, mehr über numerische Verfahren zu lernen, konnte ich, insbesondere mit den Runge-Kutta-Verfahren und durch die Stabilitäts- und Genauigkeitsbetrachtung, erreichen. 7

71 Anhang A. Integration von Gleichung (.6) Die Integration in Gleichung (.6) soll, wie in.. kurz beschrieben, ausgeführt werden. Wir nehmen im folgenden t > t S an und passen das Ergebnis später für t < t S an: A S x(t) = mω = A S mω t ( ts + t Mit sin x cos y = (sin(x y) + sin(x + y)) folgt: sin(ω (t t ))cos(ω S t )e B t t S dt = sin(ω (t t ))cos(ω S t )e B(t S t ) dt + ) sin(ω (t t )) cos(ω S t )e B(t t S ) dt = t S = A ( ts S sin(ω t (ω + ω S )t )e B(t S t ) ts dt + sin(ω t (ω ω S )t )e B(t S t ) dt + mω t t ) (A.) + sin(ω t (ω + ω S )t )e B(t t S ) dt + sin(ω t (ω ω S )t )e B(t t S ) dt t S t S Mit sin x = i (eix e ix ) und a := (ω + ω S ), b := ω t, c := B und d := Bt S kann man das erste Integral in Gleichung (A.) schreiben als: ts sin(at + b)e ct +d dt = i ts ts (e i(at +b) e i(at +b) )e ct +d dt = = e (ia+c)t +ib+d e ( ia+c)t ib+d dt = i = [ ] e (ia+c)t +ib+d e( ia+c)t ib+d ts + C = i ia + c ia + c Konjugiert komplexes Erweitern und Ausklammern von e ct +d liefert: = ect +d i [ ] ( ia + c)e iat +ib ts (ia + c)e iat ib i a + c a + c = ce i(at +b) ce i(at +b) ( iae i(at +b) + iae ) i(at +b) a + c = ect +d Mit sin x = i (eix e ix ) und cos x = (eix + e ix ) folgt: [ e ct +d (c sin(at + b) a cos(at + b)) = a + c Setzt man Gleichung (A.) für das erste Integral und mit entsprechend angepassten Konstanten a und b für das zweite Integral in Gleichung (A.) ein, erhält man Folgendes (die zweite, eckige Klammer verhält sich ] ts t S = (A.) 7

72 wie die erste, nur mit negiertem c und d und angepassten Integrationsgrenzen): x(t) = A ( [ S e B(t S t ) B sin( (ω + ω S )t + ω t) + (ω + ω S ) cos( (ω + ω S )t + ω t) mω (ω + ω S ) + B + + B sin( (ω ω S )t + ω t) + (ω ω S ) cos( (ω ω S )t + ω t) (ω ω S ) + B + [ + e B(t t S ) B sin( (ω + ω S )t + ω t) + (ω + ω S ) cos( (ω + ω S )t + ω t) (ω + ω S ) + B + + B sin( (ω ω S )t + ω t) + (ω ω S ) cos( (ω ω S )t + ω t) (ω ω S ) + B ] ts ] t t S (A.3) Einsetzen der Integrationsgrenzen und weiteres Vereinfachen ergibt für t > t S : x(t) = C = A ( S D sin(ω t) + D cos(ω t) + e ( B(t t S) C sin(ω S t) + C cos(ω S t) )) mω mit B (ω + ω S ) + B B ω + ω S (ω ω S ) + B C = (ω + ω S ) + B + ω ω S (ω ω S ) + B D = B cos((ω + ω S )t S ) (ω + ω S ) + B + B cos((ω ω S )t S ) (ω ω S ) + B D = B sin((ω + ω S )t S ) (ω + ω S ) + B B sin((ω ω S )t S ) (ω ω S ) + B (A.4) Das Ergebnis für t < t S erhält man, wie oben beschrieben, durch Anpassen der Integrationsgrenzen und Streichen der zweiten, eckigen Klammer in Gleichung (A.3): x(t) = A Se B(t t) mω ( C sin(ω S t) + C cos(ω S t) ) (A.5) 7

73 A. Herleitung der Relation (.57) Bei den quantenmechanischen Berechnungen taucht häufig ein Ausdruck der Form (.57) auf: exp ( ˆX ) Ŷ exp ( ˆX ) (A.6) Diesen möchte man gerne ohne Operatoren im Exponenten schreiben. Man erweitert dazu die Exponenten um einen Parameter λ und verwendet die Ableitung nach diesem Parameter. Mit der Bedingung [ ˆX,Ŷ] = µŷ erhält man folgendes: Â(λ) = exp ( λ ˆX ) Ŷ exp ( λ ˆX ) dâ(λ) dλ = ˆX exp ( λ ˆX ) Ŷ exp ( λ ˆX ) + exp ( λ ˆX ) Ŷ ( ˆX ) exp ( λ ˆX ) = = exp ( λ ˆX ) [ ˆX,Ŷ ] exp ( λ ˆX ) = µ exp ( λ ˆX ) Ŷ exp ( λ ˆX ) = Dies ist eine Differentialgleichung für den Operator Â(λ), die durch = µâ(λ) (A.7) Â(λ) = e µλ Ŷ (A.8) gelöst wird. Somit ist dieser Ausdruck gleichwertig zum ursprünglichen Ausdruck für Â(λ). Man setzt λ = und erhält: exp ( ˆX ) Ŷ exp ( ˆX ) = e µ Ŷ (A.9) Somit wurden die Operatoren in den Exponenten in (A.6) durch einen Faktor e µ ersetzt. 73

74 A.3 Berechnung der Matrixdarstellung von ˆx 4 Um die Matrixdarstellung von ˆx 4 in der Eigenbasis des harmonischen Oszillators zu erhalten wird ˆx mit bekannter Matrixdarstellung (.44) zwei mal quadriert: ) ˆx mn = (âmn + â ( mn = nδm,n + ) n + δ m,n+ mω mω ˆx mn ( = kδm,k + ) ( k + δ m,k+ nδk,n + ) n + δ k,n+ = mω k= ( = m + δm+,k + ) ( mδ m,k nδk,n + ) n + δ k,n+ = mω k= ( = (m + )nδm+,n + (m + )(n + )δ m+,n+ + mnδ m,n + ) m(n + )δ m,n+ mω ( = (m + )(m + )δm,n + (m + )(m + )δ mn + mmδ mn + ) m(m )δ m,n+ = mω ( = (m + )(m + )δm,n + (m + )δ mn + ) m(m )δ m,n+ (A.) mω Damit sieht ˆx folgendermaßen aus: 3 3 ˆx 5 = mω (A.) Das zweite mal Quadrieren ergibt: ( ) ˆx 4 ( = (m + )(m + )δm,k + (m + )δ mk + ) m(m )δ m,k+ mω k= ( (k + )(k + )δ k,n + (k + )δ kn + k(k )δ k,n+ ) = ( ) ( = (m + )(m + )δm+,k + (m + )δ mk + ) m(m )δ m,k mω k= ( (n )nδ k,n + (n + )δ kn + (A.) ) (n + )(n + )δ k,n+ = ( ) ( = (m + )(m + )(n )nδm+,n + mω k= + (m + )(m + )(n + )δ m+,n + (m + )(m + )(n + )(n + )δ m+,n+ + + (m + ) (n )nδ m,n + (m + )(n + )δ mn + + (m + ) (n + )(n + )δ m,n+ + m(m )(n )nδ m,n + + m(m )(n + )δ m,n + m(m )(n + )(n + )δ m,n+ ) = 74

75 ( ) ( = (m + )(m + )(m + 3)(m + 4)δm,n 4 + mω k= + (m + )(m + )(m + 5)δ m,n + (m + )(m + )(m + )(m + )δ mn + + (m + ) (m + )(m + )δ m,n + (m + )(m + )δ mn + + (m + ) m(m )δ m,n+ + m(m )(m )mδ mn + + m(m )(m 3)δ m,n+ + m(m )(m )(m 3)δ m,n+4 ) = ( ) ( = (m + )(m + )(m + 3)(m + 4)δm,n 4 + mω k= + (4m + 6) (m + )(m + )δ m,n + (m(6m + 6) + 3) δ mn + +(4m ) m(m )δ m,n+ + m(m )(m )(m 3)δ m,n+4 ) (A.3) Als Matrix geschrieben sieht ˆx 4 damit folgendermaßen aus: ( ˆx 4 = mω ) α() β() γ() α() β() γ() β() α() β() γ() β() α(3) β(3) γ() β() α(4) β(4) γ() β(3) α(5) γ() β(4) α(6) mit α(m) := m(6m + 6) + 3 β(m) := (4m + 6) (m + )(m + ) γ(m) := (m + )(m + )(m + 3)(m + 4) (A.4) 75

76 Literatur [Dah63] [Fli8] [For88] [Hah] [HNW8] [HW9] G. Dahlquist. A special stability problem for linear multistep methods. In: BIT Numerical Mathematics 3 ( 963), S T. Fließbach. Quantenmechanik: Lehrbuch zur Theoretischen Physik III. 5. Aufl. Fließbach, Torsten: Lehrbuch zur theoretischen Physik. Spektrum Akademischer Verlag, Sep. 8. isbn: B. Fornberg. Generation of Finite Difference Formulas on Arbitrarily Spaced Grids. In: Mathematics of Computation 5.84 (Okt. 988), S url: edu/faculty/fornberg/docs/mathcomp_88_fd_formulas.pdf. T. Hahn. Routines for the diagonalization of complex matrices. Aug.. url: feynarts.de/diag. E. Hairer, S. P. Nørsett und G. Wanner. Solving Ordinary Differential Equations I: Nonstiff Problems.. Aufl. Solving Ordinary Differential Equations. Springer, Apr. 8. isbn: J. Heisig und J. Wess. Theoretische Mechanik.. Aufl. Springer-Lehrbuch. Springer, 9. isbn: [Mab7] H. Mabuchi. The Forced Harmonic Oscillator, Decoherence, and Schrödinger Cat States. 7. url: [Wei4] Prof. Dr. G. Weiß. Quantenmechanische Behandlung, Landauniveaus. Feb. 4. url: http: //uni-ka.the-jens.de/html/exphys5/exse45.htm. [Wik4] Wikipedia. Harmonischer Oszillator (Quantenmechanik). März 4. url: https : / / de. wikipedia.org/wiki/harmonischer_oszillator_(quantenmechanik). [Wul3] Dr. U. Wulf. Einsteinmodell für die Gitterschwingungen eines Festkörpers. Juli 3. url: 76

Ferienkurs Quantenmechanik I WKB-Näherung und Störungstheorie

Ferienkurs Quantenmechanik I WKB-Näherung und Störungstheorie Ferienkurs Quantenmechanik I WKB-Näherung und Störungstheorie Sebastian Wild Freitag, 6.. Inhaltsverzeichnis Die WKB-Näherung. Grundlegendes............................. Tunnelwahrscheinlichkeit.......................

Mehr

Theoretische Physik II Quantenmechanik

Theoretische Physik II Quantenmechanik Michael Czopnik Bielefeld, 11. Juli 014 Fakultät für Physik, Universität Bielefeld Theoretische Physik II Quantenmechanik Sommersemester 014 Lösung zur Probeklausur Aufgabe 1: (a Geben Sie die zeitabhängige

Mehr

Gewöhnliche Differentialgleichungen am Beispiel des harmonischen Oszillators

Gewöhnliche Differentialgleichungen am Beispiel des harmonischen Oszillators Gewöhnliche Differentialgleichungen am Beispiel des harmonischen Oszillators Horst Laschinsky 12. Oktober 1999 Inhaltsverzeichnis 1 Gewöhnliche lineare homogene Differentialgleichungen 2. Ordnung mit konstanten

Mehr

6 Der Harmonische Oszillator

6 Der Harmonische Oszillator 6 Der Harmonische Oszillator Ein Teilchen der Masse m bewege sich auf der x-achse unter dem Einfluß der Rückstellkraft Fx = mω x. 186 Die Kreisfrequenz ω bzw. die Federkonstante k := mω ist neben der Masse

Mehr

5. Vorlesung Wintersemester

5. Vorlesung Wintersemester 5. Vorlesung Wintersemester 1 Bewegung mit Stokes scher Reibung Ein dritter Weg, die Bewegungsgleichung bei Stokes scher Reibung zu lösen, ist die 1.1 Separation der Variablen m v = αv (1) Diese Methode

Mehr

Seminar zur Theorie der Atome, Kerne und kondensierten Materie. Kohärente Zustände des harmonischen Oszillators. Thomas Biekötter

Seminar zur Theorie der Atome, Kerne und kondensierten Materie. Kohärente Zustände des harmonischen Oszillators. Thomas Biekötter Seminar zur Theorie der Atome, Kerne und kondensierten Materie Kohärente Zustände des harmonischen Oszillators Thomas Biekötter 16.11.011 QUANTENMECHANISCHER HARMONISCHER OSZILLATOR 1 Klassischer harmonischer

Mehr

Probestudium der Physik 2011/12

Probestudium der Physik 2011/12 Probestudium der Physik 2011/12 Karsten Kruse 2. Mechanische Schwingungen und Wellen - Theoretische Betrachtungen 2.1 Der harmonische Oszillator Wir betrachten eine lineare Feder mit der Ruhelänge l 0.

Mehr

Der harmonische Oszillator anhand eines Potentials

Der harmonische Oszillator anhand eines Potentials Quantenmechanikvorlesung, Prof. Lang, SS04 Der harmonische Oszillator anhand eines Potentials Christine Krasser - Tanja Sinkovic - Sibylle Gratt - Stefan Schausberger - Klaus Passler Einleitung In der

Mehr

Theoretische Physik II: Quantenmechanik

Theoretische Physik II: Quantenmechanik Theoretische Physik II: Quantenmechanik Hans-Werner Hammer Marcel Schmidt ([email protected]) Wintersemester 2016/17 Probeklausur 12./13. Januar 2017 Name: Matrikelnummer: Studiengang:

Mehr

WKB-Methode. Jan Kirschbaum

WKB-Methode. Jan Kirschbaum WKB-Methode Jan Kirschbaum Westfälische Wilhelms-Universität Münster Fachbereich Physik Seminar zur Theorie der Atome, Kerne und kondensierten Materie 1 Einleitung Die WKB-Methode, unabhängig und fast

Mehr

Harmonischer Oszillator und 3d-Schrödingergleichung

Harmonischer Oszillator und 3d-Schrödingergleichung Harmonischer Oszillator und d-schrödingergleichung Tutoren: Jinming Lu, Konrad Schönleber 7.02.09 D-Harmonischer Oszillator Für die Entwicklung der Quantenmechanik spielte der harmonische Oszillator eine

Mehr

11.4. Lineare Differentialgleichungen höherer Ordnung

11.4. Lineare Differentialgleichungen höherer Ordnung 4 Lineare Differentialgleichungen höherer Ordnung Bei vielen geometrischen, physikalischen und technischen Problemen hat man nicht nur eine Funktion (in einer Variablen) und ihre Ableitung zueinander in

Mehr

Ferienkurs Quantenmechanik 2009

Ferienkurs Quantenmechanik 2009 Ferienkurs Quantenmechanik 9 Quantenmechanik mit Näherungsmethoden, oder: Wie rechne ich etwas aus? Vorlesungskript für den 6. August 9 Max Knötig Inhaltsverzeichnis Einführung Zeitunabhängige, nicht-entartete

Mehr

Quantentheorie für Nanoingenieure Klausur Lösung

Quantentheorie für Nanoingenieure Klausur Lösung 07. April 011 PD Dr. H. Kohler Quantentheorie für Nanoingenieure Klausur Lösung K1. Ja Nein Fragen (8P) Jede richtige Antwort liefert einen Punkt, jede falsche Antwort liefert einen Minuspunkt. Eine nicht

Mehr

Ferienkurs Theoretische Quantenmechanik 2010

Ferienkurs Theoretische Quantenmechanik 2010 Fakultät für Physik Michael Schrapp Technische Universität München Vorlesung Ferienkurs Theoretische Quantenmechanik 010 1 dimensionale Probleme Inhaltsverzeichnis 1 Die Schrödingergleichung 1.1 Wiederholung

Mehr

Quasi-exakt lösbare quantenmechanische Potentiale

Quasi-exakt lösbare quantenmechanische Potentiale Quasi-exakt lösbare quantenmechanische Potentiale Ausarbeitung zum Seminar zur Theorie der Atome, Kerne und kondensierten Materie vom.10.014 Philipp Marauhn [email protected] Inhaltsverzeichnis

Mehr

Ferienkurs Quantenmechanik. Zeitabhängige Schrödingergleichung und der harmonische Oszillator

Ferienkurs Quantenmechanik. Zeitabhängige Schrödingergleichung und der harmonische Oszillator Seite 1 Ferienkurs Quantenmechanik Sommersemester 015 Fabian Jerzembeck und Sebastian Steinbeisser Fakultät für Physik Technische Universität München Zeitabhängige Schrödingergleichung und der harmonische

Mehr

7 Diracs Bracket-Notation

7 Diracs Bracket-Notation 7 Diracs Bracket-Notation 71 Entwicklungen nach Eigenfunktionen 711 Oszillator-Eigenfunktionen Die Oszillator-Eigenfunktionen Φ n (x), Φ n (x) = N n H ( x) n e x 2 /2a 2, N n = a 1 2 n n! πa (n = 0, 1,

Mehr

Schwingungen. Inhaltsverzeichnis. TU München Experimentalphysik 1 DVP Vorbereitungskurs. Andreas Brenneis; Rebecca Saive; Felicitas Thorne

Schwingungen. Inhaltsverzeichnis. TU München Experimentalphysik 1 DVP Vorbereitungskurs. Andreas Brenneis; Rebecca Saive; Felicitas Thorne TU München Experimentalphysik 1 DVP Vorbereitungskurs Andreas Brenneis; Rebecca Saive; Felicitas Thorne Schwingungen Donnerstag, der 31.07.008 Inhaltsverzeichnis 1 Einleitung: Schwingungen und Wellen 1

Mehr

4.9 Der Harmonische Oszillator

4.9 Der Harmonische Oszillator 4.9 Der Harmonische Oszillator Zum harmonischen Oszillator gehört klassisch die Hamiltonfunktion H = p m + k x. 4.58) Damit wird z.b. näherungsweise die Bewegung von einzelnen Atomen in einem Festkörper

Mehr

F R. = Dx. M a = Dx. Ungedämpfte freie Schwingungen Beispiel Federpendel (a) in Ruhe (b) gespannt: Auslenkung x Rückstellkraft der Feder

F R. = Dx. M a = Dx. Ungedämpfte freie Schwingungen Beispiel Federpendel (a) in Ruhe (b) gespannt: Auslenkung x Rückstellkraft der Feder 6. Schwingungen Schwingungen Schwingung: räumlich und zeitlich wiederkehrender (=periodischer) Vorgang Zu besprechen: ungedämpfte freie Schwingung gedämpfte freie Schwingung erzwungene gedämpfte Schwingung

Mehr

Theorie der Kondensierten Materie I WS 2017/2018

Theorie der Kondensierten Materie I WS 2017/2018 Karlsruher Institut für Technologie Institut für Theorie der Kondensierten Materie Theorie der Kondensierten Materie I WS 17/18 Prof. Dr. A. Mirlin, PD Dr. I. Gornyi Blatt 3 Dr. N. Kainaris, Dr. S. Rex,

Mehr

Der quantenmechanische harmonische Oszillator

Der quantenmechanische harmonische Oszillator 88 Kapitel 0 Der quantenmechanische harmonische Oszillator In diesem Kapitel befassen wir uns mit den quantenmechanischen Eigenschaften eines der grundlegenden Modelle der Physik, dem harmonischen Oszillator.

Mehr

Hochschule Düsseldorf University of Applied Sciences. 22. Dezember 2016 HSD. Physik. Schwingungen

Hochschule Düsseldorf University of Applied Sciences. 22. Dezember 2016 HSD. Physik. Schwingungen Physik Schwingungen Zusammenfassung Mechanik Physik Mathe Einheiten Bewegung Bewegung 3d Newtons Gesetze Energie Gravitation Rotation Impuls Ableitung, Integration Vektoren Skalarprodukt Gradient Kreuzprodukt

Mehr

Das Unschärfeprodukt x p in der klassischen Mechanik Seminar zur Theorie der Atome, Kerne und kondensierten Materie. Jonas Lübke

Das Unschärfeprodukt x p in der klassischen Mechanik Seminar zur Theorie der Atome, Kerne und kondensierten Materie. Jonas Lübke Das Unschärfeprodukt x p in der klassischen Mechanik Seminar zur Theorie der Atome, Kerne und kondensierten Materie Jonas Lübke 7. November 013 Inhaltsverzeichnis 1 Einführung 1 Beziehung zwischen klassischer

Mehr

5 Gewöhnliche Differentialgleichungen

5 Gewöhnliche Differentialgleichungen 5 Gewöhnliche Differentialgleichungen 5.1 Einleitung & Begriffsbildung Slide 223 Natürliches Wachstum Eine Population bestehe zur Zeit t aus N(t) Individuen. Die Population habe konstante Geburts- und

Mehr

Serie 13. Analysis D-BAUG Dr. Cornelia Busch FS 2016

Serie 13. Analysis D-BAUG Dr. Cornelia Busch FS 2016 Analysis D-BAUG Dr. Cornelia Busch FS 2016 Serie 13 1. Prüfungsaufgabe 4, Winter 2014. Bestimmen Sie die Funktion, für die gilt: An jeder Stelle des Definitionsbereichs ist die Steigung des Graphen der

Mehr

7.3 Der quantenmechanische Formalismus

7.3 Der quantenmechanische Formalismus Dieter Suter - 389 - Physik B3 7.3 Der quantenmechanische Formalismus 7.3.1 Historische Vorbemerkungen Die oben dargestellten experimentellen Hinweise wurden im Laufe der ersten Jahrzehnte des 20. Jahrhunderts

Mehr

ν und λ ausgedrückt in Energie E und Impuls p

ν und λ ausgedrückt in Energie E und Impuls p phys4.011 Page 1 8.3 Die Schrödinger-Gleichung die grundlegende Gleichung der Quantenmechanik (in den bis jetzt diskutierten Fällen) eine Wellengleichung für Materiewellen (gilt aber auch allgemeiner)

Mehr

Die Schrödingergleichung

Die Schrödingergleichung Vortrag im Rahmen der Vorlesung zu Spektralmethoden Magdalena Sigg Wanja Chresta 20. Mai 2008 Zusammenfassung ist die zentrale Gleichung der Quantenmechanik. Mit ihrer Hilfe werden Teilchen in gegebenen

Mehr

4.2 Der Harmonische Oszillator

4.2 Der Harmonische Oszillator Dieter Suter - 208 - Physik B3, SS03 4.2 Der Harmonische Oszillator 4.2.1 Harmonische Schwingungen Die Zeitabhängigkeit einer allgemeinen Schwingung ist beliebig, abgesehen von der Periodizität. Die mathematische

Mehr

Differentialgleichungen 2. Ordnung

Differentialgleichungen 2. Ordnung Differentialgleichungen 2. Ordnung 1-E1 1-E2 Einführendes Beispiel Freier Fall Viele Geschichten ranken sich um den schiefen Turm von Pisa: Der Legende nach hat der aus Pisa stammende Galileo Galilei bei

Mehr

6 Gewöhnliche Differentialgleichungen

6 Gewöhnliche Differentialgleichungen 6 Gewöhnliche Differentialgleichungen Differentialgleichungen sind Gleichungen in denen nicht nur eine Funktion selbst sondern auch ihre Ableitungen vorkommen. Im einfachsten Fall gibt es eine unabhängige

Mehr

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 13

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 13 Prof. C. Greiner, Dr. H. van Hees Sommersemester 014 Übungen zur Theoretischen Physik Lösungen zu Blatt 13 Aufgabe 51: Massenpunkt auf Kugel (a) Als generalisierte Koordinaten bieten sich Standard-Kugelkoordinaten

Mehr

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2. - 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel

Mehr

r r : Abstand der Kerne

r r : Abstand der Kerne Skript zur 10. Vorlesung Quantenmechanik, Freitag den 0. Mai, 011. 7.6 Anwendung Kernschwingungen in einem zweiatomigen Molekül. V ( r ) r 0 V 0 h ω 1 h ω r r : Abstand der Kerne Für Schwingungen kleiner

Mehr

Name: Gruppe: Matrikel-Nummer:

Name: Gruppe: Matrikel-Nummer: Theoretische Physik 1 (Theoretische Mechanik) SS08, Studienziel Bachelor (170 1/13/14) Dozent: J. von Delft Übungen: B. Kubala Klausur zur Vorlesung T1: Theoretische Mechanik, SoSe 008 (3. Juli 007) Bearbeitungszeit:

Mehr

Gewöhnliche Differentialgleichungen. Teil II: Lineare DGLs mit konstanten Koeffizienten

Gewöhnliche Differentialgleichungen. Teil II: Lineare DGLs mit konstanten Koeffizienten - 1 - Gewöhnliche Differentialgleichungen Teil II: Lineare DGLs mit konstanten Koeffizienten Wir wenden uns jetzt einer speziellen, einfachen Klasse von DGLs zu, die allerdings in der Physik durchaus beträchtliche

Mehr

Nachklausur: Quantentheorie I, WS 07/08

Nachklausur: Quantentheorie I, WS 07/08 Nachklausur: Quantentheorie I, WS 7/8 Prof. Dr. R. Friedrich Aufgabe : [ P.] Betrachten Sie die Bewegung eines Teilchens im konstanten Magnetfeld B = [,, b] a)[p.] Zeigen Sie, dass ein zugehöriges Vektorpotential

Mehr

11.2 Störungstheorie für einen entarteten Energie-Eigenwert E (0)

11.2 Störungstheorie für einen entarteten Energie-Eigenwert E (0) Skript zur 6. Vorlesung Quantenmechanik, Freitag den. Juni,.. Störungstheorie für einen entarteten Energie-Eigenwert E () n Sei E n () eing-fachentartetet Eigenwert desoperatorsĥ undsei ψ nα, () α =,...,g

Mehr

Bewegung im elektromagnetischen Feld

Bewegung im elektromagnetischen Feld Kapitel 6 Bewegung im elektromagnetischen Feld 6. Hamilton Operator und Schrödinger Gleichung Felder E und B. Aus der Elektrodynamik ist bekannt, dass in einem elektrischen Feld E(r) und einem Magnetfeld

Mehr

Vorbereitung. (1) bzw. diskreten Wellenzahlen. λ n = 2L n. k n = nπ L

Vorbereitung. (1) bzw. diskreten Wellenzahlen. λ n = 2L n. k n = nπ L Physikalisches Fortgeschrittenenpraktikum Gitterschwingungen Vorbereitung Armin Burgmeier Robert Schittny 1 Theoretische Grundlagen Im Versuch Gitterschwingungen werden die Schwingungen von Atomen in einem

Mehr

Das mathematische Pendel

Das mathematische Pendel 1 Das mathematische Pendel A. Krumbholz, S. Effendi 25. Juni 2013 2 Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 1 Einführung 3 1.1 Das mathematische Pendel........................... 3 1.2

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Theoretische Physik I: Lösungen Blatt Michael Czopnik

Theoretische Physik I: Lösungen Blatt Michael Czopnik Theoretische Physik I: Lösungen Blatt 2 15.10.2012 Michael Czopnik Aufgabe 1: Scheinkräfte Nutze Zylinderkoordinaten: x = r cos ϕ y = r sin ϕ z = z Zweimaliges differenzieren ergibt: ẍ = r cos ϕ 2ṙ ϕ sin

Mehr

Hochschule Düsseldorf University of Applied Sciences. 05. Januar 2017 HSD. Physik. Schwingungen II

Hochschule Düsseldorf University of Applied Sciences. 05. Januar 2017 HSD. Physik. Schwingungen II Physik Schwingungen II Ort, Geschwindigkeit, Beschleunigung x(t) = cos! 0 t v(t) =ẋ(t) =! 0 sin! 0 t t a(t) =ẍ(t) =! 2 0 cos! 0 t Energie In einem mechanischen System ist die Gesamtenergie immer gleich

Mehr

9. Vorlesung Wintersemester

9. Vorlesung Wintersemester 9. Vorlesung Wintersemester 1 Die Phase der angeregten Schwingung Wertebereich: bei der oben abgeleiteten Formel tan φ = β ω ω ω0. (1) ist noch zu sehen, in welchem Bereich der Winkel liegt. Aus der ursprünglichen

Mehr

Differentialgleichungen

Differentialgleichungen Differentialgleichungen Viele physikalische Probleme können mathematisch als gewöhnliche Differentialgleichungen formuliert werden nur eine unabhängige Variable (meist t), z.b. Bewegungsgleichungen: gleichmäßig

Mehr

Symmetrietransformationen

Symmetrietransformationen Kapitel 6 Symmetrietransformationen Besonders wichtig, nicht nur in der Quantenmechanik, sind zeitliche und räumliche Verschiebungen sowie Drehungen. Man bezeichnet sie auch als Symmetrietransformationen,

Mehr

X.4 Elektromagnetische Wellen im Vakuum

X.4 Elektromagnetische Wellen im Vakuum X.4 Elektromagnetische Wellen im Vakuum 173 X.4 Elektromagnetische Wellen im Vakuum In Abwesenheit von Quellen, ρ el. = 0 j el. = 0, nehmen die Bewegungsgleichungen (X.9) (X.11) für die elektromagnetischen

Mehr

Name: Gruppe: Matrikel-Nummer:

Name: Gruppe: Matrikel-Nummer: Theoretische Physik 1 (Theoretische Mechanik) SS08, Studienziel Bachelor (170 12/13/14) Dozent: J. von Delft Übungen: B. Kubala Nachklausur zur Vorlesung T1: Theoretische Mechanik, SoSe 2008 (1. Oktober

Mehr

Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2.

Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Gesetz: (enthalten Ableitungen der gesuchten Funktionen) Geschwindigkeit:

Mehr

Blatt 05.2: Green sche Funktionen

Blatt 05.2: Green sche Funktionen Fakultät für Physik T: Klassische Mechanik, SoSe 05 Dozent: Jan von Delft Übungen: Katharina Stadler, Frauke Schwarz, Dennis Schimmel, Lukas Weidinger http://homepages.physik.uni-muenchen.de/~vondelft/lehre/5t/

Mehr

7. Übungsblatt Physik I für MWWT Komplexe Zahlen, gewöhnliche Differentialgleichungen

7. Übungsblatt Physik I für MWWT Komplexe Zahlen, gewöhnliche Differentialgleichungen Prof. Dr. Walter Arnold Lehrstuhl für Materialsimulation Universität des Saarlandes 5. Januar 2016 7. Übungsblatt Physik I für MWWT Komplexe Zahlen, gewöhnliche Differentialgleichungen Abgabe des Übungsblattes

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

Theoretische Physik: Mechanik

Theoretische Physik: Mechanik Ferienkurs Theoretische Physik: Mechanik Blatt 4 - Lösung Technische Universität München 1 Fakultät für Physik 1 Zwei Kugeln und der Satz von Steiner Nehmen Sie zwei Kugeln mit identischem Radius R und

Mehr

Der Taylorsche Satz Herleitung und Anwendungen

Der Taylorsche Satz Herleitung und Anwendungen Der Taylorsche Satz Herleitung und Anwendungen Joachim Schneider Juni 2004 Zusammenfassung Es wird ein enfacher Beweis des Taylorsche Satz über die lokale Approximierbarkeit hinreichend glatter Funktionen

Mehr

T2 Quantenmechanik Lösungen 4

T2 Quantenmechanik Lösungen 4 T2 Quantenmechanik Lösungen 4 LMU München, WS 17/18 4.1. Lösungen der Schrödinger-Gleichung Beweisen Sie die folgenden Aussagen. Prof. D. Lüst / Dr. A. Schmi-May version: 06. 11. a) Die Separationskonstante

Mehr

1 Lagrange-Formalismus

1 Lagrange-Formalismus Lagrange-Formalismus SS 4 In der gestrigen Vorlesung haben wir die Beschreibung eines physikalischen Systems mit Hilfe der Newton schen Axiome kennen gelernt. Oft ist es aber nicht so einfach die Kraftbilanz

Mehr

Klausur zur T1 (Klassische Mechanik)

Klausur zur T1 (Klassische Mechanik) Klausur zur T1 (Klassische Mechanik) WS 2006/07 Bearbeitungsdauer: 120 Minuten Prof. Stefan Kehrein Name: Matrikelnummer: Gruppe: Diese Klausur besteht aus vier Aufgaben. In jeder Aufgabe sind 10 Punkte

Mehr

TP2: Elektrodynamik WS Arbeitsblatt 10 21/ Dipole und Multipole in stationären Feldern

TP2: Elektrodynamik WS Arbeitsblatt 10 21/ Dipole und Multipole in stationären Feldern TP2: Elektrodynamik WS 2017-2018 Arbeitsblatt 10 21/22.12. 2017 Dipole und Multipole in stationären Feldern Die Multipolentwicklung ist eine hilfreiche Näherung zur Lösung der Poisson Gleichung, wenn eine

Mehr

Ferienkurs Quantenmechanik

Ferienkurs Quantenmechanik PHYSIKDEPARTMENT TECHNISCHE UNIVERSITÄT MÜNCHEN Felix Rucker, Matthias Herzog Übungsklausur 9.9. Kurze Fragen (6 Punkte) Ferienkurs Quantenmechanik Übungsklausur a) Wie ist ein quantenmechanischer Drehimpuls

Mehr

Blatt 1. Kinematik- Lösungsvorschlag

Blatt 1. Kinematik- Lösungsvorschlag Fakultät für Physik der LMU München Lehrstuhl für Kosmologie, Prof. Dr. V. Mukhanov Übungen zu Klassischer Mechanik (T1) im SoSe 011 Blatt 1. Kinematik- Lösungsvorschlag Aufgabe 1.1. Schraubenlinie Die

Mehr

Inhalt der Vorlesung A1

Inhalt der Vorlesung A1 PHYSIK Physik A/B1 A WS SS 17 13/14 Inhalt der Vorlesung A1 1. Einführung Methode der Physik Physikalische Größen Übersicht über die vorgesehenen Themenbereiche. Teilchen A. Einzelne Teilchen Beschreibung

Mehr

I.1.3 b. (I.7a) I.1 Grundbegriffe der Newton schen Mechanik 9

I.1.3 b. (I.7a) I.1 Grundbegriffe der Newton schen Mechanik 9 I. Grundbegriffe der Newton schen Mechanik 9 I..3 b Arbeit einer Kraft Wird die Wirkung einer Kraft über ein Zeitintervall oder genauer über die Strecke, welche das mechanische System in diesem Zeitintervall

Mehr

Probestudium der Physik 2011/12

Probestudium der Physik 2011/12 Probestudium der Physik 2011/12 1 Schwingungen und Wellen: Einführung in die mathematischen Grundlagen 1.1 Die Sinus- und die Kosinusfunktion Die Sinusfunktion lässt sich genauso wie die Kosinusfunktion

Mehr

Aufgabe1 EStrich ist Lennard Jones Potential mit Exponentialfunktion

Aufgabe1 EStrich ist Lennard Jones Potential mit Exponentialfunktion Aufgabe EStrich ist Lennard Jones Potential mit Exponentialfunktion Ansatz: Exponentialfunktion mit 3 Variablen einführen: a: Amplitude b:stauchung c:verschiebung_entlang_x_achse EStrich r_, ro_, _ : a

Mehr

Harmonische Schwingungen

Harmonische Schwingungen Kapitel 6 Harmonische Schwingungen Von periodisch spricht man, wenn eine feste Dauer zwischen wiederkehrenden ähnlichen oder gleichen Ereignissen besteht. Von harmonisch spricht man, wenn die Zeitentwicklung

Mehr

Die Schrödingergleichung

Die Schrödingergleichung Die Schrödingergleichung Wir werden in dieser Woche die grundlegende Gleichung der Quantenmechanik kennenlernen, die Schrödingergleichung. Sie beschreibt das dynamische Verhalten von Systemen in der Natur.

Mehr

(a) Transformation auf die generalisierten Koordinaten (= Kugelkoordinaten): ẏ = l cos(θ) θ sin(ϕ) + l sin(θ) cos(ϕ) ϕ.

(a) Transformation auf die generalisierten Koordinaten (= Kugelkoordinaten): ẏ = l cos(θ) θ sin(ϕ) + l sin(θ) cos(ϕ) ϕ. Karlsruher Institut für Technologie Institut für Theorie der Kondensierten Materie Theoretische Physik B - Lösungen SS 10 Prof. Dr. Aleander Shnirman Blatt 5 Dr. Boris Narozhny, Dr. Holger Schmidt 11.05.010

Mehr

Formelsammlung: Physik I für Naturwissenschaftler

Formelsammlung: Physik I für Naturwissenschaftler Formelsammlung: Physik I für Naturwissenschaftler 1 Was ist Physik? Stand: 13. Dezember 212 Physikalische Größe X = Zahl [X] Einheit SI-Basiseinheiten Mechanik Zeit [t] = 1 s Länge [x] = 1 m Masse [m]

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

1. Anfangswertprobleme 1. Ordnung

1. Anfangswertprobleme 1. Ordnung 1. Anfangswertprobleme 1. Ordnung 1.1 Grundlagen 1.2 Euler-Vorwärts-Verfahren 1.3 Runge-Kutta-Verfahren 1.4 Stabilität 1.5 Euler-Rückwärts-Verfahren 1.6 Differentialgleichungssysteme Prof. Dr. Wandinger

Mehr

Hochschule Düsseldorf University of Applied Sciences. 12. Januar 2017 HSD. Physik. Schwingungen III

Hochschule Düsseldorf University of Applied Sciences. 12. Januar 2017 HSD. Physik. Schwingungen III Physik Schwingungen III Wiederholung Komplexe Zahlen Harmonischer Oszillator DGL Getrieben Gedämpft Komplexe Zahlen Eulersche Formel e i' = cos ' + i sin ' Komplexe Schwingung e i!t = cos!t + i sin!t Schwingung

Mehr

9.4 Lineare gewöhnliche DGL

9.4 Lineare gewöhnliche DGL 9.4 Lineare gewöhnliche DGL Allgemeinste Form einer gewöhnlichen DGL: Falls linear in ist, sprechen wir von einer "linearen" DGL: und eine Matrix zeitabhängigen Komponenten ein zeitabhängiger Vektor In

Mehr

7 Die Hamilton-Jacobi-Theorie

7 Die Hamilton-Jacobi-Theorie 7 Die Hamilton-Jacobi-Theorie Ausgearbeitet von Rolf Horn und Bernhard Schmitz 7.1 Einleitung Um die Hamilton schen Bewegungsgleichungen q k = H(q, p) p k ṗ k = H(p, q) q k zu vereinfachen, führten wir

Mehr

Quantenmechanische Probleme in drei Raumdimensionen

Quantenmechanische Probleme in drei Raumdimensionen KAPITEL VI Quantenmechanische Probleme in drei Raumdimensionen VI. Dreidimensionaler Kastenpotential Der Vollständigkeit halber... VI. Teilchen in einem Zentralpotential In diesem Abschnitt werden die

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Partielle Differentialgleichungen

Partielle Differentialgleichungen Partielle Differentialgleichungen Definition. Eine partielle Differentialgleichung ist eine Dgl., in der partielle Ableitungen einer gesuchten Funktion z = z(x 1, x 2,..., x n ) mehrerer unabhängiger Variabler

Mehr

Übungen zur Theoretischen Physik F SS 12

Übungen zur Theoretischen Physik F SS 12 Karlsruher Institut für Technologie Institut für Theorie der Kondensierten Materie Übungen zur Theoretischen Physik F SS Prof. Dr. Jörg Schmalian Blatt 8: Lösungen Dr. Igor Gornyi Besprechung 5.6.. Landauscher

Mehr

Eine Kreis- oder Rotationsbewegung entsteht, wenn ein. M = Fr

Eine Kreis- oder Rotationsbewegung entsteht, wenn ein. M = Fr Dynamik der ebenen Kreisbewegung Eine Kreis- oder Rotationsbewegung entsteht, wenn ein Drehmoment:: M = Fr um den Aufhängungspunkt des Kraftarms r (von der Drehachse) wirkt; die Einheit des Drehmoments

Mehr

Blatt 05.3: Green sche Funktionen

Blatt 05.3: Green sche Funktionen Fakultät für Physik T: Klassische Mechanik, SoSe 06 Dozent: Jan von Delft Übungen: Benedikt Bruognolo, Sebastian Huber, Katharina Stadler, Lukas Weidinger http://www.physik.uni-muenchen.de/lehre/vorlesungen/sose_6/t_theor_mechanik/

Mehr

PHYSIK FÜR MASCHINENBAU SCHWINGUNGEN UND WELLEN

PHYSIK FÜR MASCHINENBAU SCHWINGUNGEN UND WELLEN 1 PHYSIK FÜR MASCHINENBAU SCHWINUNEN UND WELLEN Vorstellung: Professor Kilian Singer und Dr. Sam Dawkins (Kursmaterie teilweise von Dr. Saskia Kraft-Bermuth) EINFÜHRUN Diese Vorlesung behandelt ein in

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Theoretische Chemie (TC II) Computational Chemistry

Theoretische Chemie (TC II) Computational Chemistry Theoretische Chemie (TC II) Computational Chemistry Lecture 2 28/10/2011 Irene Burghardt ([email protected]) Vorlesung: Mi 11h30-13h, Fr 8h-9h30 Praktikum (gemäß Ankündigung, statt Vorlesung):

Mehr

5 Schwingungen und Wellen

5 Schwingungen und Wellen 5 Schwingungen und Wellen Schwingung: Regelmäßige Bewegung, die zwischen zwei Grenzen hin- & zurückführt Zeitlich periodische Zustandsänderung mit Periode T ψ ψ(t) [ ψ(t-τ)] Wellen: Periodische Zustandsänderung

Mehr

Die Differentialgleichung :

Die Differentialgleichung : Die Differentialgleichung : Erstellt von Judith Ackermann 1.) Definition, Zweck 1.1) verschiedene Arten von Differentialgleichungen 2.) Beispiele und Lösungswege 2.1) gewöhnliche Differentialgleichungen

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Experimentalphysik E1

Experimentalphysik E1 Experimentalphysik E1 Gedämpfte & erzwungene Schwingungen Alle Informationen zur Vorlesung unter : http://www.physik.lmu.de/lehre/vorlesungen/index.html 16. Dez. 16 Harmonische Schwingungen Auslenkung

Mehr

sie ist also eine Lösung der Differenzialgleichung y 0 = Ay. Bei x = 0 sind diese n Spalten auch linear unabhängig, da ja

sie ist also eine Lösung der Differenzialgleichung y 0 = Ay. Bei x = 0 sind diese n Spalten auch linear unabhängig, da ja Lineare Systeme mit konstanten Koeffizienten 44 63 Zusammenhang mit Fundamentalsystemen Für die Matrix-Exponenzialfunkton e Ax gilt (e Ax ) = Ae Ax Für jede Spalte '(x) der Matrix e Ax Matrixmultpiplikation

Mehr

D = Lösung der Aufgabe 1

D = Lösung der Aufgabe 1 Klassische Theoretische Physik I, WiSe 7/8 Aufgabe : Verständnisfragen und kleine Aufgaben 3P Beantworten Sie die Fragen kurz, aber vollständig. (a) 4P Formulieren Sie zwei der drei Kepler schen Gesetze

Mehr

1 Einführung, Terminologie und Einteilung

1 Einführung, Terminologie und Einteilung Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen

Mehr