1 Algebraische Strukturen

Ähnliche Dokumente
1.3 Gruppen. Algebra I 9. April 2008 c Rudolf Scharlau,

2. Symmetrische Gruppen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

1. Gruppen. 1. Gruppen 7

Halbgruppen, Gruppen, Ringe

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

5. Gruppen, Ringe, Körper

a 2 (a b)(a + b) h 1 := h, n N h n+1 := h h n. (2) Die Regeln für das Rechnen mit Potenzen übertragen sich dann weitgehend:

Formale Grundlagen 2008W. Vorlesung im 2008S Institut für Algebra Johannes Kepler Universität Linz

Axiomatische Beschreibung der ganzen Zahlen

1 Axiomatische Charakterisierung der reellen. 3 Die natürlichen, die ganzen und die rationalen. 4 Das Vollständigkeitsaxiom und irrationale

9.2 Invertierbare Matrizen

4 Einige Grundstrukturen. Themen: Abbildungen und Relationen Gruppen Die natürlichen Zahlen Körper

(Allgemeine) Vektorräume (Teschl/Teschl 9)

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Vektoren. Jörn Loviscach. Versionsstand: 11. April 2009, 23:42

Mathematische Strukturen

Mengen und Abbildungen

1.1 Mengen und Abbildungen

Zahlen und elementares Rechnen

37 Gauß-Algorithmus und lineare Gleichungssysteme

1.2 Eigenschaften der ganzen Zahlen

1 Modulare Arithmetik

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Zahlen. Bernhard Ganter. Institut für Algebra TU Dresden D Dresden

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Lineare Gleichungssysteme

4 Vorlesung: Matrix und Determinante

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Leitfaden Lineare Algebra: Determinanten

Mathematische Erfrischungen III - Vektoren und Matrizen

Vorkurs: Mathematik für Informatiker

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

2.2 Konstruktion der rationalen Zahlen

4. Vektorräume und Gleichungssysteme

Vektorräume und Lineare Abbildungen

4.1 Definition. Gegeben: Relation f X Y f heißt Funktion (Abbildung) von X nach Y, wenn. = y 1. = y 2. xfy 1. xfy 2

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Matrizen, Determinanten, lineare Gleichungssysteme

3.5 Ringe und Körper. Diese Eigenschaften kann man nun auch. 1. (R, +) ist eine kommutative Gruppe. 2. Es gilt das Assoziativgesetz bezüglich.

1 Algebraische Strukturen

Lineare Algebra I Zusammenfassung

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Übungen zu Einführung in die Lineare Algebra und Geometrie

Zahlen und metrische Räume

Gruppe. Unter einer Gruppe (G, ) versteht man eine Menge G, auf der eine binäre Operation definiert ist:

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Elementare Beweismethoden

Mathematik II Frühjahrssemester 2013

Grundlagen der Mengenlehre

Mit Funktionen rechnen ein wichtiges Thema der Sekundarstufe 2

1.4 Homomorphismen und Isomorphismen

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

$Id: gruppen.tex,v /04/24 15:25:02 hk Exp $ $Id: ring.tex,v /04/24 15:35:17 hk Exp $

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48

3 Vollständige Induktion

Copyright, Page 1 of 5 Die Determinante

Algebraische Kurven. Holger Grzeschik

Definition, Rechenoperationen, Lineares Gleichungssystem

Eigenwerte und Diagonalisierung

Mathematische Grundlagen der Ökonomie Übungsblatt 8

7 Vektorräume und Körperweiterungen

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Surjektive, injektive und bijektive Funktionen.

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

Mathematik und Logik

Kapitel 17. Determinanten

Lineare Algebra I (WS 13/14)

Kapitel 2: Mathematische Grundlagen

Natürliche, ganze und rationale Zahlen

5 Grundlagen der Zahlentheorie

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

3 Vom Zählen zur Induktion

Vektorräume und Rang einer Matrix

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Lösungen zum 3. Aufgabenblatt

2 Die Menge der ganzen Zahlen. von Peter Franzke in Berlin

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Lineare Algebra - alles was man wissen muß

Lineare Algebra 1. Detlev W. Hoffmann. WS 2013/14, TU Dortmund

1 Algebraische Grundbegriffe

Euklidische und unitäre Vektorräume

Übungen zur Linearen Algebra 1

3.6 Eigenwerte und Eigenvektoren

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ):

Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen.

Zahlen und elementares Rechnen (Teil 1)

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Didaktik der Zahlbereiche 4. Die Menge der ganzen Zahlen. Mathematikunterricht in der Jahrgangsstufe 7. Zahlbereichserweiterungen in der Hauptschule

2.1 Eigenschaften und Beispiele von Gruppen Untergruppen Homomorphismen... 25

Prof. Dr. Rudolf Scharlau, Stefan Höppner

Notizen zu Transformationen und Permutationen. T (A) = {f : A A}

Einführung in die Mathematik für Informatiker

6.1 Natürliche Zahlen 6.2 Induktion und Rekursion 6.3 Ganze, rationale, reelle und komplexe Zahlen 6.4 Darstellung von Zahlen

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Transkript:

1 Algebraische Strukturen 1.1 Innere Verknüpfungen 1.1.1 Grundbegriffe und Beispiele In der Analysis wie auch in der linearen Algebra kommen verschiedene Arten von Rechenoperationen vor, bei denen man jeweils (zwei) mathematische Objekte der gleichen Art miteinander verknüpft und wieder ein Objekt dieser Art als Ergebnis geliefert bekommt. Die folgende Liste enthält einige Beispiele: 1. Die Addition m + n zweier natürlicher Zahlen m, n N. 2. Die Vereinigung M N zweier Mengen M und N. 3. Die Addition x + y zweier Vektoren x, y R n des n-dimensionalen reellen Raums. 4. Die Multiplikation A B zweier reeller Matrizen A, B R n n mit n N Zeilen und Spalten. 5. Das Vekorprodukt x y = (x 2 y 3 x 3 y 2, x 3 y 1 x 1 y 3, x 1 y 2 x 2 y 1 ) zweier Vektoren x = (x 1, x 2, x 3 ), y = (y 1, y 2, y 3 ) R 3 des 3-dimensionalen reellen Raums. Diese Rechenoperationen oder Verknüpfungen besitzen Gemeinsamkeiten, unterscheiden sich aber auch in einigen Eigenschaften auch erheblich: Für die Addition natürlicher Zahlen gilt die als Assoziativgesetz bekannte Regel (l + m) + n = l + (m + n). Auch die Vereinigung von Mengen gehorcht diesem Gesetz: (K M) N = K (M N). Da die Addition von Vektoren komponentenweise definiert ist, und die Addition reeller Zahlen dem Assoziativgesetz gehorcht, gilt dasselbe auch für die Vektoraddition. Die Matrixmultiplikation ist ebenfalls assoziativ; der Nachweis kann mit einer einfachen aber etwas länglichen Rechnung geführt werden. Das Vektorprodukt dagegen ist nicht assoziativ: Nach Definition steht x y stets senkrecht auf x und y. Weiter gilt x y = 0 genau dann, wenn x und y linear abhängig sind. Sind nun x und y linear unabhängige Vektoren, so folgt daher x (x y) 0. Andererseits ist (x x) y = 0 y = 0. 4

Bezeichnet man mit die leere Menge, so gilt M = M = M für eine beliebige Menge M, das heißt die Verknüpfung mit der leeren Menge bewirkt nichts. Analog verhält sich der Nullvektor 0 R n in bezug auf die Vektoraddition, x + 0 = 0 + x = x für einen beliebigen Vektor x, und die Einheitsmatrix E R n n in bezug auf die Matrixmultiplikation, A E = E A = A für alle Matrizen A. Für die Addition natürlicher Zahlen und das Vektorprodukt gibt es jeweils keine Elemente, die sich in dieser Weise neutral verhalten. Auch in Bezug auf das neutrale Element, falls es denn vorhanden ist, verhalten sich die Verknüpfungen verschieden: Für die Vektoraddition gilt stets x + ( x) = 0. Zu einer nicht leeren Menge M gibt es aber keine Menge N mit der Eigenschaft M N =. Im Fall der Matrizen gibt es zu A R n n nur manchmal eine Matrix B mit der Eigenschaft A B = E. Zum Schluss dieser Diskussion sei schließlich festgehalten, dass das Ergebnis einer Verknüpfung in den Beispielen 1 bis 3 nicht von der Reihenfolge, in der man verknüpft, abhängt. Bei den Beispielen 4 und 5 ist das dagegen der Fall. Im Fall des Vektorprodukts gilt dabei stets x y = (y x). Durch Abstraktion, also das Wegnehmen aller speziellen Eigenschaften von den obigen Beispielen und das Herausarbeiten der wesentlichen gemeinsamen Eigenschaften, gelangt man zu der folgenden Definition 1: Eine innere Verknüpfung einer Menge M ist eine Abbildung v : M M M; die Bilder v(m 1, m 2 ) werden in der Regel als m 1 m 2 geschrieben, um auszudrücken, dass die beiden Elemente m 1, m 2 M miteinander verknüpft werden. Man nennt die innere Verknüpfung v assoziativ, falls das Assoziativgesetz m 1, m 2, m 3 M (m 1 m 2 ) m 3 = m 1 (m 2 m 3 ) gilt. Man nennt v kommutativ, falls das Kommutativgesetz m 1, m 2 M m 1 m 2 = m 2 m 1 gilt. Ein Element e M heißt neutrales Element von v, falls es die Eigenschaft m M m e = e m = m 5

besitzt. Besitzt die innere Verknüpfung v ein neutrales Element e M, so nennt man ein Element m M Inverses zu m M, falls es die Eigenschaft besitzt. m m = m m = e Die Verwendung des Symbols für eine allgemeine innere Verknüpfung ist zwar willkürlich, hat sich aber in der mathematischen Literatur durchgesetzt, obwohl eine Verwechslungsgefahr mit dem Symbol für die Multiplikation von Zahlen besteht. Wie die oben diskutierten Beispiele zeigen, verwendet man im Fall konkreter Verknüpfungen durchaus auch andere Symbole wie etwa + oder. Die Definition 1 wirft einige Fragen auf: Sind für eine assoziative Verknüpfung auch Ausdrücke wie zum Beispiel (m 1 m 2 ) (m 3 m 4 ) und m 1 ((m 2 m 3 ) m 4 ) gleich? Allgemeiner: Darf man in einem Ausdruck, in dem mehrerer Elemente verknüpft werden, die Klammern beliebig setzen, solange die Klammerung ein zulässiger Ausdruck ist? Man beachte hierbei, dass die Klammern stets so gesetzt werden müssen, dass die Vorschrift zur Berechnung des Ausdrucks eindeutig erkennbar ist. Die Ausdrücke m 1 m 2 m 3 und m 1 (m 2 m 3 ) m 4 sind zum Beispiel nicht zulässig, da sie mehrdeutig sind. Kann eine innere Verknüpfung mehrere neutrale Elemente besitzen? Das Inverse eines Elements hängt vom neutralen Element ab. Kann es bei festem neutralem Element mehrere Inverse zu einem Element geben? Diese Fragen sollen nun der Reihe nach beantwortet werden. Feststellung 2: Es seien v : M M M eine innere Verknüpfung und m 1,... m r M. Gilt für v das Assoziativgesetz, so liefern für r 3 alle zulässig geklammerten Ausdrücke, in denen die m i in der Reihenfolge ihrer Nummerierung auftreten, dasselbe Ergebnis. 6

Gilt für v zusätzlich das Kommutativgesetz, so kann man für r 2 die m i in beliebiger Reihenfolge miteinander verknüpfen ohne das Ergebnis zu ändern. Beweis: Beide Behauptungen werden durch vollständige Induktion nach r beweisen. Zunächst zum Assoziativgesetz: Induktionsanfang (r = 3): Dies ist gerade das Assoziativgesetz laut Definition. Induktionsschritt: Man zeigt, dass das Ergebnis jedes zulässig geklammerten Ausdrucks A aus r + 1 > 3 Elementen m 1,..., m r+1 M gleich dem Ergebnis des Ausdrucks m 1 (m 2 (m 3 (... (m r m r+1 )...) (1) ist. Am Beispiel r = 4 sieht man, wie das gemeint ist: Der Ausdruck A = (m 1 m 2 ) (m 3 m 4 ) ist zulässig geklammert. Er ist gleich dem Ausdruck m 1 (m 2 (m 3 m 4 )), weil man m 3 m 4 als ein Element von m M betrachten und das Assoziativgesetz anwenden kann: (m 1 m 2 ) (m 3 m 4 ) = (m 1 m 2 ) m = m 1 (m 2 m) = m 1 (m 2 (m 3 m 4 )). Im allgemeinen Fall argumentiert man so: Da A zulässig geklammert ist, besitzt er die Form A = A 1 A 2 mit zulässig geklammerten Ausdrücken A 1 und A 2. Ist A 1 = m 1, so gilt nach Induktionsannahme A 2 = m 2 (m 3 (m 4 (... (m r m r+1 )...), woraus die Behauptung direkt folgt. Andernfalls gilt für ein s {2,..., r} nach Induktionsannahme und folglich A 1 = m 1 (m 2 (m 3 (... (m s 1 m s )...), A 1 A 2 = (m 1 (m 2 (m 3 (... (m s 1 m s )...)) A 2 = m 1 ((m 2 (m 3 (... (m s 1 m s )...) A 2 ), wobei man das Assoziativgesetz benutzt. Nach Induktionsannahme gilt (m 2 (m 3 (... (m s 1 m s )...) A 2 = m 2 (m 3 (m 4 (... (m r m r+1 )...), 7

woraus wiederum die Behauptung folgt. Nun zum Kommutativgesetz. Induktionsanfang (r = 2): Dies ist gerade das Kommutativgesetz laut Definition. Induktionsschritt: Man betrachtet eine Umordnung k 1,..., k r+1 der natürlichen Zahlen 1,..., r + 1, r + 1 > 2. Im Fall k 1 = 1 gilt nach Induktionsannahme m k2... m kr+1 = m 2... m r+1, also wie behauptet m k1 m k2... m kr+1 = m 1 m 2... m r+1. Andernfalls gilt nach Induktionsannahme zunächst und daher m k2... m kr+1 = m 1... m r+1, m k1 m k2... m kr+1 = m k1 m 1... m r+1 = m 1 m k1... m r+1 =... = m 1 m 2... m r+1, wobei man m k1 solange mit dem jeweils rechts stehenden Faktor tauscht, bis es an der seinem Index k 1 entsprechenden Position im Produkt steht. Hierbei wird das Kommutativgesetz verwendet. Man beachte, dass wegen der Gültigkeit des Assoziativgesetzes in den oben aufgeführten Produkten keine Klammern gesetzt werden müssen. Feststellung 3: Eine innere Verknüpfung besitzt höchstens ein neutrales Element. Beweis: Es seien e 1 und e 2 zwei neutrale Elemente der inneren Verknüpfung. Dann gilt e 1 = e 1 e 2 = e 2, wobei man für das erste Gleichheitszeichen die Neutralität von e 2 benutzt und für das zweite die Neutralität von e 1. Die Feststellung 3 besitzt trotz ihres einfachen Beweises wegen ihrer Allgemeinheit etwas Überraschendes. Der Begriff des Inversen wird durch die Eindeutigkeit des neutralen Elements selbst wesentlich klarer. Das folgende Ergebnis geht diesbezüglich noch einen Schritt weiter: 8

Feststellung 4: Besitzt eine innere Verknüpfung ein neutrales Element und gilt das Assoziativgesetz, so besitzt jedes Element höchstens ein Inverses. Beweis: Es sei eine assoziative innere Verknüpfung der Menge M mit neutralem Element e M. Es seien m und m zwei Inverse zu m M. Dann gilt m = m e = m (m m ) = (m m) m = e m = m. Man passt nun auch die mathematische Notation den Ergebnissen an: Ist eine innere Verknüpfung der Menge M, so bezeichnet man das neutrale Element, falls es existiert, nicht mehr mit einem willkürlich gewählten Buchstaben, sondern mit dem Symbol 1, in Übereinstimmung mit dem Multiplikationssymbol für die Verknüpfung. Besitzt ein neutrales Element und ist assoziativ, so bezeichnet man entsprechend das Inverse eines Elements m M mit dem Symbol m 1. Diese Konventionen gelten für die Untersuchung allgemeiner Verknüpfungen. In speziellen Fällen wird durchaus davon abgewichen. Entsprechend ihrer Bedeutung zeichnet man assoziative innere Verknüpfungen (mit neutralem Element) besonders aus: Definition 5: Eine Halbgruppe ist ein Paar (H, ) bestehend aus einer nicht leeren Menge H und einer assoziativen inneren Verknüpfung von H. Ein Monoid ist eine Halbgruppe (H, ) für die ein neutrales Element besitzt. Eine Gruppe ist ein Monoid (H, ), in dem jedes Element ein Inverses besitzt. Man nennt eine Halbgruppe, ein Monoid oder eine Gruppe (H, ) endlich oder unendlich, wenn die Menge H endlich oder unendlich ist. Ist H endlich, so steht das Symbol H für die Anzahl der Elemente von H. Diese wird (etwas missverständlich) auch als Ordnung von H bezeichnet. Man nennt eine Halbgruppe oder ein Monoid (H, ) kommutativ, wenn das Kommutativgesetz gilt. Eine Gruppe (H, ), in der das Kommutativgesetz gilt, nennt man abelsch, zu Ehren des norwegischen Mathematikers Niels Henrik Abel ( 1802, 1829). Abel zeigte mit Hilfe der Theorie endlicher Gruppen, dass es für die Gleichung fünften Grades x 5 + a 4 x 4 + a 3 x 3 + a 2 x 2 + a 1 x + a 0 = 0 9

mit reellen Koeffizienten keine allgemeine Lösungsformel gibt, anders als für die entsprechenden Gleichungen niedrigeren Grades. Man hatte vorher über mehrere Jahrhunderte hinweg versucht eine solche Formel zu finden. Die folgenden Beispiele von Halbgruppen, Monoiden und Gruppen spielen in der Mathematik wegen ihres häufigen Auftretens eine wichtige Rolle. Beispiel 6 (Zahlbereiche): In der Schule und zu anfang des Studiums lernt man die folgenden Zahlbereiche kennen. Ihre Struktur ist jeweils angegeben, wobei das Verknüpfungssymbol + für die Addition und das Verknüpfungssymbol für die Multiplikation im jeweiligen Zahlbereich steht. Natürliche Zahlen (N, +): kommutative Halbgruppe. Natürliche Zahlen (N, ): kommutatives Monoid. Ganze Zahlen (Z, +): abelsche Gruppe. Ganze Zahlen (Z, ): kommutatives Monoid. Rationale Zahlen (Q, +): abelsche Gruppe. Rationale Zahlen (Q \ {0}, ): abelsche Gruppe. Positive rationale Zahlen (Q >0, ): abelsche Gruppe. Reelle Zahlen (R, +): abelsche Gruppe. Reelle Zahlen (R \ {0}, ): abelsche Gruppe. Positive reelle Zahlen (R >0, ): abelsche Gruppe. Komplexe Zahlen (C, +): abelsche Gruppe. Komplexe Zahlen (C \ {0}, ): abelsche Gruppe. Konvention: In diesem Skript wird das Symbol K verwendet, wenn wahlweise eine der Mengen Q, R oder C gemeint ist. Beispiel 7 (Vektoraddition): Die Menge K n von Vektoren mit Komponenten im Zahlbereich K bilden zusammen mit der komponentenweisen Addition (a 1,..., a n ) + (b 1,..., b n ) := (a 1 + b 1,..., a n + b n ) 10

eine abelsche Gruppe. Das neutrale Element ist der Nullvektor 0 := (0,..., 0), das Inverse eines Vektor (a 1,..., a n ) ist der Vektor (a 1,..., a n ) := ( a 1,..., a n ). Beispiel 8 (Matrixoperationen): Die Menge K m n der Matrizen a 11 a 12... a 1n a 21 a 22... a 2n (a ik ) :=... a m1 a m2... a mn mit m Zeilen und n Spalten sowie Koeffizienten a ij im Zahlbereich K bilden zusammen mit der koeffizientenweisen Addition (a ij ) + (b ij ) := (a ij + b ij ) eine abelsche Gruppe. Das neutrale Element ist die Nullmatrix 0 := (a ij ), a ij = 0 für alle i und j. Das Inverse der Matrix (a ij ) ist die Matrix (a ij ) := ( a ij ). Die Menge K n n der Matrizen mit n Zeilen und n Spalten sowie Koeffizienten a ij im Zahlbereich K bilden zusammen mit der Matrixmultiplikation (a ij ) (b ij ) := ( n a ik b kj ) ein Monoid. Im Fall n 2 ist dieses nicht kommutativ. Das neutrale Element ist die Einheitsmatrix 1 0 0 0 0 1 0 0 E := 0 0...... 0 0 0 0 1 k=1 11

Beispiel 9 (Punktweise Operationen mit Funktionen): Es sei M eine nicht leere Menge und Fun (M, R) die Menge aller Abbildungen f : M R. Solche Abbildungen nennt man auch Funktionen auf M; die Fälle M = (a, b), M = [a, b] und M = R sind aus der Analysis vertraut. Zwei Funktionen f, g Fun (M, R) kann man punktweise addieren und multiplizieren: f + g : M R, m f(m) + g(m), f g : M R, m f(m)g(m) und erhält als Ergebnis wieder eine Funktion M R. Da für die Addition und die Multiplikation reeller Zahlen das Assoziativgesetz und das Kommutativgesetz gelten, gelten diese Gesetze auch für die punktweise Summe und das punktweise Produkt von Funktionen. Die Nullfunktion 0 : M R ist durch 0(m) := 0 für alle m M definiert. Sie ist das neutrale Element der punktweisen Addition. Die Einsfunktion 1 : M R ist durch 1(m) := 1 für alle m M definiert. Sie ist das neutrale Element der punktweisen Multiplikation. Zu jeder Funktion f : M R kann man die Funktion f : M R durch ( f)(m) := f(m) für alle m M definieren. Dann gilt f + ( f) = 0, das heißt f ist das Inverse zu f bezüglich der punktweisen Addition. Insgesamt hat man jetzt bewiesen: (Fun (M, R), +) ist eine abelsche Gruppe und (Fun (M, R), ) ist ein kommutatives Monoid. Beispiel 10 (Verkettung von Abbildungen): Es sei M eine nicht leere Menge und Abb (M) die Menge aller Abbildungen f : M M. Führt man eine Abbildung g Abb (M) nach der Abbildung f Abb (M) aus, so erhält man insgesamt eine mit g f bezeichnete Abbildung, die häufig als Verkettung von f mit g bezeichnet wird. Nach Definition gilt m M (g f)(m) = g(f(m)), woraus das Assoziativgesetz f, g, h Abb (M) (h g) f = h (g f) durch einfaches Nachrechnen folgt. Die identische Abbildung oder Identität id : M M, m m ist offensichtlich das neutrale Element der inneren Verknüpfung. 12

Besitzt M mehr als zwei Elemente, so ist (Abb (M), ) nicht kommutativ: Sind a, b, c M nämlich drei verschiedene Elemente von M, so kann man Abbildungen f und g wie folgt definieren: f(a) := b, f(b) := a, m M \ {a, b} f(m) := m, g(b) := c, g(c) := b, m M \ {b, c} g(m) := m. Für diese Abbildungen gilt (f g)(a) = f(g(a)) = f(a) = b und (g f)(a) = g(f(a)) = g(b) = c. Es folgt f g g f. Diejenigen Elemente eines Monoids die ein Inverses besitzen, spielen überall in der Mathematik eine besondere Rolle. Definition 11: Die Elemente eines Monoids (H, ), die ein Inverses besitzen, nennt man auch invertierbare Elemente von H. Die Menge aller invertierbaren Elemente von (H, ) wird mit H bezeichnet. Bei der Bezeichnungsweise H unterdrückt man die eigentlich notwendige Angabe der Verknüpfung, ein übliches Vorgehen um zu komplexe Bezeichnungen zu vermeiden. Nach Definition sind Gruppen gerade die Monoide (H, ) für die H = H gilt. Beispiel 12 (Zahlbereiche (Forts.)): (N, ) = {1}. (Z, ) = { 1, 1}. Beispiel 13 (Matrixoperationen (Forts.)): Zu einer Matrix A (K n n, ) muss eine Matrix B K n n existieren, für die A B = B A = E gilt. In der linearen Algebra nennt man Matrizen, die diese Bedingung erfüllen invertierbar, konsistent mit der hier allgemein für Monoide eingeführten Bezeichnung. Nach dem Determinantenproduktsatz der linearen Algebra gilt det(a B) = det(a) det(b) = det(e) = 1 und damit det(a) K \ {0}. In der linearen Algebra wird bewiesen, dass die Bedingung det(a) 0 auch hinreichend für die Invertierbarkeit von A ist. 13

Beispiel 14 (Punktweise Operationen mit Funktionen (Forts.)): Die in dem Monoid (Fun (M, R), ) invertierbaren Elemente sind genau diejenigen Funktionen f : M R, die keine Nullstellen besitzen. Besitzt nämlich f keine Nullstelle, so kann man die Funktion f 1 : M R durch f 1 (m) := f(m) 1 definieren und es gilt f f 1 = 1. (Vorsicht: f 1 ist natürlich(!) nicht die Umkehrfunktion von f.) Ist andererseits f ein invertierbares Element von (Fun (M, R), ), so gibt es eine Funktion g mit f g = 1. Nach Definition bedeutet das f(m)g(m) = 1 für alle m M, also insbesondere f(m) 0 für alle m M. Beispiel 15 (Verkettung von Abbildungen (Forts.)): Besitzt f Abb (M) ein inverses Element g, so gilt id = g f = f g. Die Gleichung g f = id zeigt, dass f injektiv sein muss: Sind nämlich m, m M mit f(m) = f(m ), so ergibt sich durch verknüpfen mit g von links die Gleichung m = m. Die Gleichung f g = id dagegen liefert die Surjektivität von f: Ist nämlich m M so gilt für das Element g(m) M die Gleichung f(g(m)) = m. Insgesamt muss ein invertierbares Element von Abb (M) also bijektiv sein und in diesem Fall ist die Umkehrabbildung gerade das Inverse von f. 14