Merkmalsextraktion mit Hilfe des LPC-Modells
|
|
- Ralph Wagner
- vor 7 Jahren
- Abrufe
Transkript
1 Merkmalsextraktion mit Hilfe des LPC-Modells Stephanie Wist Fakultät für Informatik Universität Ulm Abstract Im folgenden werde ich mit möglichst wenigen mathematischen Hilfsmittlen den Aufbau und die Funktionsweise des LPC-Modells erläutern. Dazu zuerst ein kurzer Überblick über das LPC-Verfahren, seine Vorgehensweise und seine Anwendungsgebiete. Danach wird auf die einzelnen Merkmale eingegangen, die mit dem LPC- Modell bestimmt werden können, und wie diese Erkennung im einzelnen funktioniert. 1 Was ist LPC? LPC steht für Linear Predictive Coding, zu deutsch: Lineare Prädiktion. Es ist ein Verfahren um analoge Signale - speziell menschliche Sprache - zu analysieren und auf Parameter abzubilden, indem ein spezieller Wert mit Hilfe einer linearen Funktion aus zeitlich vorhergehenden Werten vorhergesagt wird. Dabei wird ausgenutzt, dass das menschliche Sprachsignal über verhältnismässig lange Zeiträume (bis zu 22ms) fast unveränderlich ist, und auch der Vokaltrakt, der die Sprache moduliert, sich nur langsam und stetig ändern kann. Die Anzahl der verwendeten Parameter schwankt zwischen den verschiedenen LPC-Verfahren. Es hat sich jedoch gezeigt, dass die Wahl von vielen Filterkoeffizienten die Sprachqualität nicht wesentlich verbessert, da die wesentlichen Merkmale bereits in den ersten 12 Parametern vertreten sind. Dabei gilt die Faustformel, dass zwei Paramter für die Nachbildung der Stimmritze und jeweils zwei Parameter für einen Formanten benötigt werden. Die die menschliche Sprache nur bis zu fünf Formanten besitzt, reichen demzufolge 12 Parameter für eine gute Näherung aus (vgl Fig. 7). Ein LPC-Verfahren, dass zur Analyse p Parameter verwendet, wird oft als LPC-Verfahren p-ter Ordnung bezeichnet. bezeichnet. Das älteste LPC-Verfahren zur Spracherkennung LPC-10 wurde erstmals 1984 vorgeschlagen und verwendet 10 Parameter für stimmhafte Laute und 4 für stimmlose und besitzt somit die Ordnung November 2004
2 2 Das LPC-Modell Fig. 1. Quelle-Filter-Modell für das LPC-Verfahren Das LPC-Verfahren basiert auf einem einfachen Quelle-Filter-Modell. Das Modell ist der menschlichen Sprachbildung nachempfunden. Die menschliche Sprache wird erzeugt, indem der Luftstrom aus den Lungen durch die Stimmritze und an den Stimmbändern vorbei gepresst wird und diese bei stimmhaften Lauten zum Schwingen gebracht werden. Danach findet eine zusätzliche Artikulierung durch die Form der Mund- und Nasenhöhle statt. Für das Quelle- Filter-Modell wird die menschliche Lunge als Quelle betrachtet, die entweder ein periodisches Signal u(n) für stimmhafte Laute oder weisses Rauschen für stimmlose Laute erzeugt, und die Stimmbänder, Rachen und Mundhöhle als eine Röhre mit variablem Durchmesser gesehen. Die Erzeugung spezieller Laute geschieht nun beim Quelle-Filter-Modell dadurch, dass das digitale Filter durch die entsprechenden variablen Parameter der Form dieser virtuellen Röhre so angepasst wird, dass es das Signal möglichst orginalgetreu moduliert. Da auch die Lautstärke, dh. das Volumen an Luft, dass aus der Lunge gepresst wird, eine wichtige Rolle bei der menschlichen Sprache spielt, wird im Quelle-Filter-Modell das periodische oder aperiodische Signal u(n) zusätzlich mit einem Verstärkungsfaktor G multipliziert. 3 Schritte zur Durchführung einer LPC-Analyse In diesem Abschnitt sollen nochmals kurz alle Schritte aufgeführt werden, die für eine LPC-Analyse notwendig sind. Zuerst wird das einkommende Signal abgetastet und geglättet. Danach wird das Signal in Segmente mit jeweils N Abtastwerten zerlegt. Dabei gilt, dass das nächste Segment M Abtastwerte nach dem Anfang des jeweiligen Segments beginnt. Ist M kleiner als N, so findet eine Überlappung statt, so dass einige Abtastwerte bei zwei oder mehr Segmenten die Filterkoeffizienten beeinflussen. Ist M grösser als N, so gibt es 2
3 Fig. 2. Schritte zur Analyse und Synthese von Sprachsignalen Abtastwerte, die in der Analyse ignoriert werden. Allgemein hängt die Wahl von M und N von der Genauigkeit und Menge der Daten ab, die gewünscht sind. Die einzelnen Segmente werden mit einer Fensterfunktion w mutlipliziert, so dass bei der Berechnung der Filterparameter alle Werte ausserhalb des Bereiches als 0 angesehen werden. Für die Fensterfunktion wird meist eine Hammingfunktion verwendet, da sich herausgestellt hat, das bei Multiplikation mit einem reinen Rechteckssignal der Fehler bei der Vorhersage speziell am Anfang und am Ende eines Segmentes sehr gross war. Das liegt daran, das die ersten Werte am Anfang eines Segments mit Hilfe von Werten vorhergesagt werden sollen, die ausserhalb dieses Segements liegen und deshalb 0 sind. Genauso verhält es sich am Ende des Segments. Hier sollen Werte ausserhalb des Segmentes vorhergesagt werden, die durch die Multiplikation mit der Fensterfunktion 0 sind. Die Hammingfunktion dämpft die Werte am Anfang und am Ende des Segments und verhindert so einen übermässig grossen Fehler bei der Prädiktion. Anschliessend wird für jedes Segment zuerst die Autokorrelation berechnet, und anschliessend die Merkmale und Filterkoeffizienten extrahiert. An dieser Stelle sind die Filterkoeffizienten und die Sprachmerkmale aus dem Signal extrahiert. Die beiden letzten Schritte in Fig. 2 dienen hauptsächlich der Stabilisierung der Cepstral-Koeffizienten und sollen hier nicht weiter betrachtet werden. Fig. 3. Beispiel für überlappende Segmente. Es gilt: M = 1/3N 3
4 4 Erkennen von Sprachmerkmalen 4.1 Welche Merkmale können mit dem LPC-Modell erkannt werden? Während der Analyse wird von den einzelnen Segmenten Parameter bestimmt, die für eine spätere Rekonstruktion nötig sind. Dies beinhaltet speziell: die Lautstärke des aktuellen Segments. Dies entspricht dem Verstärkungsfaktor G. die darin enthaltene Energie. die Klassifizierung in stimmhafte und stimmlose Laute. Dies entspricht den beiden Formen von u(n). die Periodendauer bei stimmhaften Signalen. und speziell die Filterkoeffizienten, durch die das Sprachsignal beschrieben werden kann. 4.2 Bestimmung von stimmhaften und stimmlosen Lauten Die Unterscheidung zwischen stimmhaften und stimmlosen Lauten ist für die Spracherkennung und vor allem für die Synthese von Sprachsignalen wichtig, da ihnen unterschiedliche Signalformen zugrunde liegen. Fig. 4. Stimmhaftes e im Wort Test Fig. 5. Stimmloses s im Wort Test Das wichtigste Unterscheidungsmerkmal zwischen stimmhaften und stimmlosen Lauten ist die Wellenform, die Energie und der Frequenzbereich des Segments. Stimmhafte Laute bestehen aus einem periodischen Signal mit hoher Energie und einen Frequenzbereich um Hz. Stimmlose Laute hingegen haben meistens eine sehr zufällige und chaotische Wellenform und werden deshalb beim LPC-Modell auch mit weissem Rauschen nachgebildet. 4
5 Desweiteren ist die Energie in stimmlosen Lauten sehr viel niedriger als bei den stimmhaften und auch der Frequenzbereich liegt mit etwa Hz deutlich höher. Diese Unterschiede werden von dem LPC-Modell direkt zur Klassifikation eines Lautes in stimmhaft oder stimmlos benutzt. Zunächst wird versucht, den Laut über seine Energie einzuordnen. Dazu wird eine voreingestellte Schranke benötigt, nach der die Unterscheidung vorgenommen wird. Jedoch lassen sich nicht alle Signale direkt nach ihrer Energie einsortieren. Auch wird diese Methode bei lauter Sprache bzw. lauten Hintergrundgeräuschen durch ihre hohe Energie sehr viele Signale falsch klassifizieren. Deshalb wird in einem zweiten Schritt ausgenutzt, dass stimmhafte Laute eine hohe Energie aber niedrige Frequenzen, und stimmlose Laute jedoch hohe Frequenzen besitzen. Dies bedeutet aber auch, dass das Signal bei stimmlosen Lauten sehr viel häufiger die x-achse schneidet als bei stimmhaften Lauten. Deshalb wird zusätzlich die Anzahl der Nulldurchgänge ermittelt und mit Durchschnittswerten von typisch stimmhaften und stimmlosen Segmenten verglichen. Desweiteren werden bei der Klassifikation Segmente nicht einzeln betrachtet, sonder möglichst immer in ihrem Umfeld. Damit soll verhindert werden, dass in einer Gruppe stimmhafter Segmente ein stimmloses Segment ist (oder umgekehrt). 4.3 Berechnung der Filterkoeffizienten Wie weiter oben erwähnt wurde, versucht das LPC-Verfahren, das aktuelle Sprachsignal aus den vorangehenden Signalen zu berechnen. Dazu werden die Filterkoeffizienten möglichst passend aus abgetasteten Signalwerten bestimmt. Dabei werden die Koeffizienten derart gewählt, dass die Fehlerquadratsumme über die letzten so berechneten N Abtastwerte minimal wird. Wie man auch in Fig. 6 sieht, ist die Vorhersage für einen stimmhaften Laut genauer möglich, als für einen stimmlosen. Dies liegt am Signal-Charakter des stimmlosen Lautes, da es einen sehr chaotischen und zufälligen Verlauf hat, und sich demzufolge nur bedingt durch zeitlich davorliegende Abtastwerte voraussagen lässt. Auch spielt die Anzahl der Signalwerte eine Rolle, die zur Vorhersage herangezogen werden (vgl. Fig. 7). Im folgenden werde ich von p abgetasteten Signalwerten ausgehen. Für das aktuell abgetastete Signal gilt: p s(n) = a k s(n k) + Gu(n) (1) k=1 Betrachtet man nun das aktuelle Signal als Linearkombination aus den vorherigen Werten, so erhält man als Näherungswert s(n): p s(n) = a k s(n k) (2) k=1 5
6 Den auftretenten Fehler zu jedem Zeitpunkt kann man nun wie folgt berechnen: p e n = s(n) s(n) = s(n) a k s(n k) (3) k=1 Im Idealfall entspräche der Fehler Gu(n). Dies wird jedoch in der Praxis kaum erreicht, da das Signal in einem Segment nicht gleichförmig ist, sondern leichten Schwankungen unterworfen ist. Im folgenden soll die Fehlerquadratsumme über N Abtastwerte minimiert werden. Dazu wird das aktuelle Sprachsegment mit einer Fensterfunktion w multipliziert, mit: s(n + m)w(m) 0 m N 1 s(n + m) = 0 sonst (4) Das heisst: N 1 N 1 E = e 2 p n = (s(n) a k s(n k)) 2 (5) k=1 Da E eine Linearkombination von quadratischen Funktionen ist, und E für sehr grosse positive oder negative Werte von a k grösser wird, ist dieser Extrempunkt das einzige Minimum von E. E wird minimal für: E a i = 0 = ( ) N 1 p 2(s(n) a k s(n k))s(n i) k=1 für i = 1..p (6) N 1 N 1 p = 2 s(n)s(n i) + 2 a k s(n k)s(n i) (7) k=1 Durch Umformung erhält man: N 1 s(n)s(n i) = p k=1 N 1 a k s(n k)s(n i) (8) Aus diesen p Gleichungen lassen sich nun die p Koeffizienten bzw Filterparameter berechnen. Dafür gibt es verschiedene Verfahren. Die beiden meistbenutzen sind zum einen die Berechnung über die Autokorrelation des Signals, zum anderen über die Kovarianz. Die Methode über die Autokorrelation ist einfacher zu berechnen und hat auch noch einige weitere Vorteile, auf die ich 6
7 im Laufe dieses Abschnittes eingehen möchte. Die ersten Schritte sind jedoch gleich. Zuerst wird die Kovarianzmatrix über ihre Elemente φ i,k definiert als: φ i,k = N 1 s(n i)s(n k) (9) und: φ i,0 = p φ i,k a k (10) k=1 In Matrixform ergibt dies für die p Gleichungen: φ 1,0 φ 1,1 φ 1,2 φ 1,3 φ 1,p a 1 φ 2,0 φ 2,1 φ 2,2 φ 2,3 φ 2,p a 2 φ 3,0 = φ 3,1 φ 3,2 φ 3,3 φ 3,p a 3 φ p,0 φ p,1 φ p,2 φ p,3 φ p,p a p (11) oder: Φ 0 = Φa (12) Die Filterkoeffizienten kann man an dieser Stelle mit Hilfe der Kovarianzmethode bestimmen, indem man die inverse Matrix von Φ berechnet. Diese existiert aufgrund der Symmetrie von Φ, da φ i,k = φ k,i. Es gilt dann: a = Φ 1 Φ 0 (13) An dieser Stelle kann man die Kovarianzmatrix auch in eine Autokorrelationsmatrix umformen. Durch die Multiplikation mit w(m) kann man φ i,j umschreiben zu: φ i,j = N 1 (i j) s(n)s(n + (i j)) (14) da für Werte ausserhalb des Fensters s(n) = 0 gesetzt wurde. Nun hängt φ i,j nicht mehr direkt von i und j sondern nur noch von der Differenz i j ab. 7
8 Damit lässt sich φ i,j schreiben als: φ i,j = r i j (15) und damit gilt: r i,j = r k = N 1 k s(n)s(n + k) (16) Nun erhält man für Φ eine Toeplitz-Matrix: r 1 r 1 r 1 r 1 r 1 a 1 r 1 r 2 r 2 r 2 r 2 a 2 r 3 = r 3 r 3 r 3 r 3 a 3 r p r p r p r p r p a p (17) Toeplitz-Matrizen haben den Vorteil, dass sie sich sehr schnell berechnen lassen. Im Folgenden ist der Durbin Algorithmus angegeben, der diese Matrix schnell und effizient löst und dabei die einzelnen Kovarianz-Parameter berechnet, die stabiler sind als die eigentlichen Filterkoeffizienten und deshalb teilweise auch zur Analyse und Synthese des Sprachsignals herangezogen werden. Durbin-Algorithmus (iterativ, mit i = 1, 2,.., p) : E (0) = r 0 i 1 k i = r i j=1 α i 1 j r i j (18) /E (i 1) (19) α (i) i = k i (20) α (i) j = α i 1 j k i α (i 1) i j (21) E (i) = (1 k 2 i )E(i 1) (22) Dabei gilt: a m = Filterkoeffizienten = α (p) m (23) 8
9 k m = PARCOR Koeffizienten (24) g m = log area Koeffizienten = log ( ) 1 km 1 + k m (25) 4.4 Bestimmung der Grundfrequenz bei stimmhaften Segmenten Die Grundfrequenz im Sprachsignal entsteht durch die periodische Vibration der Stimmbänder. Diese sind bei einem stimmlosen Laut nicht beteiligt, was sich auch an ihrem aperiodischen Charakter sehen lässt. Aus diesem Grund wird und kann man die Grundfrequenz nur bei stimmhaften Signalen bestimmen. Jedoch ist diese Berechnung äusserst aufwendig. Zum einen lässt sich die Grundfrequenz direkt über die Autokorrelationskoeffizienten r k bestimmen. Denn r k besitzt ein Maximum, wenn k der Grundfrequenz entspricht. Jedoch ist diese Methode sehr fehleranfällig. Das Maximum wird meist durch einen Vergleich des Signals mit einem Schwellenwert ermittelt. Das muss aber nicht zwangsweise die Grundfrequenz sein. Auch durch sonstige Resonanzen im Vokaltrakt oder Interferenzen kann dieser Schwellenwert überschritten werden. LPC-10 verwendet einen anderen Ansatz. Es benutzt die average magnitude difference function - kurz AMDF - mit: AMDF (p) = 1 N k 0 +n i=k 0 y i y i p mit Grundperiode p (26) Da die Grundperiode bei der menschlichen Sprache zwischen 2.5ms und 19.5ms liegen muss, kann man verschiedene Werte für p einsetzen und so das Minimum etwa durch Ausprobieren ermitteln. Für Signale, die mit 8kHz abgetastet werden wie z.b. bei LPC-10, bedeutet dies: 20 p 120. Die Grundfrequenz selbst ist reziprok zur Grundperiode. Eine weiter Möglichkeit ist die Berechnung über das Cepstrum. Dabei wird ausgenutzt, dass die Grundfrequenz zwischen 50 und 400 Hz liegt, also im tiefen Frequenzspektrum. Diese werden beim Cepstrum hervorgehoben und deutlich weiter rechts auf der Frequenzachse abgebildet, als die höheren Frequenzen. Die Grundperiode macht sich nun als deutliche Spitze im Bereich zwischen 2.5ms und 19.5 bemerkbar, und kann somit leicht ermittelt werden. Bei stimmlosen Signalen fehlt diese charakteristische Spitze. 9
10 4.5 Berechnung der Verstärkung G Zur Berechnung des Verstärkungsfaktor G muss folgende Gleichung gelöst werden: G 2 = 1 1 p a k r k (27) r 0 k=1 Wurde die Bestimmung der Filterkoeffizienten über die Autokorrelation des Signals und den Durbin-Algorithmus vorgenommen, so lässt sich G aus deren Zwischenergebnissen berechnen als: G = E (0) /E (p) (28) 4.6 Berechnung der Energie im Segment Die Energie im Segment lässt sich sehr einfach über die Autokorrelation berechnen. Es gilt: E = r 0 = N 1 s 2 (n) (29) Wurden die Filterkoeffizienten bereits über die Autokorrelationsmethode berechnet, so fällt die Energie bei der Berechnung automatisch als Nebenprodukt ab. 4.7 Berechnung des Cepstrum Das Cepstrum lässt sich direkt aus den Filterkoeffizienten berechnen. Und zwar als: c k = a k = 1 k k 1 i=1 ic i a k i mit1 k p (30) Das Cepstrum ist eine weitere Möglichkeit zur Darstellung und Analyse von Sprachsignalen. Die Parameter entsprechen der Rücktransformierten des logarithmisch dargestellten Betragsspektrums und sind im allgemeinen stabiler als die Filterkoeffizienten selbst. 10
11 4.8 Probleme des LPC-Modells Das LPC-Modell ist ein stark vereinfachtes Modell für die menschliche Spracherzeugung. Es ist sehr gut geeignet, um stimmhafte Laute nachzubilden und zu erkennen, und auch stimmlose Laute können noch mit guter Näherung reproduziert werden. Jedoch liegen in der Vereinfachung des Modells auch Probleme. Diese beziehen sich hauptsächlich auf folgende Punkte: Durch Approximation des Stimmbereichs als einfache Röhre wird ignoriert, dass neben der Mundhöhle auch der Nasenraum an der Sprachbildung beteiligt ist. Da dieser in die Analyse und Synthese nicht miteinfliesst, kann man mit dem LPC-Modell nasale Laute nur sehr schlecht erkennen bzw. unterscheiden. Im LPC-Modell wird nur zwischen stimmhaften und stimmlosen Lauten unterschieden. Allerdings gibt es auch in der deutschen Sprache Laute, die sowohl stimmhafte als auch stimmlose Merkmale aufweisen. Diese Laute werden vom LPC-Modell aber entweder als stimmhaft oder als stimmlos klassifiziert, so dass sie bei der Synthese nicht korrekt reproduziert werden können, da sie eigentlich eine Mischform darstellen. Die Merkmalserkennung kann speziell bei lauten Hintergrundgeräuschen schnell fehlerhaft werden, da LPC diese nicht als solches erkennen kann und sie deshalb in die Analyse des eigentliches Sprachsignals mit einfliessen. Das LPC-Verfahren eignet sich nur für das Komprimieren und Erkennen von menschlicher Sprache. Bei anderen analogen Signalen ist im Normalfall die Fehlerrate zu gross, da diese im Gegensatz zur menschlichen Sprache meist nicht partiell konstant sind und nicht durch ein dem Quelle-Filter-Modell entsprechenden Verfahren erzeugt werden können. 5 Fazit Das LPC-Modell analysiert das Sprachsignal, indem es versucht, den Weg der menschlichen Spracherzeugung nachzubilden. Dazu werden Filterkoeffizienten berechnet, die es erlauben, den menschlichen Vokaltrakt möglichst gut zu simulieren. Ebenso wird bestimmt, ob ein Signal stimmhaft oder stimmlos ist, wieviel Energie es enthält und was seine Grundfrequenz ist. Durch diese Fülle von Parametern eignet sich meiner Meinung nach das LPC-Verfahren sehr gut zur Spracherkennung, da es die speziefischen Merkmale aus dem Sprachsignal extrahiert. Diese Parameter lassen sich nun im Folgenden mit den unterschiedlichsten Methoden auswerten und verarbeiten. Die Sprachübertragung bei der die Parameter übertragen werden und an der anderen Seite wieder synthetisiert werden ist nur eine Anwendungsmöglichkeit. Genauso kann man die Parameter analysieren und auf das Sprachsignal reagieren. Man denke hier 11
12 zum Beispiel an Spracherkennungssoftware, die es erlaubt, vom Nutzer per Sprache ferngesteuert zu werden. References [1] L.R. Rabiner und R.W. Schafer Digital Processing of Speech Signals (Prentice Hall, Englewood Cliffs, New Jersey, 1978) [2] Jeremy Bradbury Linear Predictive Coding (December 2000) [3] Bernd Eppinger und Eberhard Herter Sprachverarbeitung (Carl Hanser Verlag, München, Wien) [4] ajr/speechanalysis 12
13 Fig. 6. Änderung des Vorhersagefehlers bezüglich der Anzahl der Parameter 13
14 Fig. 7. Spektrum für einen stimmhaften Laut für verschiedene Vorhersage-Ordnungen p 14
Spracherkennung. 8. Sitzung 3. November 2008
Spracherkennung 8. Sitzung 3. November 2008 Überblick 5. Diskretisierung 6. Merkmalsberechnung 7. DTW 8. HMMs 9. Sprachmodellierung w X Textproduktion Artikulation Merkmalsextraktion Dekodierung 2. Sprachproduktion
MehrLineare Prädiktion. Stephan Arlinghaus 9. November 2006
Stephan Arlinghaus 9. November 2006 Gliederung 1 Einleitung Sprachanalyse... etwas Mathematik 2 Das autoregressive Modell (AR) (LP) 3 Kovarianzmethode Autokorrelationsmethode Methodenvergleich 4 5 Der
MehrStörgeräuschreduktion bei stimmhaften Sprachsignalen
Störgeräuschreduktion bei stimmhaften Sprachsignalen Einkanaliges Mikrofon Nutzsignal Störgeräusche Allgemein: einkanalige Störgeräuschreduktion Folie 1 Gliederung Störgeräuschreduktion: Arten und Einsatzgebiete
MehrNichtlineare Quantisierung
Nichtlineare Quantisierung Die einfachste Form der Codierung besteht in einer nichtlinearen Quantisierung der Abtastwerte, um die wesentlich häufiger auftretenden kleinen Amplitudenwerte mit einer höheren
MehrZ-Transformation, Cepstrum, LPC, Autokorrelation Sebastian Stüker
Institut für Anthropomatik Z-Transformation, Cepstrum, LPC, Autokorrelation Sebastian Stüker 04.11.2009 Interactive Systems Labs Verallgemeinerung der Fourier- Transformation: F(s) = L{ f }(s) = 0 e st
MehrRelAtive SpecTrAl (RASTA) Processing of Speech
RelAtive SpecTrAl (RASTA) Processing of Speech Paul Glad Mihai 23.11.06 Gliederung Einleitung Wieso RASTA? RASTA erläutert Probleme Modulationsspektrum von Sprache Methode RASTA erweitert Lin-Log Rasta
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrAdaptive Differenz-Puls-Code-Modulation (ADPCM) und Lineare, Prädiktive Codierung (LPC)
Adaptive Dierenz-Puls-Code-Modulation (ADPCM) und Lineare, Prädiktive Codierung (LPC) Ziele Mit diesen rechnerischen und experimentellen Übungen werden die Anwendungen der DPCM mit einer Anpassung der
MehrEinführung in die Signalverarbeitung Übung I
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrNichtlineare Quantisierung
Nichtlineare Quantisierung Die einfachste Form der Codierung besteht in einer nichtlinearen Quantisierung der Abtastwerte, um die wesentlich häufiger auftretenden kleinen Amplitudenwerte mit einer höheren
MehrDatenaquisition. Verstärker Filter. Sensor ADC. Objekt. Rechner
Datenaquisition Sensor Verstärker Filter ADC Objekt Rechner Datenaquisition Verstärker: - linearer Arbeitsbereich - linearer Frequenzgang - Vorkehrungen gegen Übersteuerung (trends, shot noise) - Verstärkerrauschen
MehrPuls-Code-Modulation. Thema: PCM. Ziele
Puls-Code-Modulation Ziele Mit diesen rechnerischen und experimentellen Übungen wird die Vorgehensweise zur Abtastung und linearen Quantisierung eines analogen Signals erarbeitet. Bei der Abtastung werden
MehrLeseprobe. Michael Knorrenschild. Vorkurs Mathematik. Ein Übungsbuch für Fachhochschulen ISBN:
Leseprobe Michael Knorrenschild Vorkurs Mathematik Ein Übungsbuch für Fachhochschulen ISBN: 978-3-446-42066-3 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-42066-3 sowie
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrSystemtheorie Teil B
d + d z + c d z + c uk d + + yk z d + c d z + c Systemtheorie eil B - Zeitdiskrete Signale und Systeme - Musterlösungen Manfred Strohrmann Urban Brunner Inhalt Musterlösungen - Signalabtastung und Rekonstruktion...
MehrA2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
MehrSpektra von periodischen Signalen. Resonanz. Jonathan Harrington
Spektra von periodischen Signalen. Resonanz. Jonathan Harrington Spektrum von einem Zeitsignal Zeitsignal 1. Das Zeitsignal wird durch eine Fourier- Analyse in Sinusoiden zerlegt 2. Spektrum: die Abbildung
MehrAufgabe 1 (20 Punkte)
Augabe 1 (20 Punkte) Es wird ein Sprachsignal x(t) betrachtet, das über eine ISDN-Teleonleitung übertragen wird. Das Betragsspektrum X() des analogen Signals kann dem nachstehenden Diagramm entnommen werden.
MehrLeseprobe. Michael Knorrenschild. Vorkurs Mathematik. Ein Übungsbuch für Fachhochschulen. ISBN (Buch):
Leseprobe Michael Knorrenschild Vorkurs Mathematik Ein Übungsbuch für Fachhochschulen ISBN (Buch): 978-3-446-43798-2 ISBN (E-Book): 978-3-446-43628-2 Weitere Informationen oder Bestellungen unter http://www.hanser-fachbuch.de/978-3-446-43798-2
Mehr2 Perioden in 0.02 s 1 Periode in 0.01 s 100 Perioden in 1 s, Grundfrequenz = 100 Hz
1. Die Abbildung in (a) zeigt einen synthetischen [i] Vokal. Was ist die Grundfrequenz davon? (Die Zeitachse ist in Sekunden). 2 Perioden in 0.02 s 1 Periode in 0.01 s 100 Perioden in 1 s, Grundfrequenz
MehrLösung der harmonischen Oszillator-Gleichung
Lösung der harmonischen Oszillator-Gleichung Lucas Kunz 8. Dezember 016 Inhaltsverzeichnis 1 Physikalische Herleitung 1.1 Gravitation................................... 1. Reibung.....................................
MehrSpracherkennung. 4. Sitzung 23. Oktober 2008
Spracherkennung 4. Sitzung 23. Oktober 2008 Überblick Wiederholung 3 Akustik 3 Artikulation Studie zu Veränderung der Artikulation bei Lärm 4 Sprachwahrnehmung Kategoriale Sprachwahrnehmung beim Menschen
MehrSchnelle Fouriertransformation (FFT)
Schnelle Fouriertransformation (FFT) Inhaltsverzeichnis 1 Schnelle Fouriertransformation (FFT)... 3 1.1 Das Realtime-Konzept der Goldammer-Messkarten... 3 1.2 Das Abtasttheorem oder Regeln für die Abtastung
MehrSystemtheorie. Vorlesung 25: Butterworth-Filter. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann
Systemtheorie Vorlesung 5: Butterworth-Filter Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Übersicht Für den Filterentwurf stehen unterschiedliche Verfahren zur Verfügung Filter mit
MehrSiSy1, Praktische Übung 3. Fourier-Analyse (periodischer Signale) kann als Fourier-Reihe 1 beschrieben werden:
/5 Fourier-Analyse (periodischer Signale) Grundlagen Ein periodisches, kontinuierliches Signal x(t) der Periodendauer kann als Fourier-Reihe beschrieben werden: wie folgt ( ) = c k x t + e j k 2πf t k=
Mehrund mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei t=0 mit dem Zeitindex n=0.
Aufgabe 1 Das periodische Signal x t) 0,5 sin(2 f t) 0,5 cos(2 f t) mit f 1000Hz und mit f 2000Hz ( 1 2 1 2 und mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei
MehrÜbungseinheit 3. FIR und IIR Filter
Übungseinheit 3 FIR und IIR Filter In dieser Übungseinheit sollen verschiedene Effekte mittels FIR (finite impulse response) und IIR (infinite impulse response) Filter implementiert werden. FIR Filter
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
MehrSpektrumanalyse. Inhalt. I. Einleitung 2. II. Hauptteil 2-8
Fachhochschule Aachen Campus Aachen Hochfrequenztechnik Hauptstudium Wintersemester 2007/2008 Dozent: Prof. Dr. Heuermann Spektrumanalyse Erstellt von: Name: Mario Schnetger Inhalt I. Einleitung 2 II.
MehrSystemtheorie. Vorlesung 6: Lösung linearer Differentialgleichungen. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann
Systemtheorie Vorlesung 6: Lösung linearer Differentialgleichungen Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Einführung Viele technischen Anwendungen lassen sich zumindest näherungsweise
MehrWas passiert beim Sprechen?
Was passiert beim Sprechen? supra-laryngales System (Vokaltrakt) Artikulation Kehlkopf (Larynx) sub-glottales System Stimmgebung (Phonation) Atmung (Respiration) Laute, die mit den Lippen gebildet werden:
MehrSeminar Sehen und Hören. Algorithmen zur Tonhöhenerkennung und Vergleich verschiedener Implementierungen
Seminar Sehen und Hören Algorithmen zur Tonhöhenerkennung und Vergleich verschiedener Implementierungen Jürgen Bock 2. Juni 2004 Zusammenfassung Algorithmen zur Tonhöhenerkennung werden in vielen Bereichen,
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
Mehr:. (engl.: first harmonic frequency)
5 Fourier-Reihen 5.1 Schwingungsüberlagerung 5.2 "Oberschwingungen" f 0 :. (engl.: fundamental frequency) :. (engl.: first harmonic frequency) Jede ganzzahlige (n) vielfache Frequenz von f 0 nennt man
MehrTeil 1 Gleichungen und Ungleichungen
Teil 1 Gleichungen und Ungleichungen Gleichungen Eine mathematische Gleichung ist eine logische Aussage über die Gleichheit von Termen. Das, was links vom Gleichheitszeichen (=) steht, hat den gleichen
MehrMathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12
Dipl.Inf. Malte Isberner Dr. Oliver Rüthing Dipl.Inf. Melanie Schmidt Dr. Hubert Wagner Übungen zur Vorlesung Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Die Lösungshinweise dienen
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrTechnische Beschreibung der akustischen Signalkette
Technische Beschreibung der akustischen Signalkette Wichtige Aufgabe: Vielfältige Medien Gestaltung akustischer Kommunikationsketten (Sprache, Geräusche, Musik, CD, Radio, mp3,...) Unterschiedlichste Information
Mehr1 0, x C X (A). = 1 χ A(x).
Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und
MehrPP Physikalisches Pendel
PP Physikalisches Pendel Blockpraktikum Frühjahr 2007 (Gruppe 2) 25. April 2007 Inhaltsverzeichnis 1 Einführung 2 2 Theoretische Grundlagen 2 2.1 Ungedämpftes physikalisches Pendel.......... 2 2.2 Dämpfung
MehrA2.1: Gleichrichtung. Die Grafik zeigt das periodische Signal x(t). Legt man x(t) an den Eingang einer Nichtlinearität mit der Kennlinie
Abschnitt: 2.1 Allgemeine Beschreibung A2.1: Gleichrichtung Die Grafik zeigt das periodische Signal x(t). Legt man x(t) an den Eingang einer Nichtlinearität mit der Kennlinie so erhält man am Ausgang das
MehrSpektrale Analysen in EMU-R: eine Einführung. Jonathan Harrington
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington 1. Ein digitales Sinusoid 2. Fourier-Analyse 3. Ein Spektrum 4. Frequenz- und Zeitauflösung 5. Berechnung von Spektra mit Emu 1. Ein digitales
Mehr6.1.2 Summe von drei Variablen Lösung eines linearen Gleichungssystemes mit zwei Unbekannten
6. Rechenbeispiele Die nachfolgenden einfachen Demonstrationsbeispiele aus dem Gebiet der Analog-Rechentechnik zeigen die Funktion dieses kleinen Analogrechners, der nur mit einer minimalen Anzahl von
MehrSitzung 5. Spektrogramm
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar: x-achse: Zeit (ms) - vgl. Dauer in der Perzeption y-achse: Frequenz (Hz) - vgl. Tonhöhe und Klangqualität in der Perzeption Schwärzungsgrad: Energie
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
MehrVersuch 5: Filterentwurf
Ziele In diesem Versuch lernen Sie den Entwurf digitaler Filter, ausgehend von der Festlegung eines Toleranzschemas für den Verlauf der spektralen Charakteristik des Filters, kennen. Es können Filtercharakteristiken
MehrAbschlussprüfung Digitale Signalverarbeitung. Aufgaben, die mit einem * gekennzeichnet sind, lassen sich unabhängig von anderen Teilaufgaben lösen.
Name: Abschlussprüfung Digitale Signalverarbeitung Studiengang: Elektrotechnik IK, E/ME Wahlfach SS2015 Prüfungstermin: Prüfer: Hilfsmittel: 3.7.2015 (90 Minuten) Prof. Dr.-Ing. Großmann, Prof. Dr.-Ing.
MehrAkustische Phonetik Teil 3. Uwe Reichel, Phil Hoole IPS, LMU München
Akustische Phonetik Teil 3 Uwe Reichel, Phil Hoole IPS, LMU München Inhalt! Vokalformanten: Weitere Anmerkungen! Nasale Konsonanten! Frikative Vokalformanten: Weitere Anmerkungen Ergebnisse typischer Formantmessungen
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Mehr4. Sitzung Akustik III
K3.1 Phonetik und Phonologie II 4. Sitzung Akustik III http://menzerath.phonetik.uni-frankfurt.de/teaching/k3_1.html Akustische Eigenschaften von Heliumsprache Audiobeispiele Heliumsprache Wolfe, Joe,
MehrDie akustische Analyse von Sprachlauten.
Die akustische Analyse von Sprachlauten. Die Interpretation von Spektrogrammen. Jonathan Harrington IPDS, Kiel. Vom Zeitsignal zum Spektrum s t a m 1. Ein Teil vom Sprachsignal aussuchen: die Zeitauflösung
MehrMusterlösung zur Aufgabe A1.1
Abschnitt: 1.1 Prinzip der Nachrichtenübertragung Musterlösung zur Aufgabe A1.1 a) Im markierten Bereich (20 Millisekunden) sind ca 10 Schwingungen zu erkennen. Daraus folgt für die Signalfrequenz näherungsweise
MehrPolynominterpolation. Allgemeines Problem: Beispiel 1 (Teil 1):
. Großübung Polynominterpolation Allgemeines Problem: Aufgrund gegebener Messwerte (Paare aus Werten i und Funktionswerten f( i )) soll ein Funktionsverlauf rekonstruiert bzw. zumeist angenähert werden.
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrLineare Gleichungssystem
Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen
MehrUniversität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen
Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale
MehrInhaltsverzeichnis. Daniel von Grünigen. Digitale Signalverarbeitung. mit einer Einführung in die kontinuierlichen Signale und Systeme
Inhaltsverzeichnis Daniel von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme ISBN (Buch): 978-3-446-44079-1 ISBN (E-Book): 978-3-446-43991-7 Weitere
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
MehrLösungsblatt 2 Signalverarbeitung und Klassifikation
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 06 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt Signalverarbeitung und Klassifikation Aufgabe : Faltung
MehrTheorie digitaler Systeme
Theorie digitaler Systeme Vorlesung 15: Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Einführung Entwurfsmethoden für IIR-Filtern sind für Zeitbereich und Bildbereich bekannt Finite-Impulse-Response
MehrModul SiSy: Einleitung
Modul SiSy: Einleitung SiSy, Einleitung, 1 Grobe Signaleinteilung Signale können Information tragen Hilfreich ist die Unterscheidung nach der Informationsquelle: Nachrichtensignal, Mess-/Sensorsignal,
MehrProgramme (hier können Sie selber üben) Einführung in die Linguistik (Ling 101) WS 2009/10. Wiederholung. Thema heute: Sprachsignale
Fachbereich Sprachwissenschaft Einführung in die Linguistik (Ling 101) WS 2009/10 Programme (hier können Sie selber üben) Für die Demo in der heutigen Vorlesung wird Praat benutzt Link: http://www.fon.hum.uva.nl/praat/
MehrLeWis» ph-wert Berechnungen «Kapitel 5
Additum 5. Wässrige Lösungen mehrprotoniger Säuren und Basen Ziel dieses Kapitels ist es, eine weitere Anwendungsmöglichkeit des bisher erlernten Vorgehenskonzepts vorzustellen. Die Berechnung von ph-werten
MehrGanzrationale Funktionen
Eine Dokumentation von Sandro Antoniol Klasse 3f Mai 2003 Inhaltsverzeichnis: 1. Einleitung...3 2. Grundlagen...4 2.1. Symmetrieeigenschaften von Kurven...4 2.1.1. gerade Exponenten...4 2.1.2. ungerade
MehrLesen von Sonagrammen I: Grundlagen. Uwe Reichel IPS, LMU München 16. November 2007
Lesen von Sonagrammen I: Grundlagen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. November 2007 Inhalt Das Sonagramm: Allgemeines Gewinnung des Sonagramms Zeitsignal Spektrum Spektrogramm
MehrMethode der kleinsten Quadrate
1. Phase: Methode der kleinsten Quadrate Einführung Im Vortrag über das CT-Verfahren hat Herr Köckler schon auf die Methode der kleinsten Quadrate hingewiesen. Diese Lösungsmethode, welche bei überbestimmten
MehrAls Summendarstellung der komplexen Zahl bezeichnen wir den bekannten Ausdruck
A.1 MATHEMATISCHE GRUNDLAGEN In diesem Abschnitt werden die mathematischen Grundlagen zusammengestellt, die für die Behandlung von Übertragungssystemen erforderlich sind. Unter anderem sind dies die komplexen
MehrAkustische basierte Kommunikation
Akustische basierte Kommunikation Voraussetzungen für akustische basierte sprachliche Kommunikation: Schallerzeugung Schallwahrnehmung Schallleitendes Medium Akustische Basiseigenschaften von Sprachlauten:
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrInterpolation und Approximation von Funktionen
Kapitel 6 Interpolation und Approximation von Funktionen Bei ökonomischen Anwendungen tritt oft das Problem auf, dass eine analytisch nicht verwendbare (oder auch unbekannte) Funktion f durch eine numerisch
MehrLineare Gleichungssysteme
Technische Universität München Christoph Niehoff Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 009/00 Die beiden Hauptthemen von diesem Teil des Ferienkurses sind Lineare Gleichungssysteme
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil
MehrAufgabe 1. Signal Processing and Speech Communication Lab. Graz University of Technology
Signal Processing and Speech Communication Lab. Graz University of Technology Aufgabe 1 Senden Sie die Hausübung bis spätestens 22.4.2015 per Email an hw1.spsc@tugraz.at. Verwenden Sie MatrikelNummer1
MehrTest = 28 Punkte. 1: 2: 3: 4: 5: Punkte: Note:
ZHAW, DSV1, FS2010, Rumc, 1 Test 1 5 + 5 + 5 + 8 + 5 = 28 Punkte Name: Vorname: 1: 2: : 4: 5: Punkte: Note: Aufgabe 1: AD-DA-System. + 1 + 1 = 5 Punkte Das analoge Signal x a (t) = cos(2πf 0 t), f 0 =750
Mehrbonn.de bonn.de
wgh@ikp.uni bonn.de http://www.ikp.uni bonn.de 023 Vorlesungsskripten deutsch bilingual deutsch/englisch Allgemein zur Sprachsignalverarbeitung Speziell zu Kapitel 1 gsv_1.1 t 250 ms/zeile gsv_1.2 t
Mehr3. Analyse der Kamerabewegung Video - Inhaltsanalyse
3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen
Mehr3. Approximation von Funktionen und Extremwertprobleme im R n
3. Approximation von Funktionen und Extremwertprobleme im R n Wie in D ist es wichtig Funktionen mit mehreren Variablen durch Polynome lokal approximieren zu können. Polynome lassen sich im Gegensatz zu
MehrVorkurs Mathematik. Ein Übungsbuch für Fachhochschulen. Bearbeitet von Michael Knorrenschild
Vorkurs Mathematik Ein Übungsbuch für Fachhochschulen Bearbeitet von Michael Knorrenschild 1. Auflage 2004. Buch. 176 S. Hardcover ISBN 978 3 446 22818 4 Format (B x L): 14,6 x 21,2 cm Gewicht: 259 g Weitere
MehrLineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition
MehrSprachverarbeitung I
Institut für Technische Informatik und Kommunikationsnetze Eidgenössische Technische Hochschule Zürich Swiss Federal Institute of Technology Zurich Ecole polytechnique fédérale de Zurich Politecnico federale
Mehr1. Klausur in K2 am
Name: Punkte: Note: Ø: Kernfach Physik Abzüge für Darstellung: Rundung:. Klausur in K am 0.0. Achte auf die Darstellung und vergiss nicht Geg., Ges., Formeln, Einheiten, Rundung...! Angaben: Schallgeschwindigkeit
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2018 Steven Köhler Wintersemester 2018/19 Inhaltsverzeichnis Teil 1 Teil
Mehr2. Schallentstehung. Erstellt: 03/2005 Hannes Raffaseder / FH St. Pölten / Telekommunikation und Medien 1/25
2. Schallentstehung Erstellt: 03/2005 Hannes Raffaseder / FH St. Pölten / Telekommunikation und Medien 1/25 1 Schallentstehung Schallquellen können im Allgemeinen in bis zu drei Teilkomponenten zerlegt
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.
MehrBasiswissen Matrizen
Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)
Mehr4. Großübung. Lösung linearer Gleichungssysteme
4. Großübung Lösung linearer Gleichungssysteme Gesucht x, x, x 3, x 4 R, sodass gilt. mit A R 4 4, x R 4, b R 4 x x + 3x 3 + x 4 = 5 6x 3x 7x x 4 = 5 4x + 4x + 5x 3 5x 4 = 3 8x + x + x 3 + x 4 = 8 3 x
MehrKlausur zur Vorlesung Digitale Signalverarbeitung
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 3067 Hannover Klausur zur Vorlesung Digitale Signalverarbeitung Datum:.08.006 Uhrzeit: 09:00 Uhr Zeitdauer: Stunden Hilfsmittel:
MehrNumerisches Programmieren, Übungen
Technische Universität München SoSe 8 Institut für Informatik Prof. Dr. Thomas Huckle Michael Rippl Fabio Gratl Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt: Gaußelimination mit Pivotsuche,
Mehr10.6. Implizite ebene Kurven und Tangenten
0.6. Implizite ebene Kurven und Tangenten Im Gegensatz zu expliziten Darstellungen sind weder implizite noch Parameterdarstellungen einer Kurve eindeutig. Der Übergang von impliziten zu expliziten Darstellungen
MehrSystemanalyse und Modellbildung
Systemanalyse und Modellbildung Universität Koblenz-Landau Fachbereich 7: Natur- und Umweltwissenschaften Institut für Umweltwissenschaften Dr. Horst Niemes(Lehrbeauftragter) Systemanalyse 1 Teil 1 1.
MehrDigitale Signalverarbeitung
Daniel Ch. von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme 4. Auflage Mit 222 Bildern, 91 Beispielen, 80 Aufgaben sowie einer CD-ROM mit Lösungen
Mehr4. Transiente Analyse
4. Transiente Analyse Bei der transienten Analyse wird der zeitliche Verlauf der Antwort auf eine zeitlich veränderliche Last bestimmt. Die zu lösende Bewegungsgleichung lautet: [ M ] [ü ]+[ D ] [ u ]+
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de c 018 Steven Köhler Wintersemester 018/19 Inhaltsverzeichnis Teil 1 Teil Teil
MehrDie schnelle Fouriertransformation
Die schnelle Fouriertransformation Die stetige Fouriertransformation ˆf : Z C eines Signals f : [0, π] C ist gegeben durch ˆf(k) = π 0 f(t)e kt dt Die folgende Umkehrformel drückt dann f als Fourierreihe
MehrAufgaben zur Funktionsdiskussion: Grundkurs Nr. 2 a 2 +b 2 =c 2 Materialbörse Mathematik
Zeichenerklärung: [ ] - Drücken Sie die entsprechende Taste des Graphikrechners! [ ] S - Drücken Sie erst die Taste [SHIFT] und dann die entsprechende Taste! [ ] A - Drücken Sie erst die Taste [ALPHA]
Mehr