Vorlesung SS 2012 Methoden der Biosignalverarbeitung Filterdesign Dipl. Math. Michael Wand Prof. Dr. Tanja Schultz 1 / 103
Unser Vorlesungsplan Thema dieser Vorlesung: Theorie der digitalen Filterung, Design von Filtern Filter verstärken oder unterdrücken gewisse Frequenzen des Signals. Anwendungsbereiche: z.b. Artefaktbereinigung (50 Hz-Brummen), Merkmalsextraktion (EEG, Sprache) 2 / 103
Übersicht der Vorlesung Beispiel: Artefakte Grundlagen der Frequenzanalyse (Fourier-Transformation, z-transformation) Nyquist-Theorem (hierzu machen wir einen anschaulichen Beweis) Definition und Herleitung der digitalen Filterung Methoden des Filterdesigns 3 / 103
Literatur Die Vorlesung basiert im wesentlichen auf: Kammeyer/Kroschel: Digitale Signalverarbeitung. 7. Auflage, Vieweg + Teubner, 2009 Ein Klassiker bei den Elektrotechnikern. Mit Nummern gekennzeichnete Abbildungen in dieser Vorlesung sind aus diesem Buch, wenn nichts anderes erwähnt ist. Nahin: Dr. Euler s Fabulous Formula: Cures Many Mathematical Ills. Princeton University Press, 2006 Sehr schöne Einführung in die Fourier-Transformation, auch für Nichtmathematiker! Einige Hinweise und entsprechend gekennzeichnete Grafiken sind dem Skript zur Vorlesung Sprachliche Mensch-Maschine-Kommunikation (SMMK) von Prof. Ivica Rogina entnommen. 4 / 103
Inhalt der Vorlesung Artefakte Fourier-Transformation, z-transformation Filterung Entwurfsmuster und Typen rekursiver Filter Entwurfsmuster und Typen nichtrekursiver Filter 5 / 103
Artefakte Die Erfassung von Biosignalen ist häufig von Störungen (= Artefakten) überlagert Ursachen sind Messtechnik, Methode, Proband, auch Speichertechnik (z.b. in der Bildverarbeitung: JPEG-Format, verlustbehaftete Kompression) Je nach Entstehungsort unterscheidet man biologische und technische Artefakte: Biologische Artefakte: durch Probanden selbst generiert Technische Artefakte: durch Geräte erzeugt oder von außen eingekoppelt 6 / 103
Beispiele für Artefakte Biologische Artefakte: Augenbewegungen Muskelverspannungen EKG Pulswellen Schwitzen Bewegungen Technische Artefakte: Fehler in der Ableit-und Registriertechnik Kontaktstellen mit Elektroden (Buchse-Stecker, Stecker-Kabel, Kabel-Elektrode, Elektrode-Haut) Kabeldefekte Kabelbewegung fehlende Erdung elektrostatische, magnetische oder hochfrequente elektromagnetische Wechselfelder hochohmige Leitungswege 7 / 103
Artefakte Beispiel EEG Einige Beispiele für Artefakteinstreuungen im EEG-Signal. Einige der Artefakte haben einen völlig anderen Frequenzbereich als das eigentliche EEG-Signal (Schwitzen, Muskelartefakte). Die Herausrechnung solcher Artefakte kann mithilfe einer (digitalen oder analogen) Filterung erfolgen. 8 / 103
Artefakte Beispiel Power Line Noise Ein typisches Artefakt bei der Erfassung von elektrischen Biosignalen: Einstreuung elektrischer Felder aus der Umgebung (power line noise). Im Signal (Beispiel: EEG) erkennt man eine Oszillation mit 50 bzw. 60 Hz (je nach Region), die das Signal sehr stark überlagert. 9 / 103
Artefakte Beispiel Power Line Noise Am besten erkennt man das Artefakt im Frequenzspektrum: deutlicher Ausschlag bei 50 Hertz und seinen harmonischen Oberschwingungen. So eine Schwingung kann man durch eine Filterung sehr gut entfernen. Damit verlieren wir aber auch die Information, die möglicherweise im Signal im Frequenzbereich von 50 Hertz vorliegt! 10 / 103
Merkmalsextraktion mit Filtern Filterung spielt auch bei der Merkmalsextraktion eine Rolle, z.b. Beim EEG-Signal kann man einen gewissen Frequenzbereich betrachten und dann seine Eigenschaften bestimmen (z.b. Alpha-Aktivität etc.) In der Sprachverarbeitung basieren alle Standardvorverarbeitungsmethoden auf Frequenztransformationen. Damit wird u.a. die Funktionalität des menschlichen Ohrs nachgebildet. Weitere Anwendungen: Atemaktivität, Puls/Herzfrequenz, etc. 11 / 103
Inhalt der Vorlesung Artefakte Fourier-Transformation, z-transformation Filterung Entwurfsmuster und Typen rekursiver Filter Entwurfsmuster und Typen nichtrekursiver Filter 12 / 103
Kontinuierliche Fourier-Transformation Für eine kontinuierliche Funktion der Zeit x(t) definieren wir die (kontinuierliche) Fourier-Transformation F durch: mit j = 1. X (e jω ) = F(x(t)) = 13 / 103 x(t)e jωt dt. f (t) = e jωt = cos(ωt) + j sin(ωt) ist die komplexe Schwingung: für φ [0, 2π] bewegt sich der Punkt re iφ auf dem Kreis mit Radius r. Daher ist X (e jω ) interpretierbar als ein Wert, der angibt, welchen Anteil die Frequenz ω am Eingabesignal hat.
Umkehrung der Fourier-Transformation Die Umkehrung der Fourier-Transformation ist gegeben durch x(t) = F 1 (X (e jω )) = 1 2π 14 / 103 X (e jω )e jωt dω. Wir schreiben ein Fourier-Transformationspaar auch so: x(t) X (e jω )
Eigenschaften der Fourier-Transformation Die wichtigsten Eigenschaften der Fourier-Transformation: Linearität: Es ist F((x + y)(t)) = F(x(t)) + F(y(t)) und F(ax(t)) = af(x(t)). Umkehrbarkeit: Auf geeigneten Definitionsbereichen hat die Fourier-Transformation ein Inverses (siehe letzte Folie) bei der Fourier-Transformation geht keinerlei Information verloren. Komplexheit: Die Fourier-Transformierte einer Funktion ist (i.a.) komplex: Der Betrag X (e jω ) ist die Amplitude, das Argument (X (e jω )) ist die Phase. Die Fourier-Transformierte einer Funktion bzw. eines Signals heißt auch das (Frequenz-)Spektrum des Signals. 15 / 103
Beispiel zur Fourier-Transformation Ein (informelles) Beispiel für die Fourier-Transformation. Oben und in der Mitte links sind zwei reine Schwingungen. Diese entsprechen im Fourier-Bereich je zwei Peaks bei den zugehörigen Frequenzen ω und ω. Die Peaks sind eigentlich (Dirac-)impulse (kommt nachher). Summiert man die Frequenzen auf, müssen auch die Fourier-Transformierten aufsummiert werden: Dies ist die Linearität der Fourier-Transformation. 16 / 103
Beispiel zur Fourier-Transformation Links ein echtes Audiosignal (links), rechts sein Frequenzspektrum. Das Audiosignal ist mit 8 khz abgetastet das Spektrum erscheint mit einer Grenzfrequenz von 4 khz. Quelle: Wikipedia, Frequency spectrum (Die vertikale Achse im Frequenzspektrum ist logarithmisch eingeteilt.) 17 / 103
Die diskrete Fourier-Transformation Die Fourier-Transformation kann man auch auf diskrete Signale übertragen. Die diskrete Fourier-Transformation (DTFT) einer Folge x[k]: X (e jω ) = F(x[k]) = 18 / 103 k= x[k]e jωk Die DTFT ist periodisch mit Periode 2π! Also betrachten wir bei der Rücktransformation auch nur ein Intervall dieser Länge: x[k] = 1 2π π π X (e jω )e jωk dω. Achtung: Die DTFT transformiert ein diskretes Signal in eine kontinuierliche Funktion!
Die diskrete Fourier-Transformation Die wichtigsten Eigenschaften der DTFT: Die Linearität der kontinuierlichen Transformation bleibt erhalten. Auch die DTFT ist komplex. Die DTFT ist periodisch mit Periode ω = 2π. (Folgt direkt aus der Gleichung.) Wenn x[k] durch Abtastung eines kontinuierlichen Signals s(t) entstanden ist, dann approximiert die DTFT von x[k] die Fourier-Transformation von s(t). 19 / 103
Der Dirac-Impuls Wir haben die kontinuierliche und diskrete Fourier-Transformation definiert und einige grundlegende Eigenschaften kennengelernt. Bisher noch übersprucngen: die Definition eines Dirac-Impulses! Betrachten wir die komplexe Schwingung f (t) = e jω 0t = cos(ω 0 t) + j sin(ω 0 t) mit fest gewähltem ω 0. Wie lautet Ihre Fourier-Transformierte? 20 / 103
Der Dirac-Impuls Wir machen den Ansatz F (ω) = F(f (t)) = = unlösbares Problem: e jω 0t e jωt dt = Für ω = ω 0 ist das Integral unendlich 21 / 103 f (t)e jωt dt e j(ω 0 ω)t dt. Für alle andere Werte von ω konvergieren Realteil und Imaginarteil des Integranden nicht.
Der Dirac-Impuls Lösung: Einführung des Dirac-Impulses: δ(ω) soll eine Funktion auf ω R sein mit der Eigenschaft δ(ω) = 0 ω 0 δ(ω)dω = 1. Also: Der Dirac-Impuls ist fast überall Null, im Nullpunkt aber unendlich hoch, und zwar so unendlich, dass die Gesamtfläche unter ihm gleich 1 ist. Ebenso ist natürlich α δ(ω)dω = α, α R usw. Der Pfeil an der Spitze deutet an, dass der Dirac-Impuls keine normale Funktion ist. 22 / 103
Umgang mit Dirac-Impulsen Der Dirac-Impuls ist also ein unendlich schmales, unendlich hohes Rechteck mit der Fläche 1. Man kann diese Definition streng mathematisch begründen (Laurent Schwartz, Distributionentheorie). Übrigens werden wir Dirac-Impulse sowohl im Zeit- als auch im Frequenzbereich betrachten. Aus der Charakterisierung des Dirac-Impulses folgt die maßtheoretische Sampling-Eigenschaft f (x)δ(x) = f (0) für alle (vernünftigen) Funktionen f. Diese Eigenschaft wird in der Regel alles sein, was wir benötigen. 23 / 103
Der Dirac-Impuls Die Fourier-Transformation der komplexen Schwingung ist nun möglich: Es gilt für f (t) = e jω 0t F (ω) = F(f (t)) = 2πδ(ω ω 0 ). (Zum Beweis betrachte die Rücktransformation.) 24 / 103
Faltung im Zeitbereich Die Faltung zweier Funktionen x(t) und h(t) (im Zeitbereich) ist folgendermaßen definiert: y = x h mit y(t) = bzw. im diskreten Fall y = x h mit y[n] = k= Die Faltung ist eine kommutative Operation! 25 / 103 x(τ)h(t τ)dτ. x[k]h[n k].
Faltung im Zeitbereich Wir können alle drei Funktionen aus der Gleichung y = x h mit y(t) = 26 / 103 x(τ)h(t τ)dτ. ( ) in den Frequenzbereich transformieren (geht im diskreten Fall genauso): y(t) Y (ω), x(t) X (e jω ), h(t) H(ω) Dann nimmt die Gleichung die folgende Form an: Y (e jω ) = X (e jω ) H(e jω ) Aus der Faltung wird also im Frequenzbereich eine Multiplikation! (Warum?) Was bewirkt die Faltung mit einem Dirac-Impuls?
Zusammenhang zwischen kont. und diskr. Spektrum Die Approximationseigenschaft der diskreten Fourier-Transformation liefert uns auch eine Erklärung des Nyquist-Theorems (Abtasttheorem). Sei s K (t) ein kontinuierliches Signal, das mit der Abtastfrequenz f A = 1/T abgetastet wurde. Das resultierende diskrete Signal nennen wir s[n]. Die Fourier-Transformierte von s soll X K sein, die DTFT von s[n] heiße X. ( K = kontinuierlich) Von X wissen wir, dass es periodisch ist mit Periode 2π. Andererseits lässt sich zeigen, dass X K innerhalb einer Periode durch X approximiert wird. 27 / 103
Zusammenhang zwischen kont. und diskr. Spektrum Die direkte Herleitung des Zusammenhangs zwischen kontinuierlichem und diskretem Spektrum ist etwas umständlich (für Details siehe Kammeyer/Kroschel, Abschnitt 2.4.1). Wir betrachten stattdessen eine anschauliche Herleitung, die auf der Fourier-Transformierten von Impulsfolgen beruht und insbesondere auch geeignet ist, das Nyquist-Theorem anschaulich zu beweisen. 28 / 103
Fouriertransformierte eines Impulses Frage: Was ist eigentlich die Fourier-Transformierte eines einzelnen Dirac-Impulses? Ist der Dirac-Impuls an der Stelle t = 0, so folgt F(δ)(ω) = δ(t)e jωt dt = e jω 0 = 1 29 / 103 Quelle: Rogina, Vorlesung SMMK für alle ω (siehe Bild). Was ergibt sich, wenn der Impuls nicht an der Stelle t = 0 ist?
Herleitung des Nyquist-Theorems Neue Frage: Was ist eigentlich die Fourier-Transformierte einer Impulsfolge? Mit ähnlichen Argumenten wie oben zeigt sich: Die (kontinuierliche) Fourier-Transformierte einer Impulsfolge ist selber wieder eine Impulsfolge. Die Frequenz ändert sich aber: Je höher die Frequenz der ursprünglichen Impulsfolge, desto niedriger die Frequenz der Transformierten, und umgekehrt! Die Frequenzen verhalten sich antiproportional zueinander. 30 / 103
Herleitung des Nyquist-Theorems Warum ist das interessant? DAbtasten eines kontinuierlichen Signals Multiplikation des Signals mit einer Impulsfolge im Zeitbereich! Im Frequenzbereich: Faltung mit einer Impulsfolge, deren Periode umgekehrt proportional zur Periode der Folge im Zeitbereich ist. Was passiert, wenn man eine Funktion mit einem Impuls faltet? Und mit mehreren? 31 / 103
Faltung einer Funktion mit einer Impulsfolge Die Faltung einer Funktion mit einem Impuls lässt die Funktion unverändert. Die Faltung einer Funktion mit einer Impulsfolge erzeugt identische Kopien der Funktion, wenn die Impulse weit genug auseinander liegen. Quelle: abgeändert von Rogina, Vorlesungsskript SMMK 32 / 103
Herleitung des Nyquist-Theorems Damit können wir das Nyquist-Theorem anschaulich erklären. Die Multiplikation im Zeitbereich wird im Frequenzbereich zu einer Faltung mit einer Impulsfolge. Darum wiederholt sich das diskrete Spektrum. Quelle: Rogina, Vorlesungsskript SMMK 33 / 103
Herleitung des Nyquist-Theorems Wenn die Abtastpunkte im Zeitbereich nah genug beisammen sind, sind die periodischen Wiederholungen des Spektrums weit auseinander alles in Ordnung (vorletzte Zeile). Was erkennt man in der letzten Zeile? Quelle: Rogina, Vorlesungsskript SMMK 34 / 103
Aliasing Wenn die Abtastpunkte im Zeitbereich nah genug beisammen sind, ist alles in Ordnung. Wenn sie das nicht sind, tritt Aliasing ein: Die Spektra nach dem Abtasten überlagern sich, und das ursprüngliche kontinuierliche Spektrum wird zerstört. Quelle: Rogina, Vorlesungsskript SMMK 35 / 103
Aliasing Auf der Grafik sieht man korrektes Abtasten (oben) und Aliasing (unten). 36 / 103
Das Nyquist-Theorem Wie häufig muss man abtasten? Nyquist-Theorem Wenn ein bandbegrenztes Signal mit der maximalen Frequenz ω max mit einer Abtastrate f A > 2 ω max abgetastet wird, kann das originale Spektrum aus der diskreten Abtastung vollständig rekonstruiert werden. Wenn die Nyquist-Bedingung erfüllt ist, kann somit auch das originale Signal rekonstruiert werden. Das heißt, durch ein Sampling mit einer Abtastrate f A > 2 ω max werden alle Informationen, die im kontinuierlichen Signal enthalten sind, durch die diskrete Folge der Abtastpunkte repräsentiert. Die wichtige Vorbedingung, dass das Signal überhaupt bandbegrenzt sein muss, darf aber nicht vergessen werden! 37 / 103
Zusammenhang zwischen kont. und diskr. Spektrum Wenn die Bedingung des Nyquist-Theorems erfüllt ist, gilt (nach Kammeyer/Kroschel, Abschnitt 2.4.1): Das Spektrum eines diskreten Signals ist die Überlagerung gegeneinander versetzter und normierter Spektren des zugehörigen kontinuierlichen Signals. Das dreiecksförmige kontinuierliche Spektrum wiederholt sich im diskreten Fall unendlich oft. Die Höhe der Dreiecke ist jetzt 1/T. Die Nyquist-Frequenz ±ω max = ±f A /2 des kontinuierlichen Signals wird im diskreten Fall auf die Frequenz ±π/t abgebildet. 38 / 103
Anti Aliasing Was muss man tun, um Aliasing zu vermeiden? Signal vor dem Abtasten filtern. Der Filter soll möglichst nur tiefe Frequenzen passieren lassen low-pass filter. Ein einfacher Low-Pass-Analogfilter: Der Kondensator verhält sich wie ein frequenzabhängiger Widerstand, je höhere Frequenzen ankommen, desto geringer ist der Spannungsabfall v out am Kondensator. 39 / 103 Wikipedia, Low pass filter
Faltung im Zeitbereich Ähnlich wie im kontinuierlichen Fall ist die Faltung zweier Folgen x[k] und h[k] definiert: y = x h mit y[k] = 40 / 103 i= x[i] h[k i]. ( ) Wir können alle drei Folgen in den Frequenzbereich transformieren: y(t) Y (e jω ), y(t) Y (e jω ), h(k) H(e jω ) Dann nimmt die Gleichung die folgende Form an: Y (e jω ) = X (e jω ) H(e jω )
z-transformation Die z-transformation ist eine Generalisierung der diskreten (!) Fourier-Transformation. Wir können sie insbesondere dazu verwenden, die Wirkungsweise von Filtern genau zu beschreiben. Die DTFT transformiert ein Signal x[k] zu X (e jω ) = F(x[k]) = Die z-transformation von x[k] lautet X (z) = Z(x[k]) = Dabei ist z eine komplexe Zahl und z n = r n e jφn = r n (cos(φn) + j sin(φn)). 41 / 103 k= k= x[k]e jωk x[k]z k.
Zusammenhang zwischen DTFT und z-transformation Bei der z-transformation betrachten wir die ganze komplexe Zahlenebene, bei der DTFT nur den Einheitskreis. Die DTFT ist einfach die z-transformation aus den Einheitskreis eingeschränkt! Hier ist ein Beispiel dafür: 42 / 103
Zusammenfassung Wir haben in diesem Abschnitt folgendes durchgenommen: Was sind Artefakte? Einige Beispiele. Kontinuierliche und diskrete Fourier-Transformation, Zusammenhang. Frequenzdarstellung eines Signals. z-transformation als Generalisierung der Fourier-Transformation. 43 / 103
Inhalt der Vorlesung Artefakte Fourier-Transformation, z-transformation Filterung Entwurfsmuster und Typen rekursiver Filter Entwurfsmuster und Typen nichtrekursiver Filter 44 / 103
Filterung Ein Filter transformiert ein Eingabesignal in ein Ausgabesignal. Filter treten in der Natur an vielen Stellen auf! Akustisches Filter (z.b. Auspuff eines Autos, Konzertsaal, menschlicher Vokaltrakt) Analoges (elektrisches) Filter (Kombination von Widerständen, Kondensatoren und Spulen) Digitales Filter (eine Koeffizientenfolge) Filtereigenschaften von Objekten (z.b. wirkt bei der Messung von elektrischen Biosignalen die Haut als Tiefpassfilter). 45 / 103
Warum filtern wir? 1. Filter wirken auf die Frequenzen eines Eingabesignals Wichtige Signalverarbeitungsschritte (Modulation, Rauschunterdrückung,...) können durch Filter modelliert weren 2. In der Natur auftretende Filter können durch digitale Filter nachgebildet und beschrieben werden. 3. Die menschlichen Sinne arbeiten oft frequenzabhängig. Augen: elektromagnetische Wellen verschiedener Frequenz unterschiedliche Farben Ohren: Schall wird in seine Frequenzen zerlegt 4. Filterung ist eine sehr fundamentale Operation! 46 / 103
Eigenschaften eines linearen zeitinvarianten Filters Sei H ein Filter, das ein Eingabesignal x[n] in ein Ausgabesignal y[n] transformiert. Annahmen über die Eigenschaften dieser Filterung : Linearität: y[ ] soll linear von x[ ] abhängen. Zeitinvarianz: Die Eigenschaften von H ändern sich nicht mit der Zeit. Außerdem soll vorerst gelten: Kausalität: Die Ausgabe des Filters hängt nur von der Vergangenheit ab. Ein endliches Eingabesignal erzeugt ein endliches Ausgabesignal. 47 / 103
Eigenschaften eines linearen zeitinvarianten Filters Wir haben ein lineares zeitinvariantes Filter (LTI-Filter) definiert. Wir regen den Filter nun mit einem Dirac-Impuls an, der im diskreten Fall eine ganz gewöhnliche Folge ist: { 1 wenn n = 0 δ[n] = 0 sonst Dies liefert uns ein (endliches) Ausgabesignal h[n], die Impulsantwort des Filters. Was passiert, wenn wir ein komplexeres Signal als Eingabe des Filters verwenden? 48 / 103
Eigenschaften eines linearen zeitinvarianten Filters Eingabe x[n]: ein beliebiges Signal. x[n] ist eigentlich eine gewichtete Summe von verschobenen Impulsen: x[n] = ν x[ν] δ[n ν]. H ist linear und zeitinvariant die Ausgabe y ist schon durch die Impulsantwort h festgelegt! Es gilt y[n] = ν= x[ν] h[n ν] (wobei die Summe endlich ist, falls h endlich ist wie vorausgesetzt). Dies ist eine diskrete Faltung: y = x h. 49 / 103
Filterung im Frequenzbereich Wenn wir die Gleichung y = x h in den Frequenzbereich transformieren, wird aus der Faltung eine Multiplikation: oder im z-bereich y = x h Y (e jω ) = X (e jω ) H(e jω ) y = x h Y (z) = X (z) H(z). Daher sind LTI-Filter Multiplikationen im Frequenzbereich! Die Linearitätseigenschaft der Filterung bleibt auch im Frequenzbereich erhalten. 50 / 103
Filterung: Schwingungen als Eigenfunktionen Jeder reine Schwingungsanteil e jωt wird mit einem Faktor (nämlich H(e jω )) multipliziert reine Schwingungen sind Eigenfunktionen der Filteroperation! Wenn H(e jω ) komplex ist, verschiebt sich die Phase der Schwingung e jωt : e jωt H H(e jω ) e jωt+ H(ejω ) 51 / 103
Filterung: Definitionen H( ) heißt Übertragungsfunktion H(e jω ) heißt Frequenzgang - das ist die Einschränkung der Übertragungsfunktion auf reine Schwingungen als Eingabe. Für eine komplexe Zahl c = (r, i) ist der Betrag ihre Länge c = r 2 + i 2 und ihr Argument der Winkel zur reellen Zahlengeraden c = arctan i/r. Der Betrag einer Schwingung heißt Amplitude, ihr Argument: Phase. Dementsprechend definieren wir den Amplitudengang H(e jω ) den Phasengang H(e jω ). 52 / 103
Mathematische Beschreibung der LTI-Filter Wir betrachten nur lineare, zeitinvariante (LTI linear time-invariant) Filter. Diese kann man so einteilen: Finite impulse response (FIR)-Filter oder nichtrekursive Filter: Wenn das Eingabesignal endlich ist, ist das Ausgabesignal ebenfalls endlich. Beispiel: y[n] = x[n] + 3x[n 1] + 0.8x[n 2] 0.4x[n 3] Infinite impulse response (IIR)-Filter oder rekursive Filter: Hier tritt Rekursion auf: Die Ausgabe des Filters wirkt auf die Eingabe zurück ein endliches Eingabesignal kann ein nicht endendes Ausgabesignal erzeugen. Beispiel: y[n] = x[n] 0.5x[n 1] + 0.2y[n 1] 53 / 103
Faltung und Differenzengleichung Die Filter auf der vorigen Folie sahen anders aus, als wir sie bisher hatten? Nein, wir haben sie bloß anders geschrieben! Der erste Beispielfilter ist tatsächlich eine einfache Faltung: y[n] = x[n]+3x[n 1]+0.8x[n 2] 0.4x[n 3] y = (1, 3, 0.8, 0.4) x }{{} h mit einer Koeffizientenfolge h = (1, 3, 0.8, 0.4). 54 / 103
Faltung und Differenzengleichung Entsprechend können rekursive Filter durch eine Differenzengleichung charakterisiert werden: y[n] = a 1 y[n 1] a 2 y[n 2]... a m y[n m] oder anders geschrieben + b 0 x[n] + b 1 x[n 1] +... + b l x[n l] y[n] + a 1 y[n 1] + a 2 y[n 2] +... + a m y[n m] oder noch anders geschrieben = b 0 x[n] + b 1 x[n 1] +... + b l x[n l] a y = b x. 55 / 103
Mathematische Beschreibung rekursiver Filter Transformation in den z-bereich: y[n] + a 1 y[n 1] + a 2 y[n 2] +... + a m y[n m] Es folgt für die linke Seite = b 0 x[n] + b 1 x[n 1] +... + b l x[n l] y[n]+a 1 y[n 1]+a 2 y[n 2]+...+a m y[n m] = (a y)[n] und für die rechte Seite 56 / 103 A(z) Y (z) b 0 x[n]+b 1 x[n 1]+...+b l x[n l] = (b x)[n] B(z) X (z) Weil die beiden Seiten gleich sein müssen, haben wir also A Y = B X oder Y = B X = H X mit H = B/A. A
Übertragunsfunktionen im z-bereich Ein rekursives Filter hat also genau wie ein nichtrekursives Filter eine Übertragungsfunktion H, so dass im z-bereich Y = H X gilt. Ein Beispiel für einen nichtrekursiven Filter: y[n] = x[n] 0.2x[n 1] + 3x[n 2] Die Koeffizientenfolge ist also h = (1, 0.2, 3). Transformation in den z-bereich ergibt H = 1 0.2z 1 + 3z 2, eine ganzrationale Funktion in z 1. 57 / 103
Übertragunsfunktionen im z-bereich Betrachten wir nun z.b. das rekursive Filter y[n] = y[n 1] + 0.5y[n 2] + x[n] + x[n 1] y[n] y[n 1] 0.5y[n 2] = x[n] + x[n 1]. Die Koeffizientenfolgen sind a = (1, 1, 0.5) und b = (1, 1). Transformation in den z-bereich ergibt sowie A = 1 z 1 0.5z 2 und B = 1 + z 1 H = B A = also eine gebrochen rationale Funktion. Welche Konsequenzen hat das? 1 + z 1 1 z 1 0.5z 2 58 / 103
Pole und Nullstellen Nullstellen von Zähler bzw. Nenner der Übertragungsfunktion sind Nullstellen bzw. Pole des Systems. Im Beispiel ist (nach Erweiterung mit z 2 ) H = B A = 1 + z 1 1 z 1 0.5z 2 = z 2 + z z 2 z 0.5. ( ) Die Nullstellen ergeben sich aus dem Zähler zu z 01 = 0 und z 02 = 1. Aus dem Nenner ergeben sich die Polstellen zu z 1,2 = 0.5(1 ± j). Dann ist H = B A = z(z + 1) (z 0.5(1 + j))(z 0.5(1 j)). 59 / 103
Das Pol-Nullstellen-Diagramm Das Pol-Nullstellen-Diagramm der Funktion H = B A = z(z + 1) (z 0.5(1 + j))(z 0.5(1 j)) : Die Pole sind durch Kreuze markiert, die Nullstellen durch kleine Nullen (Eselsbrücke). 60 / 103
Das Pol-Nullstellen-Diagramm Aus dem Diagramm bestimmen wir H(e jω ) : H = B A = z (z + 1) (z 0.5(1 + j)) (z 0.5(1 j)), der Amplitudengang H(e jω ) entspricht dem Produkt der Entfernungen von H(e jω ) zu den Nullstellen, dividiert durch das Produkt der Entfernungen von H(e jω ) zu den Polstellen. 61 / 103
Beispiel: Moving Average Filter Der Moving Average Filter: ein einfaches Filter mit Tiefpasscharakteristik benachbarte Samples werden (gewichtet) aufaddiert Originalsignal und gefilterte Version 62 / 103 Impulsantwort des Moving Average Filters
Beispiel: Moving Average Filter Dies ist das Pol-Nullstellendiagramm des Moving Average Filters. Die Nullstellen des Filters liegen auf dem Einheitskreis äquidistant verteilt, nur z = (1, 0) fehlt. z-transformierte der Impulsantwort: Aus h = 1 9 (1, 1, 1, 1, 1, 1, 1, 1, 1) folgt H(z) = 1 + z 1 + z 2 +... + z 8 = z8 + z 7 +... + 1 z 8. Im Ursprung ergibt sich ein achtfacher Pol typisch für FIR-Filter. Wer kann sagen, warum die Nullstellen so verteilt sind? 63 / 103
Beispiel: Moving Average Filter Aus ( z 8 H(z) ) = z 8 + z 7 +... + 1 = z9 1 z 1 folgt: die Nullstellen von H entsprechen genau den Einheitswurzeln, außer eben z = (1, 0) dies ist also die Beschreibung des Moving Average Filters. Die Grafik zeigt nun noch den Amplitudengang des Filters, der anhand des Pol-Nullstellendiagramms gut nachvollziehbar ist. Der Filter hat offensichtlich keine besonders guten Tiefpasseigenschaften, wir werden im nächsten Abschnitt bessere Entwürfe kennenlernen. 64 / 103
Filtertypen Filter können in der Technik eine Reihe von Aufgaben haben, und es existieren sehr viele unterschiedliche Typen von Filtern. In der Biosignalverarbeitung: Filter sollen gewisse Frequenzen (möglichst exakt) sperren bzw. unverändert durchlassen. Damit ergeben sich die vier Grundtypen 1. Tiefpassfilter: lassen tiefe Frequenzen passieren und unterdrücken hohe 2. Hochpassfilter: lassen hohe Frequenzen passieren und unterdrücken tiefe 3. Bandpassfilter: lässt Frequenzen aus einem gewissen Intervall passieren 4. Bandsperrfilter: unterdrückt ein gewisses Frequenzintervall (Beispiel: 50-Hertz- Kerbfilter zur Unterdrückung von Störungen durch Wechselstrom) Aber: Der ideale Amplitudengang ist nicht praktisch realisierbar, wir müssen ihn also approximieren. 65 / 103
Zusammenfassung Was haben wir über die Filterung erfahren? Wir haben die Definition von Filtern kennengelernt. Wir haben erfahren, wie man einen Filter im Zeit- bzw. Frequenzbereich beschreiben kann (für alle, die die Vorlesung Biosignale und Benutzerschnittstellen gehört haben, war das schon bekannt). Wir haben gelernt, wie man aus dem Pol-Nullstellendiagramm eines Filters seinen Amplitudengang ablesen kann. 66 / 103
Inhalt der Vorlesung Artefakte Fourier-Transformation, z-transformation Filterung Entwurfsmuster und Typen rekursiver Filter Entwurfsmuster und Typen nichtrekursiver Filter 67 / 103
Überblick Wir betrachten nun, wie man typischerweise rekursive Filter für eine gegebene Aufgabe entwerfen kann. Diese Entwürfe sind alle von Entwurfsmethoden für analoge Filter abgeleitet (darum sind sie für uns auch nicht sooo interessant). Zur Durchführung des Entwurfs gibt es viel Spezialliteratur, aber auch fertige Toolboxen (z.b. MATLAB). Wir besprechen hier nur die Grundideen. 68 / 103
Entwurf rekursiver Filter Wir beschränken uns auf den Entwurf eines Tiefpasses. Für die anderen Typen gibt es dann Transformationsmethoden. Vorgegeben ist ein Toleranzschema (siehe Bild). Je enger die Toleranzgrenzen sind, desto höher wird die Filterordnung (die Anzahl der Filterkoeffizienten). 69 / 103 angepasst von Kammeyer/Kroschel, Bild 4.2.5
Entwurf rekursiver Filter Die wichtigsten Entwurfsmuster im kontinuierlichen Bereich: Der Butterworth-Entwurf, der Tschebyscheff-Entwurf (der auf einer Approximation durch Tschebyscheff-Polynome beruht), und die Cauer-Filter. Auf Basis des gewählten Musters und des Toleranzschemas kann man nun die genauen Filterkoeffizienten ausrechnen. 70 / 103
Butterworth-Entwurf Amplitudengang und Pol-Nullstellendiagramm für einen Butterworth-Filter. Die Filterordnung ist 15, und bei z = ( 1, 0) liegt eine 15-fache Nullstelle. Der Toleranzbereich wird voll ausgenutzt. Der Amplitudengang hat einen sehr flachen Verlauf, dies wird durch eine hohe Filterordnung erreicht. 71 / 103
Tschebyscheff-Entwurf Amplitudengang und das Pol-Nullstellendiagramm für einen Tschebyscheff-Filter (ersten Typs). Die Filterordnung ist 6, und bei z = ( 1, 0) liegt eine 6-fache Nullstelle. Der Toleranzbereich wird voll ausgenutzt; charakteristisch sind die Ripples im Durchlassbereich. Alternativer Entwurf: Ripples stattdessen im Sperrbereich liegen. 72 / 103
Cauer-Entwurf Letzter Standardentwurf für rekursive Filter: den Cauer-Filter. Die Filterordnung ist minimal (bei dem gleichen Toleranzschema wie vorher brauchen wir nur noch vier Null-/Polstellen!), allerdings ist die Phasenverzerrung stärker als bei den vorherigen Filtern. 73 / 103
Vergleich der Filterentwürfe Welchem Filterentwurf würde man bei den rekursiven Filtern den Vorzug geben? Das hängt von der konkreten Anwendung ab! Der Cauer-Filter hat die kleinste Filterordnung, dafür aber eine recht starke Phasenverzerrung. Der Butterworth-Filter hat den flachsten Verlauf des Amplitudengangs (man sieht auch, dass er das Toleranzschema eigentlich übererfüllt), aber auch die höchste Filterordnung. Das Problem der Phasenverzerrung tritt bei allen rekursiven Filtern und allen Analogfiltern auf. Digitale Filter können hingegen völlig ohne Phasenverzerrung entworfen werden. 74 / 103
Bemerkungen Wir haben jetzt betrachtet, wie man einen Tiefpassfilter mit gewünschten Charakteristiken entwirft. Die Transformationsalgorithmen, um Hochpass-, Bandpass- oder Bandsperrfilter zu erhalten, nehmen wir nicht im Detail durch. Diese Filterentwürfe entstammen eigentlich der Analogfiltertechnik. Was wir bei der digitalen Realisierung noch gar nicht betrachtet haben, sind Quantisierungseinflüsse: Wenn wir einen Filter mit digitalen Koeffizienten repräsentieren, müssen diese Koeffizienten notwendigerweise quantisiert werden. 75 / 103
Bemerkungen Bei der Quantisierung muss man zunächst beachten, dass nicht alle mathematisch idealen Werte (z.b. Positionen von Polstellen) realisierbar sind. Das Bild links zeigt die mögliche Lage von Filterpolstellen bei einem einfachen Beispielsystem nach der Quantisierung. Man ist hier von einer gleichmäßigen Verteilung weit entfernt! Deutlich besser geht es mit einer komplizierteren Filterstruktur (rechts). Bei der Produkt- und Summenberechnung können Rundungsfehler auftreten, die nichtlinearen Charakter haben und z.b. zu sogenannten Quantisierungsgrenzzyklen führen können. 76 / 103
Beispiel: Linear Prediction In diesem Beispiel betrachten wir einen Filterentwurf, der unter anderem in der Sprachverarbeitung verwendet wird. Hierbei geht es darum, einen Nur-Pole-Filter zu entwerfen bzw. seine Polstellen zu bestimmen. Dies macht dann Sinn, wenn für den gegebenen Anwendungszweck nur die Polstellen interessant sind. 77 / 103
Beispiel: Linear Prediction Schauen wir uns zunächst ein klassisches Modell der Sprachentstehung an: Im Rachenraum entsteht das Schallsignal E: entweder als Wellenform mit einer durch Länge und Spannung der Stimmbänder bestimmen Grundfrequenz (bei stimmhaften Lauten) oder als weißes Rauschen (bei stimmlosen Lauten). In Mund- und Nasenhöhle wird dieses Signal dann mit einem Filter H gefiltert, so dass das Sprachsignal X entsteht. Mathematisch haben wir also im Frequenzbereich die wichtige Formel X (z) = E(z) H(z). 78 / 103
Beispiel: Linear Prediction Wir interessieren uns in der Spracherkennung eigentlich für das Filter H. Das Anregungssignal E ist weniger wichtig (abgesehen mal von der Unterscheidung von stimmhaften und stimmlosen Lauten). Dieses Filter H wollen wir also bestimmen, d.h. wir müssen seinen Frequenzgang abschätzen. Wir approximieren diesen Frequenzgang dadurch, dass wir einen nur-pole-filter annehmen: H(z) = 1 A(z) = 1 1 p k=1 a kz k. mit einer vorher gewählten konstanten Filterordnung p und der Normierung a 0 = 1. 79 / 103
Beispiel: Linear Prediction Rücktransformation der Gleichung E(z) 1/A = X in den Zeitbereich ergibt e[n] = (x a)[n] und mit der Normierung a 0 = 1 x[n] = p a k x[n k] + e[n]. k=1 A ist also ein Filter, der das aktuelle Ausgabesignal aus den p vergangenen Ausgaben vorhersagt. Diese Vorhersage ist natürlich nicht fehlerfrei, e[n] kann als der Fehler dieser Vorhersage aufgefasst werden. Für ein Fenster (typischerweise etwa 16 ms = 256 Samples) des Sprachsignals können wir die optimalen Filterkoeffizienten z.b. durch Minimierung des quadratischen Fehlers bestimmen. 80 / 103
Beispiel: Linear Prediction Diese Filterkoeffizienten können wir nun anstelle der Fourier-Koeffizienten als Feature für einen Spracherkenner verwenden Linear Predictive Coding. Im LPC-Spektrum sind die Polstellen (Formanten) des Sprachsignals gut sichtbar, aber das LPC-Spektrum ist viel glatter als das Fourier-Spektrum. 81 / 103
Zusammenfassung und Bemerkungen Wir haben in diesem Abschnitt folgendes gelernt: Rekursive Filter (= IIR-Filter) zeichnen sich durch das Vorhandensein von Polstellen in der z-ebene aus. Sie entstammen ursprünglich der Analogtechnik. Digital sind sie zwar auch realisierbar, allerdings erhält man Quantisierungseffekte. Bei den verschiedenen Entwürfen ist eine Abwägung zwischen Filterordnung, Toleranz und Phasenverzerrung zu treffen. Ein weiteres Beispiel: Der Linear Prediction Filter. 82 / 103
Inhalt der Vorlesung Artefakte Fourier-Transformation, z-transformation Filterung Entwurfsmuster und Typen rekursiver Filter Entwurfsmuster und Typen nichtrekursiver Filter 83 / 103
FIR-Filter In diesem Abschnitt: Entwürfe für nichtrekursive Filter, also für Filter mit endlicher Impulsantwort (FIR-Filter). Filter mit endlicher Impulsantwort sind rein mathematisch ein Spezialfall der allgemeinen rekursiven Filter (die Übertragungsfunktion hat Nenner 1). Die rekursiven Filter stammen eigentlich aus der Analogtechnik. Nichtrekursive Filter wiederum sind mit Analogtechnik prinzipiell nicht zu realisieren. Sie sind also gerade in der digitalen Signalverarbeitung interessant. 84 / 103
Vorteile der FIR-Filter Die Hauptvorteile der FIR-Filter sind die folgenden: Lineare Phase: Es ist möglich, Filter zu konstruieren, die keine Phasenverzerrung aufweisen. Das ist bei rekursiven Filtern prinzipiell nicht exakt möglich. Die Filter sind grundsätzlich stabil, das bedeutet, dass eine beschränkte Eingabe auch eine beschränkte Ausgabe liefert. Diese Eigenschaft bleibt auch bei Quantisierung erhalten! Adaptive Systeme, wie z.b. der Wiener-Filter, lassen sich mit FIR-Filtern viel einfacher realisieren als mit rekursiven Filtern. Ein Nachteil existiert aber auch: Um ähnliche Toleranzeigenschaften (Flankensteilheit, Sperrdämpfung) zu haben wie bei einem rekursiven Filter, sind deutlich höhere Filterordnungen erforderlich. 85 / 103
Grundlegender Entwurf eines FIR-Filters Entwerfen wir einen Tiefpassfilter! Forderung: keine Phasenverzerrung, ein Signal, das vollständig im Durchlassbereich liegt, soll völlig unverändert bleiben. Dies bedeutet, das Signal wird lediglich in der Zeit verschoben (z.b. um t 0 ). Input: e jωt Output: e jω(t t 0) = e jωt e jωt 0. Für die Übertragungsfunktion folgt im Durchlassbereich H(ω) = e jωt 0. 86 / 103
FIR-Tiefpass: Die optimale Lösung Naheliegender Ansatz: im Frequenzbereich geben wir uns einen idealen Filter vor. Ein Tiefpass mit Grenzfrequenz Ω g hat die Übertragungsfunktion { 1 wenn Ω Ω g H TP = 0 wenn Ω g < Ω π Da y = h x Y = H X, erhalten wir die zu obigem Filter gehörende Impulsantwort, wenn wir die Funktion H TP einfach in den Zeitbereich zurücktransformieren! 87 / 103
FIR-Tiefpass: Die optimale Lösung Die inverse zeitdiskrete Fourier-Transformation von H TP liefert die Impulsantwort h mit h TP [k] = 1 2π = 1 2π π π Ωg H TP (e jω )e jωk dω e jωk dω = Ω g Ω g π 88 / 103 sin(ω g k). Ω g k Die Impulsantwort ist also unendlich lang. Wie kann sie durch eine endliche Folge approximiert werden?
FIR-Tiefpass: Endliche Approximation Die einfachste Methode, eine unendlich lange Impulsantwort endlich zu approximeren, besteht sicher darin, sie irgendwo abzuschneiden. Dies entspricht einer Fensterung mit einem Rechteckfenster und wir wissen ja schon, dass dies Probleme aufwirft. Fordern wir eine Filterordnung m, so erhalten wir die Impulsantwort h TP [k] = { Ωg π sin(ω g k) Ω g k für k = m/2,..., m/2 0 sonst. Will man, dass der Filter kausal wird, so muss man noch eine Verzögerung einfügen (also die Impulsantwort h verschieben: h kausal [k] = h TP [k m/2]). 89 / 103
FIR-Tiefpass: Endliche Approximation Das Bild zeigt Impulsantwort und Frequenzgang eines solchen Filters. Man sieht die Auswirkungen der Approximation: Die Filterflanke ist nur noch endlich steil, und es ergeben sich Oszillationen im Durchlass- wie im Sperrbereich. Erhöht man die Filterordnung, so wie rechts von m = 24 auf m = 192, so ändert sich die Höhe der Oszillationen nicht (Gibbs sches Phänomen). 90 / 103
FIR-Tiefpass: Zusammenfassung des Ansatzes Wir haben gesehen, wie man einen ganz vernünftigen FIR-Tiefpassfilter bekommen kann, indem man den Wunschfrequenzgang im z-bereich, d.h. im Frequenzbereich, vorgibt diese Übertragungsfunktion mit der IDTFT zurücktransformiert die resultierende, unendlich lange Impulsantwort nach endlich vielen Samples abschneidet und sie eventuell noch verzögert. Dies entspricht einer Fensterung der idealen Impulsantwort mit einem Rechteckfenster. Ist das wohl optimal? 91 / 103
FIR-Tiefpass: Approximation durch Fensterbewertung Es gibt alternative Ansätze, mit der unendlich langen idealen Impulsantwort umzugehen. Man kann sie nämlich auch mit anderen Fenstern bewerten als mit dem Rechteckfenster. Die Fensterbewertung entspricht einer Multiplikation im Zeitbereich, also einer Faltung im Frequenzbereich. Wir wollen zunächst einmal schauen, was diese Faltung am Beispiel der Rechteckfensters bewirkt. 92 / 103
Wirkungsweise der Faltung Wir erinnern uns an die Defition der Faltung, und zwar im kontinuierlichen Fall (weil wir jetzt eine Faltung im Frequenzbereich betrachten, der kontinuierlich ist): g = f h mit g(t) = 93 / 103 f (τ)h(t τ)dτ Wenn wir f als Zielfunktion betrachten und h als Störung, ist es die Frage, welche Eigenschaften h haben sollte, damit die Störung möglichst gering ausfällt.
Wirkungsweise der Faltung Die neutrale Funktion bezüglich der Faltung ist die Dirac-Delta-Funktion δ(t), also der Einheitsimpuls, denn δ ist definiert durch und daher (f δ)(t) = f (t) δ(t) = f (0) für beliebiges f 94 / 103 Quelle: Rogina, Vorlesung SMMK, angepasst f (τ)δ(t τ)dτ = f (t). Wir wissen, dass die Fourier-Transformation des Dirac-Impulses die Einsfunktion e(x) = 1 x ist. Die Faltung mit δ entspricht nach der Fourier-Transformation also einer Multiplikation mit 1.
Wirkungsweise der Faltung Wie sieht nun die Spektraldarstellung des Rechteckfensters aus? Links zwei Spektren für verschiedene Fensterlängen; man sieht, dass das Spektrum eines längeres Fensters näher am δ-impuls liegt, aber dass die Überschwinger nicht kleiner werden. Diese Funktion ist nun im Frequenzbereich mit der idealen Impulsantwort des FIR-Tiefpassfilters zu falten. Damit ist klar, woher die lästigen Überschwinger und das Gibbs sche Phänomen kommen. 95 / 103
FIR-Tiefpass: Approximation durch Fensterbewertung Welche Fensterfunktionen kommen noch in frage? Eine Möglichkeit ist das Hann-Fenster mit Fensterlänge m + 1: { 1 ( f Hn [k] = 2 1 cos 2π m k) für 0 k m 0 sonst Das Spektrum des Hann-Fensters (gestrichelt) ist die Überlagerung von drei gegeneinander versetzten Rechteckfensterspektren (durchgezogen): Der erste und größte Überschwinger wird gerade kompensiert. 96 / 103
Vergleich von Fensterfunktionen Eine Variante vom Hann-Fenster ist das Hamming-Fenster {( 0.54 0.46 cos 2π f Hm [k] = m k) für 0 k m 0 sonst Weitere Beispiele finden sich im Buch von Kammeyer/Kroschel. Links sieht man, wie sich die Wahl der Fensterfunktion auf den Frequenzgang eines FIR-Tiefpassfilters auswirkt: Für das Rechteckfenster ist die Sperrdämpfung deutlich am schlechtesten. 97 / 103
Der Parks-McClellan-Entwurf Der letzte Filterentwurf, den wir behandeln, ist der Parks-McClellan-Entwurf. Dies ist heutzutage der Standardentwurf für FIR-Filter mit linearer Phase und beliebigen Frequenzeigenschaften. Grundidee ist hier, die vorgegebenen Toleranzbereiche vollständig auszunutzen. Für rekursive Filter hatten wir das durch Tschebyscheff-Polynome gemacht, eine ähnliche Idee führt auch hier zum Ziel. Das Toleranzschema und seine Umsetzung sind im Bild zu sehen. 98 / 103
Der Parks-McClellan-Entwurf Diese Lösung muss numerisch approximiert werden Parks-McClellan-Entwurf. Zwei typische Filter, die nach diesem Modell ermittelt wurden, sieht man in der Grafik unten. Die Sperrdämpfung ist ziemlich hoch, die Ripples ganz charakteristisch. 99 / 103
Beispiel: Parks-McClellan-Entwurf Merkregel: Wer selbst mal einen digitalen Filter braucht, sollte normalerweise einen Parks-McClellan-Filter verwenden! Diese Filter lassen sich z.b. in Matlab mit dem firpm-befehl erzeugen. Wir machen ein Beispiel: Zu entwerfen ist ein Tiefpassfilter der Ordnung 64, der Frequenzen von 0 bis 0.4π durchlässt und Frequenzen ab 0.5π sperrt. Die passende Matlab-Befehlssequenz ist frequencies = [0.4.5 1] % Normalisierte Frequenzen response = [1 1 0 0] % Von 0 bis 0.4: durchlassen, % von 0.5 bis 1: sperren h = firpm(64,frequencies,response) Wie sieht so ein Filter dann praktisch aus? 100 / 103
Beispiel: Parks-McClellan-Entwurf Schauen wir uns zunächst die Impulsantwort und das Pol-Nullstellendiagramm des Filters an: Impulsantwort Pol-Nullstellendiagramm Die Impulsantwort geht an den Rändern schnell gegen Null (im Unterschied zur Rechteckfensterung von vorhin!). Im Pol-Nullstellendiagramm erkennt man die besondere Lage des Nullstellen, die für den linearen Phasenverlauf sorgt; es gibt eine 64fache Polstelle im Ursprung. 101 / 103
Beispiel: Parks-McClellan-Entwurf Zum Schluss schauen wir uns noch an, was wir für eine Frequenzantwort und Phasenantwort bekommen haben. Amplitudenantwort Phasengang Man sieht bei der Amplitudenantwort den typischen Verlauf der Parks-McClellan-Filters. Der Phasengang ist stückweise linear, hat aber wegen der Nullstellen auf dem Einheitskreis Sprungstellen. 102 / 103
Zusammenfassung und Bemerkungen Wir haben in diesem Abschnitt folgendes gelernt: Nichtrekursive Filter (= FIR-Filter) lassen sich nur digital realisieren. Vorteile gegenüber rekursiven Filtern: Keine Phasenverzerrung, keine Stabilitätsprobleme bei der Quantisierung. Standardentwurf: Der iterative Parks-McClellan-Entwurf. 103 / 103