Player FM - Internet Radio Done Right
Checked 1+ y ago
추가했습니다 seven 년 전
Karlsruher Institut für Technologie (KIT)에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Karlsruher Institut für Technologie (KIT) 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!
Player FM 앱으로 오프라인으로 전환하세요!
Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 16.01.2017, 17
Manage episode 188269404 series 1580640
Karlsruher Institut für Technologie (KIT)에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Karlsruher Institut für Technologie (KIT) 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
17 | 0:00:00 Starten 0:00:04 Suche 0:01:31 Erinnerung: Fundamentalformel 0:02:05 Suche in der Spracherkennung 0:05:08 Erinnerung DTW und One-Stage-DP 0:07:02 Suche im Allgemeinen 0:09:33 Suche mit DP und Heuristik 0:11:37 Kenngrößen für Suchprobleme 0:14:42 Forward-/Backward-/bi-direktionale Suche 0:16:34 Explizite vs. Implizite Implementierung 0:18:15 Blinde Suche 0:19:51 Suchstrategien 0:24:49 Tiefensuche vs. Breitensuche 0:25:58 Heuristische Graphsuche 0:28:42 Zeitasynchrone Suche mit A* 0:33:13 Zeitsynchrone Strahlsuche 0:38:16 Beams in ASR 0:40:15 Beam vs. WER 0:51:26 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell 0:54:51 Suchraum mit Uni-Gramm 0:58:16 Suchraum mit Bi-Grammen 1:00:59 Suchraum mit Tri-Grammen 1:05:58 Viterbi Decoding 1:12:51 A* mit Stack Decoder 1:14:40 Heuristik für A* 1:16:42 Fast Match
…
continue reading
19 에피소드
Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 16.01.2017, 17
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
Manage episode 188269404 series 1580640
Karlsruher Institut für Technologie (KIT)에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Karlsruher Institut für Technologie (KIT) 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
17 | 0:00:00 Starten 0:00:04 Suche 0:01:31 Erinnerung: Fundamentalformel 0:02:05 Suche in der Spracherkennung 0:05:08 Erinnerung DTW und One-Stage-DP 0:07:02 Suche im Allgemeinen 0:09:33 Suche mit DP und Heuristik 0:11:37 Kenngrößen für Suchprobleme 0:14:42 Forward-/Backward-/bi-direktionale Suche 0:16:34 Explizite vs. Implizite Implementierung 0:18:15 Blinde Suche 0:19:51 Suchstrategien 0:24:49 Tiefensuche vs. Breitensuche 0:25:58 Heuristische Graphsuche 0:28:42 Zeitasynchrone Suche mit A* 0:33:13 Zeitsynchrone Strahlsuche 0:38:16 Beams in ASR 0:40:15 Beam vs. WER 0:51:26 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell 0:54:51 Suchraum mit Uni-Gramm 0:58:16 Suchraum mit Bi-Grammen 1:00:59 Suchraum mit Tri-Grammen 1:05:58 Viterbi Decoding 1:12:51 A* mit Stack Decoder 1:14:40 Heuristik für A* 1:16:42 Fast Match
…
continue reading
19 에피소드
모든 에피소드
×G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 06.02.2017, 19 1:23:35
1:23:35
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:23:350:00:00 Starten 0:00:16 Minimierung des Wortfehlers 0:02:50 Approximierung mit N-besten Listen 0:04:06 WER Minimierung auf Wortgraphen 0:04:18 Multiple Alignment WER 0:07:03 Finden des globalen Alignment 0:08:21 Alignment als Äquivalenzrelation 0:09:44 Finden einer angemessenen Äquivalenzrelation 0:12:02 Intra-Wort-Clustern 0:14:58 Pruning 0:15:45 Confusionsnetzwerke 0:18:20 Confusionsnetzwer-Hypothese 0:19:20 Eyperimente 0:23:03 Systemkombination 0:25:00 Systemkombination mit ROVER 0:28:33 Alignierung vieler Hypothesen mittlels DP 0:29:30 Beispiel 0:30:46 Mehrheitsentscheidung 0:31:25 Experimente 0:34:28 Probleme mit EM Training 0:38:06 Korrektives Training 0:41:22 Diskriminatives Training 0:43:00 Maximierung der Posterioriw'keit 0:43:41 Transformation / Mutual Information 0:45:14 Maximum Mutual Information Estimation (MMIE) 0:47:52 MLE vs. MMIE 0:50:35 MMIE Implementierung 0:51:20 MMIE Optimierung 0:52:16 Erweiterte Baum-Welch Regeln 0:54:59 MMIE Trainingsprozedur 0:57:21 Ergebnisse 0:58:00 MWE/MCE Training 1:07:31 Neue-Worte-Problem 1:09:31 Ansätze 1:11:02 Häufigkeitsverteilung von Wörtern 1:12:46 Herausvorderungen bei der OOV Detektion 1:14:11 OOV Wörtermodelle im AM 1:15:37 AM 1:16:03 OOV Wörtermodelle LM 1:17:49 Automatisches Clustern 1:18:06 Beispiele 1:19:36 Genauigkeit OOV Detektion 1:21:01 Lernen der neuen Wörter 1:21:32 Beispiel Lerndialog…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 18.01.2017, 18 1:20:14
1:20:14
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:20:1418 | 0:00:00 Starten 0:01:22 Vor- und Nachteile eines Stackdecoders 0:05:30 A* vs. Strahlsuche 0:07:22 Vermeidung von Redundanzen 0:09:23 Baumsuche 0:12:11 Baumsuche mit Sprachmodell 0:13:54 Delayed Bi-Grams 0:21:15 Einsparung durch Baum-Lexica 0:25:40 Kopien von Suchbäumen 0:29:50 Suche mit kontextabhängigen Modellen 0:32:24 Baumsuche mit kontextabhängigen Modellen 0:35:58 N-Besten Suche 0:43:27 Probleme mit n besten Listen 0:45:27 Wortgraphen 0:47:39 Zusammenfassung Beschleunigungstechniken 0:49:35 Mehrpass Suchen 0:50:53 Beispiel: IBIS Single Pass Decoder 0:53:48 Delayed Bi-Grams 1:00:17 Consensus Decoding 1:02:38 Bsp: MAP vs. Wort-Posteriori-W'keiten 1:08:34 Minimierung des Wortfehlers 1:12:50 Approximierung mit N-besten Listen 1:14:55 WER Minimierung auf Wortgraphen 1:17:16 Multiple Alignment WER…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 16.01.2017, 17 1:19:30
1:19:30
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:19:3017 | 0:00:00 Starten 0:00:04 Suche 0:01:31 Erinnerung: Fundamentalformel 0:02:05 Suche in der Spracherkennung 0:05:08 Erinnerung DTW und One-Stage-DP 0:07:02 Suche im Allgemeinen 0:09:33 Suche mit DP und Heuristik 0:11:37 Kenngrößen für Suchprobleme 0:14:42 Forward-/Backward-/bi-direktionale Suche 0:16:34 Explizite vs. Implizite Implementierung 0:18:15 Blinde Suche 0:19:51 Suchstrategien 0:24:49 Tiefensuche vs. Breitensuche 0:25:58 Heuristische Graphsuche 0:28:42 Zeitasynchrone Suche mit A* 0:33:13 Zeitsynchrone Strahlsuche 0:38:16 Beams in ASR 0:40:15 Beam vs. WER 0:51:26 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell 0:54:51 Suchraum mit Uni-Gramm 0:58:16 Suchraum mit Bi-Grammen 1:00:59 Suchraum mit Tri-Grammen 1:05:58 Viterbi Decoding 1:12:51 A* mit Stack Decoder 1:14:40 Heuristik für A* 1:16:42 Fast Match…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 21.12.2016, 16 37:21
37:21
나중에 재생
나중에 재생
리스트
좋아요
좋아요
37:2116 | 0:00:00 Starten 0:00:04 Kombination von Sprachmodell und Akustischem Modell 0:15:11 Deterministische Sprachmodelle 0:17:41 Repräsentation der Grammatik 0:19:28 Formale Sprachtheorie 0:20:31 Chomsky-Hierarchie 0:22:28 Chartparsing 0:24:54 Probabilistische CFGs 0:28:34 Suche 0:30:26 Erinnerung: Fundamentalformel 0:31:15 Suche in der Spracherkennung…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 14.12.2016, 15 1:23:10
1:23:10
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:23:1015 | 0:00:00 Starten 0:00:05 Aussprachewörterbücher, Sprachmodelle 0:00:41 Flexibles Trainingsalignment 0:01:05 Aussprachen bestimmen für unüberwachtes Lernen 0:05:18 Emotionserkennung mit Hilfe von Aussprachenvarianten 0:06:27 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel) 0:09:10 Multiworte 0:12:05 Single Pronunciation Dictionaries 0:15:06 Erweiterter Clusterbaum 0:18:48 Ergebnisse 0:22:47 Literaturempfehlung 0:23:27 Sprachmodellierung 0:24:15 Erinnerung: Fundamentalformel 0:29:44 Determinstische vs. Stochastische Sprachmodelle 0:33:48 Wörterratespiel 0:38:08 Wozu dient das Sprachmodell 0:40:26 Stochastische Sprachmodelle 0:44:57 Äquivalenzklassen 0:46:28 Schätzen von N-Gramm W´keiten 0:47:34 Beispiel 0:50:57 Bigramme und Trigramme 0:53:57 Das Bag-of-Words Experiment 0:55:30 Glättung von Sprachmodellparametern 0:57:59 Discounting 1:00:51 Interpolation (Lineare Glättung) 1:02:16 HMM für Interpolationsgewichte 1:10:10 Schätzung der Gewichte 1:10:57 HMM für Interpolationsgewichte 1:11:53 Deleted Interpolation. Basierend auf den »Conditional Counts« 1:17:47 Praktische Aspekte 1:19:38 Schätzen von Y 1:20:28 Allgemeines Rahmenwerk für Glättung 1:22:41 Weitere Notationen…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 12.12.2016, 14 1:11:33
1:11:33
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:11:3314 | 0:00:00 Starten 0:00:09 Wiederholung 0:03:29 Kontextfragen 0:09:30 Typische Kontextfragen 0:13:15 Abdeckung durch Polyphone 0:14:51 Gewinn durch längere Kontexte 0:16:21 Verwendung dynamischer Modalitäten 0:17:38 Dynamische Modalitäten 0:29:29 Fehler durch Falsche Aussprachen 0:31:19 Generierung von Aussprachewörterbüchern 0:39:42 Verwendung von existierenden Wörterbüchern 0:43:58 Lernen von Ausspracheregeln 0:51:00 Inkrementelles Lernen 0:53:28 Aussprachevarianten 0:56:08 Finden von Aussprachevarianten 0:57:32 Probleme mit Aussprachevarianten 1:02:59 Typische Aussprachevarianten 1:03:38 Regeln für Aussprachevarianten im Deutschen 1:04:40 Datengetriebenes Finden von Aussprachevarianten 1:07:48 Finden von Aussprachevarianten mit dem Silbenmodell 1:09:22 Flexibles Trainingsalignment…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 30.11.2016, 13 1:26:53
1:26:53
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:26:5313 | 0:00:00 Starten 0:00:06 EM Algorithm 0:00:22 Literatur 0:01:46 Baum-Welch Regeln 0:03:41 Maximum-Likelihood Methode 0:42:38 Expectation Maximization (EM) 0:45:19 EM 0:49:06 EM – Expectation Schritt 0:54:25 EM für Mixtur-Gewichte 1:05:41 EM für Gaußmixturen 1:17:21 EM für HMMs 1:20:05 EM für HMMs Anfangsw´keiten 1:22:18 EM für HMMs Übergangsw´keiten 1:24:26 EM Algorithmus diskrete Emissionsw´keiten…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 28.11.2016, 12 1:21:08
1:21:08
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:21:0812 | 0:00:00 Starten 0:00:11 EM Algorithmus Emissionsw'keiten GMM 0:06:13 HMM Training für multiple Trainigssequenzen 0:07:32 HMMs in ASR 0:10:16 Wortfolge zu HMM 0:13:56 HMM in ASR 0:26:49 HMM Trainingszyklus 0:36:21 Etikettierte Daten 0:38:19 Initalisierung mit K-Mittelwerte Algorithmus 0:47:19 Neural Gas Algorithmus 0:49:20 Initilisierung der HMM Parameter 0:51:25 Initialisierung ohne Etiketierte Daten 0:53:33 Viterbi Training 0:57:59 Label Training 1:00:00 Komponenten eines HMM Erkenners 1:01:41 Parameterkopplung 1:03:13 Semikontinuierliches HMM 1:10:21 Parameterkopplung…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 23.11.2016, 11 1:26:49
1:26:49
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:26:4911 | 0:00:00 Starten 0:00:05 EM Algorithm 0:00:19 Literatur 0:01:55 Baum-Welch Regeln 0:03:38 Maximum-Likelihood Methode 0:42:31 Expectation Maximization EM) 0:45:17 EM 0:49:09 EM – Expectation Schritt 0:54:05 EM für Mixtur-Gewichte 1:00:55 EM für Mixturgewichte 1:05:43 EM für Gaußmixturen 1:17:48 EM für HMMs 1:20:37 EM für HMMs Anfangsw´keiten 1:22:50 EM für HMMs Übergangsw´keiten 1:24:30 EM Algorithmus diskrete Emissionsw´keiten…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 21.11.2016, 10 1:24:22
1:24:22
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:24:2210 | 0:00:00 Starten 0:00:20 Stochastik in der Spracherkennung 0:05:24 Die Fundamentalformel 0:10:01 Stochastische ASR Akustisches Modell 0:11:49 Stochastischer Prozess 0:19:33 Makrow-Kette 0:20:42 Makrow-Kette n-ter Ordnung 0:23:22 Makrow-Ketten 1. Ordnung 0:27:37 Beispiele 0:32:10 Hidden Markov Models 0:40:48 Urne Ball Modell 0:42:27 HMM Definition 0:45:25 HMM Beobachtungsgenerierung 0:46:56 Die HMM Trellis 0:48:38 Die Drei Probleme des HMMs 0:52:21 Forward Algorithmus 0:57:17 Backward Algorithmus 1:04:29 Das Decoding Problem 1:07:30 Viterbi-Algorithmus 1:09:37 Das Lern-Problem 1:17:54 Baum-Welch Regeln…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 16.11.2016, 09 1:20:59
1:20:59
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:20:5909 | 0:00:00 Starten 0:00:26 DTW für einzelne Wörter 0:03:44 DTW für Sequenzen mehrere Wörter 0:09:45 One Stage DP 0:12:48 One Stage DP Implementierung 0:17:29 One Stage DP Syntaktische Einschränkung 0:20:34 Gaußverteilung (Normalverteilung) 0:26:12 Multivariate Normalverteilung 0:27:33 Kovarianzmatrix der Gaußverteilung 0:34:24 Gauß-Mischverteilung 0:35:16 Benutzung in der Praxis 0:44:11 Vektorquantisierung 0:46:54 Voronoiregionen 0:48:46 Mahalanobis Distanz 0:49:53 Vektorquantisierung als Klassifikationsproblem 0:51:54 K-Nächste Nachbar 0:53:58 Beschleunigung von KNN 1:00:46 Baumstruktur des Merkmalsraums 1:01:41 Aufgabe 1:09:34 Finden von Referenzvektoren 1:10:33 K-MIttelwerte 1:13:07 Learning VQ 1:14:48 LVQ 2, LVQ 3 1:16:18 LVQ als KNN…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 14.11.2016, 08 1:11:52
1:11:52
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:11:5208 | 0:00:00 Starten 0:00:14 Hauptkomponentenalyse (PCA) 0:02:40 Lineare Diskriminanzanalyse 0:05:21 Vorverarbeitung mit Neuronalen Netzen 0:10:11 Bottelneck Features 0:13:56 Klassifikation 0:15:30 Aufgabe (1) 0:21:36 Statistische vs. Wissensbasierte Ansätze 0:23:15 Wissensbasiert: Entscheidungsbäume 0:25:00 Classification and Regression Trees 0:28:37 Überwachtes vs. Unüberwachtes Lernen 0:30:09 Unüberwachtes Lernen 0:30:31 Überwachtes Lernen 0:31:32 Parametrische vs. Nicht-Parametrische Klassifikation 0:35:22 Bayes Klassifikator 0:37:50 Minimum Fehler Regel 0:37:59 Entscheidungsgrenze 0:39:00 Parzen Fenster 0:39:21 Spracherkennung mit Musterklssifikation 0:41:43 Vergleich ganzer Äußerungen (1) 0:43:48 Aufgabe (2) 0:46:26 Vergleich ganzer Äußerungen (2) 0:50:10 Time Warping 0:51:07 Distanz zweier Äußerungen 0:52:49 Erinnerung MInimale Editierdistanz 0:53:37 DP Matrix 0:54:14 Dynamic Time Warping (DTW) 0:56:03 Einschränkungen des DTW Pfades 0:58:46 DTW Schritte 0:59:46 Globale Einschränkungen 1:00:50 Der DTW Suchraum 1:04:24 Strahlsuche 1:06:01 Mögliche Distanzen zwischen Vektoren…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 09.11.2016, 07 1:25:20
1:25:20
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:25:2007 | 0:00:00 Starten 0:00:17 Spektrogramm 0:00:58 Oberschwingung, Harmonische 0:03:14 Mel Skalierung 0:07:18 Effekt der Fensterlänge 0:12:44 Quelle Filter Modell der Sprache 0:15:24 Helmholtzresonator 0:17:08 Vokaldreieck 0:21:30 Lineare Vorhersage (LPC) 0:28:54 Interpretation der LPC Koeffizienten 0:30:47 All-Pole Modell 0:30:53 LPC Beispiel 0:33:45 Cepstrum 0:50:02 Diskrete Cosinustransformation 0:51:03 Beispiel: Berechnung MFCC Koeffizienten 0:51:35 Filterbank im Leistungsbetrags-Spektrum 0:51:52 Mel-Filterbank 0:51:59 Logarithmus auf Leistungsbetragsspektrum 0:52:31 Cepstral-Koeffizienten 0:53:17 Log-Spektrum rekonstruiert von (geliftertem) Cepstrum 0:53:35 Vergleich Verschiedener Spektren 0:54:34 Typische Vorverarbeitung 1:05:14 Spektrogramm 1:05:48 Dynamische Merkmale 1:07:36 Autokorrelation 1:12:57 Nulldurchgangsrate 1:15:36 Hauptkomponentenanalyse (PCA) 1:24:51 Lineare Diskriminanzanalyse…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 31.10.2016, 05 1:02:29
1:02:29
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:02:2905 | 0:00:00 Starten 0:00:33 Grundlagen der Signalverarbeitung 0:00:50 Wozu Signal(vor)verarbeitung? 0:02:33 Systeme 0:06:21 Zeitinvariante System 0:09:58 Dirac Distribution 0:18:18 Faltung 0:20:35 Impulsantwort 0:26:59 Quelle Filter Modell der Sprache 0:30:42 Parametereigenschaften einer trigonometrischen Funktion 0:32:31 Darstellungen der Fourierreihe 0:38:34 Fouriertransformation 0:45:20 Komplexes Spektrum 0:52:36 Projektion der komplexen Exponentialfunktion auf die reelle trigonometrische Funktion 0:52:57 Zeitdiskrete Fouriertransformation 0:55:51 Diskrete Fouriertransformation…
G
Grundlagen der Automatischen Spracherkennung, WS16/17, Vorlesung
1 Grundlagen der Automatischen Spracherkennung, Vorlesung, WS 2016/17, 02.11.2016, 06 1:29:22
1:29:22
나중에 재생
나중에 재생
리스트
좋아요
좋아요
1:29:2206 | 0:00:00 Starten 0:00:15 Zusammenfassung Fouriertransformation 0:02:21 Digitalisierung 0:03:02 Abtastung (Sampling) 0:04:21 Abtasttheorem Nyquist-Shannon Theorem 0:06:36 Aliasing 0:18:46 Reale Abtastung 0:20:19 Quantisierung 0:23:35 Quantisierungsrauschen 0:27:58 Quantisierung von Sprachsignalen 0:30:20 Einseiztige und zweiseitige Laplace Transformation 0:34:51 Laplace Transformation 0:36:16 |F(s)| - Darstellung 0:37:29 Wiederholung LTI-Systeme 0:38:48 Darstellung der Übertragungsfunktion von LTI Systemen 0:44:58 Projektion auf s-Ebene 0:46:23 Pol-Nullstellen-Schema in der s-Ebene 0:47:03 Z-Transformation 0:48:50 Zusammenhang LT und ZT 0:49:43 Abbildung komplexe s-Ebene auf z-Ebene 0:51:20 Kurzzeitspektralanalyse 1:01:51 Periodizität des gefensterten Signals 1:05:04 Effekt der Fensterung 1:06:54 Fensterfunktionen (1) 1:09:48 Effekt der Fensterung 1:11:32 Fensterfunktionen (2) 1:14:06 Wo ist der Fehler? 1:14:27 Spektogramm (1) 1:17:34 Oberschwingung, Harmonische 1:21:18 Spektogramm (2) 1:26:36 Fensterfunktionen (3) 1:28:32 Spektogramm (3)…
플레이어 FM에 오신것을 환영합니다!
플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.