Helmut Bölcskei: Katalogdaten im Herbstsemester 2023

Auszeichnung: Die Goldene Eule
NameHerr Prof. Dr. Helmut Bölcskei
LehrgebietMathematische Informationswissenschaften
Adresse
Professur Math. Informationswiss.
ETH Zürich, ETF E 122
Sternwartstrasse 7
8092 Zürich
SWITZERLAND
Telefon+41 44 632 34 33
E-Mailhboelcskei@ethz.ch
URLhttps://www.mins.ee.ethz.ch/people/show/boelcskei
DepartementInformationstechnologie und Elektrotechnik
BeziehungOrdentlicher Professor

NummerTitelECTSUmfangDozierende
227-0045-00LSignal- und Systemtheorie I4 KP2V + 2UH. Bölcskei
KurzbeschreibungSignaltheorie und Systemtheorie (zeitkontinuierlich und zeitdiskret): Signalanalyse im Zeit- und Frequenzbereich, Signalräume, Hilberträume, verallgemeinerte Funktionen, lineare zeitinvariante Systeme, Abtasttheoreme, zeitdiskrete Signale und Systeme, digitale Filterstrukturen, diskrete Fourier-Transformation (DFT), endlich-dimensionale Signale und Systeme, schnelle Fouriertransformation (FFT).
LernzielEinführung in die mathematische Signaltheorie und Systemtheorie.
InhaltSignaltheorie und Systemtheorie (zeitkontinuierlich und zeitdiskret): Signalanalyse im Zeit- und Frequenzbereich, Signalräume, Hilberträume, verallgemeinerte Funktionen, lineare zeitinvariante Systeme, Abtasttheoreme, zeitdiskrete Signale und Systeme, digitale Filterstrukturen, diskrete Fourier-Transformation (DFT), endlich-dimensionale Signale und Systeme, schnelle Fouriertransformation (FFT).
SkriptVorlesungsskriptum, Übungsskriptum mit Lösungen.
227-0423-00LNeural Network Theory Information 4 KP2V + 1UH. Bölcskei
KurzbeschreibungThe class focuses on fundamental mathematical aspects of neural networks with an emphasis on deep networks: Universal approximation theorems, capacity of separating surfaces, generalization, fundamental limits of deep neural network learning, VC dimension.
LernzielAfter attending this lecture, participating in the exercise sessions, and working on the homework problem sets, students will have acquired a working knowledge of the mathematical foundations of neural networks.
Inhalt1. Universal approximation with single- and multi-layer networks

2. Introduction to approximation theory: Fundamental limits on compressibility of signal classes, Kolmogorov epsilon-entropy of signal classes, non-linear approximation theory

3. Fundamental limits of deep neural network learning

4. Geometry of decision surfaces

5. Separating capacity of nonlinear decision surfaces

6. Vapnik-Chervonenkis (VC) dimension

7. VC dimension of neural networks

8. Generalization error in neural network learning
SkriptDetailed lecture notes are available on the course web page
https://www.mins.ee.ethz.ch/teaching/nnt/
Voraussetzungen / BesonderesThis course is aimed at students with a strong mathematical background in general, and in linear algebra, analysis, and probability theory in particular.
401-5680-00LFoundations of Data Science Seminar Information 0 KPP. L. Bühlmann, A. Bandeira, H. Bölcskei, J. Peters, F. Yang
KurzbeschreibungResearch colloquium
Lernziel