|
Detailinformationen |
Quellcurriculum |
Masterstudium Computer Science 2016W |
Ziele |
Die Vorlesung präsentiert eine große und zentral wichtige Klasse von Methoden der modernen Artificial Intelligence: Probabilistische Graphische Modelle, wie sie für die Repräsentation unvollstständiger Information und unsicheren Wissens in komplexen Problem verwendet werden. Alle drei Aspekte solcher Modelle werden in der Vorlesung behandelt: Semantik, Inferenz und Lernen. Grundlegende Konzepte werden ebenso erklärt wie konkrete Algorithmen, und alle Methoden werden mathematisch abgeleitet und analysiert.
|
Lehrinhalte |
Elementare Grundlagen: Wahrscheinlichkeitsverteilungen, Dichtefunktionen, (bedingte) Unabhängigkeit, probabilistisches Schließen.
Bayes'sche Netzwerke: Repräsentation, Semantik, Faktorisierung.
Inferenz in Bayes'schen Netzen: Exakte Inferenz, Variablen-Eliminierung, Message Passing; approximative Inferenz: stochastische Sampling, Markov Chain Monte Carlo (MCMC)-Methoden.
Lernen von Bayes'schen Netzen: Parameterlernen, Strukturlernen, generative vs. diskriminative Modelle (optional).
Spezielle Typen von Modellen: Linear Gaussian Networks.
Modellieren und Vorhersagen zeitlich-dynamischer Prozesse: Dynamic Bayes Nets, Hidden Markov Models, Kalman-Filter; Particle Filters.
Ausgewählte Anwendungen probabilistischer graphischer Modelle
|
Beurteilungskriterien |
Schriftliche Klausur am Ende des Semesters.
|
Lehrmethoden |
Folienvortrag mit Beispielen an der Tafel
|
Abhaltungssprache |
Englisch |
Literatur |
Koller, Daphne, and Friedman, Nir (2009). Probabilistic Graphical Models. Principles and Techniques. Cambridge, MA: MIT Press.
Russell, Stuart J. and Norvig, P. (2010). Artificial Intelligence: A Modern Approach (3rd Edition). Upper Saddle River, NJ: Prentice Hall.
|
Lehrinhalte wechselnd? |
Nein |
|