Hinweis: zum 01.04.2022 tritt eine Änderung der SPO 2015 in Kraft. Dort ist die Pflicht-Lehrveranstaltung M4 gestrichen. Stattdessen wird Statistik und Data Science für die Informatik gehört.
Studierende erlernen die mathematischen Grundlagen zur Lösung von Problemen der Numerik und der Data Science sowie zur probabilistischen Modellbildung.
- Grundlagen der Statistik und Bezüge zu Data Science:
Übersicht verschiedener Arten der Statistik (z.B. deskriptive Statistik, Inferenzstatistik, explorative Statistik) und Datentypen; motivierende Beispiele für Einsatz in Anwendungen; Daten und Ethik
- Deskriptive Statistik und Wahrscheinlichkeitsverteilungen:
(Diskrete u. vor allem) kontinuierliche Verteilungen; grundlegende Konzepte für kontinuierliche Verteilungen (bedingte Wahrscheinlichkeit, stochastische Unabhängigkeit, Multiplikationssatz, Satz von Bayes, Erwartungswert, Varianz, Kovarianz usw.); Sampling, statistische Signifikanz und Tests; Bezug zu Data Science durch Umsetzen eines Beispielalgorithmus wie Naive Bayes Klassifikator
Stochastische Optimierung durch Gradientenabstieg und ihr Einsatz in Inferenzstatistik (z.B. SGD, künstliche Evolution); angewandte Differentialrechnung; Entscheidungsräume und Verlustfunktionen (z.B. mittlerer absoluter Fehler, mittlere quadratische Abweichung, Hinge Loss, Negative Log Likelihood); Lineare Transformationen (Einbettungen von Datenpunkten in Vektorräumen); Regularisierungstechniken (z. B. Dropout, Mini-Batching, L1/L2-Regularisierung); statistische Gütekriterien (wie F-Maß, Korrektklassifikationsrate); Validierungsverfahren (z.B. Kreuzvalidierung); Ausblick auf vertiefende Themen (z.B. Multi-Class/Multi-Label, Regression, dynamische Daten); Bezug zu Data Science durch Umsetzen eines Beispielalgorithmus wie z.B. eines flachen Neuronalen Netzes zur Klassifikation
Übersicht über für Statistik und Data Science relevante Grundbegriffe und Kenntnisse (z.B. Entropie, Kullback-Leibler-Divergenz, Kreuzentropie, Mutual Information, Differentielle Entropie); Bezug zu Data Science durch Verwendung in einem Beispielalgorithmus wie z.B. der Induktion von Entscheidungsbäumen
Ähnlichkeitsmaße (z.B. Kosinus-Ähnlichkeit, Euklidischer Abstand); Datentransformation (z. B. Diskretisierung, Normalisierung); Datenvisualisierung (z.B. Balkendiagramme, Box-Plots, Scatter-Plots, PCA); Intrinsische und extrinsische Gütekriterien; Bezug zu Data Science durch Umsetzen eines Beispielalgorithmus wie z. B. Clustering mit k-means
|