- Einführung
- Wichtige Hinweise zu diesem Kurs
- Wie ist dieser Kurs aufgebaut?
- Kursmaterialien
- Installation vom Editor
- Bist du bereit?
- Lineare Regression: Ein einzelnes Neuron
- Lineare Regression
- Das Gradientenabstiegsverfahren
- Das Gradientenabstiegsverfahren (Steigung berechnen)
- Review: Theorie Gradientenverfahren
- Das Gradientenabstiegsverfahren (im Code)
- Das Gradientenabstiegsverfahren (weiter Hinweise)
- Aufgabe: Minimum von eigener Funktion finden lassen
- Kostenfunktion minimieren
- Das Gradientenabstiegsverfahren und die Kostenfunktion
- Kostenfunktion minimieren
- Berechnungen vektorisieren
- Review: Praktische Anwendung des Gradientenverfahrens
- Exkurs Intuition: Warum minimieren wir die quadrierten Abstände?
- Merkblatt [PDF]: Lineare Regression
- Preis von Autos vorhersagen
- Preis von Autos vorhersagen (Kostenfunktion anpassen)
- Exkurs: Partielle Ableitung
- Mehrere Parameter optimieren
- Warum müssen wir unsere Daten skalieren?
- Wie machen wir die Skalierung rückgängig?
- Abschlusstest Praxisprojekt
- Wie geht es weiter?: Erstelle noch weitere Modelle
- Merkblatt [PDF]: Praxisprojekt Lineare Regression
- Warum brauchen wir eine Aktivierungsfunktion?
- Vorstellung: Die Sigmoid-Funktion
- Wie interpretieren wir die Ergebnisse der Sigmoid-Funktion?
- Wie können wir die Kurse der Sigmoid-Funktion beeinflussen?
- Logistische Regression am Beispiel (Teil 1)
- Logistische Regression am Beispiel (Teil 2)
- Review: Logistische Regression Basics
- Logistische Regression: Unsere Kostenfunktion (Teil 1)
- Logistische Regression: Unsere Kostenfunktion (Teil 2)
- [Optional]: Weiterführende Links
- Merkblatt [PDF]: Logistische Regression
- Intuition: Ein AND lernen
- Mehrere Parameter (Teil 1)
- Mehrere Parameter (Teil 2)
- Gewichte als Liste übergeben (Teil 1)
- Gewichte als Liste übergeben (Teil 2)
- Gewichte als Liste übergeben (Teil 3)
- Review: Logistische Regression mit mehreren Parametern
- Merkblatt [PDF]: Logistische Regression mit mehreren Parametern
- Warum brauchen wir Matrizen?
- Matrizen in Python (Teil 1)
- Matrizen in Python (Teil 2)
- Matrix transponieren (Intuition)
- Matrix transponieren (in Python)
- Matrizenmultiplikation (Intuition)
- Matrizenmultiplikation (Python)
- Matrix und Vektor (Python)
- Review: Rechnen mit Matrizen
- Achtung: In Numpy sind Matrizen typisiert
- Merkblatt [PDF]: Rechnen mit Matrizen
- Logistische Regression vektorisieren (Teil 1)
- Logistische Regression vektorisieren (Teil 2)
- Kostenfunktion vektorisieren
- Aufgabe: Berechne verschiedene Ausdrücke
- Musterlösung: Berechne verschiedene Ausdrücke
- Warum kann die Logistische Regression nicht alle Probleme lösen?
- Merkblatt [PDF]: Logistische Regression mit Matritzen
- Vorstellung der MNIST-Daten
- Logistische Regression + MNIST
- Genauigkeit berechnen (Teil 1)
- Genauigkeit berechnen (Teil 2)
- Merkblatt [PDF]: Logistische Regression, MNIST
- Multiclass Logistic Regression
- One-Hot-Encoding (Numpy)
- One-Hot-Encoding (Pandas, optional)
- Wichtige Vorbereitung: Broadcasting von Operatoren
- Vorbereitung: Mehrere Modelle gleichzeitig trainieren
- Review: Multiclass Logistic Regression (Theorie)
- Exkurs (optional, mathematisch): Steigungs-Funktion Schritt für Schritt anpassen
- Multiclass Logistic Regression (Teil 1)
- Multiclass Logistic Regression (Teil 2)
- Multiclass Logistic Regression (Teil 3)
- Hinweis zur nächsten Lektion
- Multiclass Logistic Regression (Teil 4)
- Vorstellung: Objektorientierte Schreibweise
- Vorstellung / optional: Objektorientierte Schreibweise ausführlicher erklärt
- Merkblatt [PDF]: Multiclass Logistic Regression
- Wie ist ein Neuronales Netz aufgebaut?
- Wie machen wir mit einem Neuronen Netz eine Vorhersage?
- Intuition: Unsere Kostenfunktion