Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
kurse:efcomputergrafik:kw10 [2020/03/04 21:07] Simon Knaus |
kurse:efcomputergrafik:kw10 [2020/04/02 08:24] (current) Simon Knaus [Aufgaben] |
||
---|---|---|---|
Line 2: | Line 2: | ||
* Jede/r kann eine multivariate Regression mit und ohne SciKit durchführen | * Jede/r kann eine multivariate Regression mit und ohne SciKit durchführen | ||
- | * Jede/r kennt eine Strategie, wie das beste Modell ausgewählt werden kann und kennt die Begriff Trainings, Validierungs- und Testdatensatz. | + | * <del>Jede/r kennt eine Strategie, wie das beste Modell ausgewählt werden kann und kennt die Begriff Trainings, Validierungs- und Testdatensatz.</ |
* Jede/r kennt die Idee des << | * Jede/r kennt die Idee des << | ||
Line 46: | Line 46: | ||
\[ | \[ | ||
X= \begin{bmatrix} | X= \begin{bmatrix} | ||
- | 1& x_{1}^1 & x_{12} & \cdots & x_{1}^j & \cdots & x_{1}^p\\ | + | 1& x_{1}^1 & x_{1}^2 & \cdots & x_{1}^j & \cdots & x_{1}^p\\ |
- | 1& x_{2}^1 & x_{22} & \cdots & x_{2}^j & \cdots & x_{2}^p\\ | + | 1& x_{2}^1 & x_{2}^2 & \cdots & x_{2}^j & \cdots & x_{2}^p\\ |
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots\\ | \vdots & \vdots & \ddots & \vdots & \ddots & \vdots\\ | ||
- | 1& | + | 1& |
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots\\ | \vdots & \vdots & \ddots & \vdots & \ddots & \vdots\\ | ||
1& x_{n}^1 & x_{n}^2 & \cdots & x_{n}^j & \cdots & x_{n}^p | 1& x_{n}^1 & x_{n}^2 & \cdots & x_{n}^j & \cdots & x_{n}^p | ||
Line 88: | Line 88: | ||
\nabla f= [\frac{\partial f}{\partial x_1}, | \nabla f= [\frac{\partial f}{\partial x_1}, | ||
\] | \] | ||
- | Der Gradient von $f$ hat die wichtige Eigenschaft, | + | Der Gradient von $f$ hat die wichtige Eigenschaft, |
Line 99: | Line 99: | ||
- $v_{t+1}=v_t-\gamma \cdot \nabla f$, z.B. mit $\gamma=\frac 14$ und $v_1=v_0-\frac{1}{4}\cdot [2, | - $v_{t+1}=v_t-\gamma \cdot \nabla f$, z.B. mit $\gamma=\frac 14$ und $v_1=v_0-\frac{1}{4}\cdot [2, | ||
- | Die Schlaufe kann forgesetzt | + | Die Schlaufe kann fortgesetzt |
==== Aufgaben ==== | ==== Aufgaben ==== | ||
- | Nimm für die folgenden Aufgaben die Funktion $f(x, | + | Nimm für die folgenden Aufgaben die Funktion $f(x, |
- Zeichne einen << | - Zeichne einen << | ||
- | - Contourplot können | + | - Contourplot können mit Geogebra ('' |
- Berechne einen Gradienten in einem Punkt, welcher auf einer gezeichneten Niveaulinie liegt. Zeichne den Gradienten als Vektor angehängt in diesem Punkt ein. Wähle einen anderen Punkt und mache dasselbe? Was fällt auf? | - Berechne einen Gradienten in einem Punkt, welcher auf einer gezeichneten Niveaulinie liegt. Zeichne den Gradienten als Vektor angehängt in diesem Punkt ein. Wähle einen anderen Punkt und mache dasselbe? Was fällt auf? | ||
- Berechne zwei Schritte des << | - Berechne zwei Schritte des << | ||
- Implementiere den Gradient << | - Implementiere den Gradient << | ||
- Wähle ein Funktion mit mehr als einem Minimum und lasse den << | - Wähle ein Funktion mit mehr als einem Minimum und lasse den << | ||
+ | - Bestimme $\alpha$ und $\beta$ mit dem << | ||
+ | - Standardisiere((Standardisieren heisst, dass jede Beobachtung $x_i$ durch $\frac{x_i-\mu}{\sigma}$ ersetzt wird. Es ist dabei $\mu=\frac{1}{n}\sum_{i=1}^n x_i$ und $\sigma=\sqrt{\sum_{i=1}^n (x_i-\mu)^2}$.)) die Beobachtungen zuerst, sonst kommt es zu numerischen Problemen. | ||
+ | - Verwende für das Beispiel zuerst nur z.B. 50 Datensätze und vergleiche die Lösung mit der scikit Lösung. | ||
+ | - Führe die Rechnung mit allen Datensätzen durch und vergleiche wiederum die Lösung mit der scikit Lösung. | ||
+ | - Wie könnten ein bestes Model ausgewählt werden? Überlege dir Strategie, welche du verwenden könntest, um ein bestes Modell zu indentifizieren. Nota bene: Das Modell soll am besten auf neuen, ungesehen, Daten sein. | ||