Gradient Descent
Schritt für Schritt zum Minimum. Beobachte, wie die Lernrate den Weg beeinflusst.
Lernrate η
0.90
Startpunkt x₁
3.0
$f(x) = (x - 5)^2 \qquad f'(x) = 2(x - 5)$
$x_{i+1} = x_i - \eta \cdot f'(x_i)$
Schritte
Zu groß ($\eta \approx 1$): Springt über das Minimum hinweg, oszilliert oder divergiert.
Zu klein ($\eta \approx 0.01$): Konvergiert sicher, braucht aber viele Schritte.
Optimal ($\eta \approx 0.3\text{–}0.5$): Schnelle Konvergenz ohne Oszillation.
Noch kein Schritt
–