Gradient Descent

Schritt für Schritt zum Minimum. Beobachte, wie die Lernrate den Weg beeinflusst.

Lernrate η 0.90
Startpunkt x₁ 3.0
$f(x) = (x - 5)^2 \qquad f'(x) = 2(x - 5)$
$x_{i+1} = x_i - \eta \cdot f'(x_i)$
Schritte

Zu groß ($\eta \approx 1$): Springt über das Minimum hinweg, oszilliert oder divergiert.

Zu klein ($\eta \approx 0.01$): Konvergiert sicher, braucht aber viele Schritte.

Optimal ($\eta \approx 0.3\text{–}0.5$): Schnelle Konvergenz ohne Oszillation.

Noch kein Schritt