Lineare Regression

Wie wird eine Funktionsgleichung aus Messwertpaaren ermittelt?

Notwendige mathematische Grundlagen:

Um aus 7 Messpunkten der \( I \)-\( U \)-Kennlinie eines Varistors annähernd die diesen Vorgang beschreibende mathematische Funktion (hier eine Potenzfunktion) zu ermitteln, bedient man sich der Ausgleichsrechnung, lineare bzw. nichtlineare Regression genannt.

Es wird vermutet, dass die folgende Beschreibungsgleichung den Vorgang hinreichend genau wiedergibt:

\( \dfrac{I}{\mathrm{A}} = \left( \dfrac{\dfrac{U}{\mathrm{V}}}{\dfrac{B}{\mathrm{V}}} \right)^n → \) allgemeine Form: \( y = \mathrm{a·x}^\mathrm{b} \)

mit:

\( y=\dfrac{I}{\mathrm{A}} \) ; \( \quad a = 1 \); \( \quad x = \dfrac{\dfrac{U}{\mathrm{V}}}{\dfrac{B}{\mathrm{V}}} \); \( \quad b = n \)

Durch logarithmieren kann man diese Potenzfunktion auf eine lineare Funktion mit den Unbekannten \( B \) und \( n \) zurückführen.

So könnte man vorgehen:

\( \dfrac{I}{\mathrm{A}} = \left( \dfrac{U}{B} \right)^n \)
Beide Seiten logarithmieren zur Basis 10; also \( \mathrm{lg}=\mathrm{log} \)
\( \mathrm{log}\left(\dfrac{I}{\mathrm{A}}\right) = \mathrm{log}\left( \dfrac{U}{B} \right)^n \)
wegen \( \mathrm{log}\left( \dfrac{U}{B} \right)^n=n·\mathrm{log}\left( \dfrac{U}{B} \right) \)
(Logarithmengesetze wiederholen!)
folgt
\( \mathrm{log}\left(\dfrac{I}{\mathrm{A}}\right) = n·\mathrm{log}\left( \dfrac{U}{B} \right) \)
wegen \( \mathrm{log}\left( \dfrac{U}{B} \right)=log(\mathit{\mathrm{U}}) - \mathrm{log}(B) \)
(Logarithmengesetze wiederholen!)
folgt
\( \mathrm{log}\left(\dfrac{I}{\mathrm{A}}\right) = n·\left[log(\mathit{\mathrm{U}}) - \mathrm{log}(B)\right] \)
oder
\( \mathrm{log}\left(\dfrac{I}{\mathrm{A}}\right) = n·\mathrm{log}\left( U \right) - n·\mathrm{log}\left(\mathit{\mathrm{B}} \right) \)
ausmultipliziert!

mit

\( y=\mathrm{log}\left(\dfrac{I}{\mathrm{A}}\right) \); \( b = n \); \( x = \mathrm{log}(U) \); \( a = -n·\mathrm{log}(B) \)

ergibt sich die lineare Regressionsgleichung

\( y = b·x + a \)

mit den Unbekannten \( a \) und \( b \).

Jetzt setzt der Algorithmus der linearen Regression ein.

Schrittweise Wiederholung des Algorithmus der Regression

Schrittfolge:

1.Umrechnung der Messwertpaare \( (U/I) \) in Messwertpaare \( (x/y) \) der Regressionsgeraden \( y = b·x + a \).
→ Vergleiche: Beispiel 12 (Varistorkennlinie) Lernprogramm Grundstromkreis
2.Berechnung der Unbekannten \( a \) und \( b \) der Regressionsgeraden \( y = b·x + a \) mit Hilfe der Methode der kleinsten Quadrate nach Gauß, d.h. der Abstand zwischen den Messwerten und den Funktionswerten der Regressionsgeraden soll minimal sein.
3.Definition der Zielfunktion \( M(a,b) \) der Extremwertaufgabe mit zwei Variablen \( a \) und \( b \):
\( M(a,b) = \displaystyle\sum_{i=1}^7 \left[ (y_i) - (a+b·x_i)^2 \right] = \mathrm{Minimum}! \)
(Rechnen mit Summenzeichen wiederholen!)

oder

\( M(a,b) = \left[ (y_1) - (a+b·x_1)^2 \right] + \left[ (y_2) - (a+b·x_2)^2 \right] + ... + \left[ (y_7) - (a+b·x_7)^2 \right] \)

Da es sich um eine Zielfunktion mit zwei Variablen \( a \) und \( b \) handelt, müssen die partiellen Ableitungen nach \( a \) bzw. \( b \) gleich Null gesetzt werden (notwendige Bedingung), um die extremalen Größen \( a \) und \( b \) zu erhalten.

\( \dfrac{\partial M}{\partial a} = 0 \) und \( \dfrac{\partial M}{\partial b} = 0 \)

Da die Zielfunktion \( M(a,b) \) eine verkette Funktion vom Typ

\( M(a,b) = \displaystyle\sum_{i=1}^7 (w_i)^2 \)

ist, muss die Kettenregel angewendet werden.

\( \dfrac{\partial M}{\partial a} = \displaystyle\sum_{i=1}^7 2·\left[ (y_i) - (a+b·x_i) \right]·(-1)=0 \)
(Partielle Ableitung wiederholen!)

oder

\( \dfrac{\partial M}{\partial a} = \displaystyle\sum_{i=1}^7 2·\left[ a+b·x_i - y_i \right]·(-1)=0 \)

analog folgt für die partielle Ableitung nach \( b \):

\( \dfrac{\partial M}{\partial b} = \displaystyle\sum_{i=1}^7 2·\left[ (y_i) - (a+b·x_i) \right]·(-x_i)=0 \)

oder

\( \dfrac{\partial M}{\partial b} = \displaystyle\sum_{i=1}^7 2·\left( a·x_i+b·x_i^2 - x_i·y_i \right)=0 \)

Die beiden Gleichungen \( \dfrac{\partial M}{\partial a} = 0 \) und \( \dfrac{\partial M}{\partial b} = 0 \) liefern ein 2/2 Gleichungssytem mit den Unbekannten \( a \) und \( b \).

Schreibt man auf die linke Seite die Summen mit den bekannten Messwertpaaren (\( x_i/y_i \)) der Regressionsgeraden und rechts die umgeformten Ausdrücke in \( a \) und \( b \), so erhält man:

erste Gleichung: \( \displaystyle\sum_{i=1}^7 y_i = 7·a + \left( \displaystyle\sum_{i=1}^7 x_i \right)·b \)
zweite Gleichung: \( \displaystyle\sum_{i=1}^7 x_i·y_i = \left(\displaystyle\sum_{i=1}^7 x_i \right)·a + \left(\displaystyle\sum_{i=1}^7 x_i^2 \right)·b \)

Die erste Gleichung nach \( a \) aufgelöst und in die zweite Gleichung eingesetzt und alle Summen berechnet liefert:

\( a = - 3{,}62 \) und \( b = 3{,}279 \)

Die gesuchte Regressionsgerade, die den Vorgang annähernd beschreibt, lautet:

\( y = bx + a = 3{,}729·x - 3{,}620 \)

Die Rücktransformation auf die gesuchte Beschreibungsfunktion der \( I \)-\( U \)-Kennlinie des Varistors liefert die gesuchten Parameter \( n \) und \( b \):

\( n = b = 3{,}729 \)
\( a = -n·\mathrm{log}(B) \) (Auflösen der logarithmischen Gleichung nach B)
\( \mathrm{log}(B) = \dfrac{-a}{n} \) (Umkehrfunktion zu lg bilden)
\( 10^{\mathrm{log}(B)} = 10^{\dfrac{-a}{n}} \) (wegen \( 10^{\mathrm{log}(B)}=B) \)
\( B = 10^{\dfrac{-a}{n}} \) (Werte \( a = -3{,}620 \), \( b = 3{,}729 \) einsetzen )
\( B = 9{,}3 \, \mathrm{V} \)

Also lautet die mathematische Beschreibungsfunktion \( I (U) \) der \( I \)-\( U \)-Kennlinie des Varistors aus den Messwertpaaren:

\( \dfrac{I}{\mathrm{A}} = \left( \dfrac{U}{9{,}3 \, \mathrm{V}} \right)^{3{,}729} \)

Sie werden zugeben, dass dies ein mühevoller konventioneller Weg zur Lösung war.

Schneller geht es mit Mathcad