Also nach deiner Wahl der Indices (ist anders als auf Wikipedia) gilt
für den Fehler
Das sind alles Skalare, aber du kannst jene Signale, die von m abhängen,
auch als Vektor (allgemein mit fetten Kleinbuchstaben gekennzeichnet)
schreiben:
Das wird hier bei den adaptiven Filtern genutzt, damit das ganze ein
bisschen übersichtlicher ist. Für die Summe gilt:
Jetzt sind Vektoren standardmäßig Spaltenvektoren, sodass "hoch T"
daraus einen Zeilenvektor macht (transponieren). Zeilenvektor mal
Spaltenvektor ergibt ein Skalar, sodass auch e[i] ein Skalar ist.
Aber wenn du jetzt den ganzen Mist partiell ableitest, dann kommt da
doch ein Vektor raus:
Du leitest ja nach allen M+1 Koeffizienten w einzeln ab!
So, puh. Das ist der Gradient. Und wenn du dir das für ein m mal
überlegst (nimm die Gleichung ganz oben für M=1), dann bleibt da immer
nur das u[i-m] übrig:
Aber das ist doch eigentlich genau die gleiche Herleitung wie beim
LMS-Algorithmus. Denn letztendlich geht es darum, zur
Wiener-Hopf-Gleichung zu gelangen und dann deren Lösung (die optimalen
Koeffizienten) iterativ zu bestimmen.
Darf ich fragen was deine Quelle für LMS/NLMS war?