Jeevitha Maruthachalam*
Künstliche neuronale Netze werden häufig eingesetzt, um die menschliche Entscheidungsfähigkeit zu unterstützen und Inkonsistenzen in der Praxis sowie Fehler aufgrund mangelnder Erfahrung zu vermeiden. In diesem Artikel haben wir verschiedene Lernregeln in künstlichen neuronalen Netzen untersucht, beispielsweise Preceptron-Lernen, Fehlerkorrektur, Hebbsches und Wettbewerbslernen. Lernregeln sind Algorithmen, die Änderungen an den Gewichten der Verbindungen in einem Netzwerk steuern.
Sie integrieren ein Verfahren zur Fehlerreduzierung, indem sie die Differenz zwischen der gewünschten Ausgabe und einer tatsächlichen Ausgabe nutzen, um deren Gewichte während des Trainings zu ändern. Die Lernregel wird typischerweise wiederholt auf denselben Satz von Trainingseingaben über eine große Anzahl von Epochen hinweg angewendet, wobei der Fehler über die Epochen hinweg schrittweise reduziert wird, während die Gewichte fein abgestimmt werden. Dieser Artikel konzentriert sich auch auf eine der neuronalen Netzwerktechniken namens Multilayer Perceptron (MLP) sowie auf ihre Anwendungen und Vor- und Nachteile.