Vorwärtsgekoppeltes neuronales Netz (FFNN) Modell-Topologie mit einem versteckten… | Download Wissenschaftliches Diagramm

… Das vorwärtsgerichtete neuronale Netz (FFNN) ist ein einfacher Typ eines neuronalen Netzes, bei dem sich die Informationen nur in einer Richtung (d. h. vorwärts) von den Eingangsknoten über die verborgenen Knoten zu den Ausgangsknoten bewegen. Es gibt keine Zyklen oder Schleifen im Netz. Die Gruppe von Knoten in jeder Spalte wird als Schicht bezeichnet. Ein typisches FFNN mit einer einzigen verborgenen Schicht ist in Abbildung 1 dargestellt. Die Linien, die die Neuronen der Eingabeschicht und die Neuronen der verborgenen Schicht verbinden, stellen die Netzgewichte dar. Das verborgene Neuron summiert das entsprechende Gewicht aller Eingangsverbindungen auf. Die gewichtete Summierung wird dann durch eine Aktivierungsfunktion in der versteckten Schicht geleitet. Die Aktivierungsfunktion, z. B. eine Sigmoidfunktion, verleiht dem FFNN-Modell die Fähigkeit, die geeigneten Informationen auszuwählen, die an das nächste Neuron weitergegeben werden. Ein grundlegender Knoten oder ein Berechnungselement für das FFNN-Modell ist in Abbildung 2 dargestellt. Ein Schwellenwert oder eine Vorspannung wird im Allgemeinen verwendet, um die Leistung des Netzes zu regulieren. Um die Beziehung zwischen Eingabe und Ausgabe zu verallgemeinern, wird das FFNN-Modell anhand vorgegebener Daten trainiert. Während dieses Trainings lernt das FFNN-Modell das Verhalten des Modells, indem es seine Gewichte und Verzerrungen anpasst. Der Trainingsprozess erfolgt in der Regel mit einem Backpropagation-Algorithmus, um eine bestimmte „Kostenfunktion“ wie den mittleren quadratischen Fehler (MSE) zu minimieren. In dieser Arbeit wurde ein Satz von vier Eingangs- und drei Ausgangsparametern ausgewählt, um das Synthesemodell der PHAs zu entwickeln. Die Auswahl der Input-Output-Parameter des Modells ist die gleiche wie in der experimentellen Arbeit, die durchgeführt wurde, um die wichtigen Parameter im Syntheseverfahren zu bestimmen. Da es mehr Input als Output gibt, reicht die Verwendung einer einzigen versteckten Schicht in der FFNN-Topologie aus. Die Wahl einer versteckten Schicht ist in der Regel ausreichend für die Approximation einer kontinuierlichen nichtlinearen Funktion, da mehr versteckte Schichten zu einer Überanpassung führen können. Die Menge der verfügbaren experimentellen Daten ist jedoch begrenzt, was eine angemessene Generalisierung des FFNN-Modells während des Trainingsprozesses behindern kann. Um mehr Daten für das FFNN-Training zu generieren und zu wiederholen, wird die Bootstrap-Resampling-Methode verwendet. Die Bootstrap-Methode verwendet eine Randomisierungstechnik, um die ursprünglichen Daten neu anzuordnen und in einen neuen, größeren Datensatz umzuwandeln. Diese Technik verbessert nachweislich die Generalisierung und Robustheit des neuronalen Netzmodells. Ein anschaulicher Überblick über die Neuabtastung und -verteilung der Daten mit dieser Technik ist in Abbildung 3 dargestellt. Im ursprünglichen Datensatz sind die Daten so verteilt, wie es die Farbintensität vorgibt. Nach der Neuabtastung weisen die neuen Datensätze eine zufällige Verteilung mit Ersetzung der ursprünglichen Daten auf (siehe Farbintensität der neuen Datensätze). In dieser Studie wurde die Bootstrap-Technik verwendet, um aus den ursprünglichen 16 Versuchsdaten 160 Datenpunkte zu erzeugen. Dieser neue Datensatz wurde nach dem Zufallsprinzip in einen Trainings- (60%), einen Validierungs- (20%) und einen Testdatensatz (20%) aufgeteilt. Die Leistung des FFNN wurde anhand des mittleren quadratischen Fehlers (MSE), des mittleren quadratischen Fehlers (RMSE) und der Bestimmtheitskorrelation (R 2 ) gemessen. In dieser Arbeit wurde das FFNN mit der Levenberg-Marquardt-Backpropagationstechnik trainiert. Diese Technik ist bekannt dafür, FFNN mit guter Generalisierung und schneller Konvergenz zu erzeugen. Das FFNN wird iterativ mit einer unterschiedlichen Anzahl von versteckten Neuronen trainiert, um das beste Modell mit dem niedrigsten MSE- und RMSE-Wert mit R 2 nahe eins zu erhalten. Die Leistung des FFNN wurde anhand des mittleren quadratischen Fehlers (MSE), des mittleren quadratischen Fehlers (RMSE) und der Bestimmtheitskorrelation (R 2 ) gemessen. In dieser Arbeit wurde das FFNN mit der Levenberg-Marquardt-Backpropagationstechnik trainiert. Diese Technik ist bekannt dafür, FFNN mit guter Generalisierung und schneller Konvergenz zu erzeugen. Das FFNN wird iterativ mit einer unterschiedlichen Anzahl von versteckten Neuronen trainiert, um das beste Modell mit dem niedrigsten MSE- und RMSE-Wert mit R 2 nahe eins zu erhalten. Die gesamte Simulationsarbeit zur Modellierung und Analyse des neuronalen Netzes wurde mit Matlab durchgeführt …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.