Feed forward neural netværksmodel (FFNN) topologi med en enkelt skjult… | Download Videnskabeligt diagram

… Forward Neural Network (FFNN) er en simpel type neuralt netværk, hvor informationen kun bevæger sig i én retning (dvs. fremad) fra indgangsknuderne, gennem de skjulte knuder og til udgangsknuderne. Der er ingen cyklusser eller sløjfer i netværket. Gruppen af knuder i hver enkelt kolonne kaldes et lag. Et typisk FFNNN med et enkelt skjult lag er vist i figur 1. De linjer, der forbinder neuronerne i indgangslaget og neuronerne i det skjulte lag, repræsenterer netværksvægtene. Den skjulte neuron opsummerer den tilsvarende vægt fra alle inputforbindelser. Den vægtede summering sendes derefter gennem en aktiveringsfunktion i det skjulte lag. Aktiveringsfunktionen, f.eks. sigmoidfunktionen, giver FFNN-modellen mulighed for at vælge de relevante oplysninger, der skal sendes videre til den næste neuron. En grundlæggende knude eller et beregningselement for FFNN-modellen er vist i figur 2. En tærskelværdi eller bias anvendes generelt til at regulere netværkets ydeevne. For at generalisere forholdet mellem input og output trænes FFNN-modellen ved hjælp af forudbestemte data. Under denne træning lærer FFNN-modellen modellens adfærd ved at justere dens vægte og biaser. Træningsprocessen foregår normalt ved hjælp af en backpropagationsalgoritme for at minimere en bestemt “omkostningsfunktion” som f.eks. den gennemsnitlige kvadrerede fejl (MSE). I dette arbejde blev der valgt et sæt af fire input- og tre outputparametre til at udvikle en syntesemodel for PHA’er. Valget af modellens input-output er det samme som i det eksperimentelle arbejde, der blev udført for at bestemme de væsentlige parametre i synteseproceduren. Da der er mere input end output, er det tilstrækkeligt at anvende et enkelt skjult lag i FFNN-topologien . Valget af et skjult lag er normalt tilstrækkeligt til tilnærmelse af en kontinuerlig ikke-lineær funktion, da flere skjulte lag kan medføre overtilpasning . Mængden af tilgængelige eksperimentelle data er imidlertid begrænset, og dette kan forhindre FFNN-modellen i at blive generaliseret korrekt i løbet af træningsprocessen. For at generere og gentage flere data til FFNN-træning anvendes bootstrap-resamplingmetoden . Bootstrap-metoden anvender randomiseringsteknik til at omarrangere og genudtage de oprindelige data til et nyt større datasæt. Denne teknik har vist sig at forbedre generaliseringen og robustheden af den neurale netværksmodel . En beskrivende oversigt over, hvordan dataene genudtages og omfordeles ved hjælp af denne teknik, er illustreret i figur 3. I det oprindelige datasæt er dataene fordelt som angivet ved farveintensiteten. Efter genudvælgelse har de nye datasæt en randomiseret fordeling med udskiftning af de oprindelige data (se farveintensiteten i de nye datasæt). I denne undersøgelse blev bootstrap-teknikken anvendt til at producere 160 datapunkter ud fra de oprindelige 16 eksperimentelle datapunkter. Dette nye datasæt blev tilfældigt opdelt i et træningsdatasæt (60 %), et valideringsdatasæt (20 %) og et testdatasæt (20 %). FFNNN’s ydeevne blev målt ved hjælp af den gennemsnitlige kvadrerede fejl (MSE), root mean squared error (RMSE) og bestemmelseskorrelationen (R 2 ). I dette arbejde blev FFNNN trænet ved hjælp af Levenberg-Marquardt backpropagationsteknikken. Denne teknik er velkendt for at producere FFNN med god generalisering og hurtig konvergens. FFNNN trænes iterativt ved hjælp af forskellige antal skjulte neuroner med henblik på at opnå den bedste model med den laveste MSE- og RMSE-værdi med R 2 tæt på 1 . Alle simuleringer vedrørende neurale netværk FFNNN’s ydeevne blev målt ved hjælp af den gennemsnitlige kvadrerede fejl (MSE), root mean squared error (RMSE) og bestemmelseskorrelationen (R 2 ). I dette arbejde blev FFNNN trænet ved hjælp af Levenberg-Marquardt backpropagationsteknikken. Denne teknik er velkendt for at producere FFNN med god generalisering og hurtig konvergens. FFNNN trænes iterativt ved hjælp af forskellige antal skjulte neuroner med henblik på at opnå den bedste model med den laveste MSE- og RMSE-værdi med R 2 tæt på 1 . Alt simuleringsarbejde vedrørende modellering og analyse af neurale netværk blev udført ved hjælp af Matlab …

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.