Feed forward neural network (FFNN) model topologie met enkel verborgen… | Download Wetenschappelijk diagram

… Een voorwaarts neuraal netwerk (FFNN) is een eenvoudig type neuraal netwerk waarbij de informatie slechts in één richting (d.w.z. voorwaarts) van de invoerknooppunten, door de verborgen knooppunten en naar de uitvoerknooppunten gaat. Er zijn geen cycli of lussen in het netwerk. De groep knooppunten in elke kolom wordt een laag genoemd. Een typisch FFNN met een enkele verborgen laag is afgebeeld in figuur 1. De lijnen die de neuronen van de inputlaag en de neuronen van de verborgen laag verbinden, stellen de netwerkgewichten voor. Het verborgen neuron telt het overeenkomstige gewicht van alle ingangsverbindingen bij elkaar op. De gewogen optelling wordt vervolgens door een activeringsfunctie in de verborgen laag geleid. De activeringsfunctie, zoals sigmoïde, geeft het FFNN model de mogelijkheid om de juiste informatie te selecteren die aan het volgende neuron moet worden doorgegeven. Een basisknooppunt of rekenelement voor het FFNN-model is afgebeeld in figuur 2. Een drempelwaarde of bias wordt in het algemeen gebruikt om de netwerkprestaties te regelen. Om de relatie tussen de input en de output te veralgemenen, wordt het FFNN-model getraind met behulp van vooraf bepaalde gegevens. Tijdens deze training leert het FFNN model het gedrag van het model door de gewichten en biases aan te passen. Het trainingsproces wordt gewoonlijk uitgevoerd met behulp van een backpropagatie-algoritme om een bepaalde “kostenfunctie”, zoals de gemiddelde kwadratische fout (MSE), te minimaliseren. In dit werk is een set van vier input- en drie outputparameters geselecteerd om het synthesemodel van PHA’s te ontwikkelen. De selectie van de input-output van het model is dezelfde als in het experimentele werk, dat werd uitgevoerd om de significante parameters in de syntheseprocedure te bepalen. Aangezien er meer input dan output is, volstaat het gebruik van één enkele verborgen laag in de FFNN-topologie. De keuze van één verborgen laag is gewoonlijk voldoende voor het benaderen van continue niet-lineaire functies, aangezien meer verborgen lagen tot over-fitting kunnen leiden. De hoeveelheid beschikbare experimentele gegevens is echter beperkt en dit kan een belemmering vormen voor een goede generalisatie van het FFNN model tijdens het trainingsproces. Om meer gegevens voor de FFNN training te genereren en te repliceren, wordt de bootstrap resampling methode gebruikt. De bootstrap methode gebruikt een randomisatie techniek om de originele gegevens te herschikken en te repliceren in een nieuwe grotere dataset. Deze techniek heeft bewezen de generalisatie en robuustheid van het neurale netwerkmodel te verbeteren. Een beschrijvend overzicht van de wijze waarop de gegevens met behulp van deze techniek opnieuw worden bemonsterd en verdeeld, wordt gegeven in figuur 3. In de oorspronkelijke dataset zijn de gegevens verdeeld zoals aangegeven door de kleurintensiteit. Na het opnieuw bemonsteren hebben de nieuwe datasets een gerandomiseerde verdeling met vervanging van de oorspronkelijke gegevens (zie de kleurintensiteit van de nieuwe datasets). In deze studie werd de bootstrap-techniek gebruikt om 160 datapunten te produceren uit de oorspronkelijke 16 experimentele datapunten. Deze nieuwe dataset werd willekeurig verdeeld in een training- (60%), een validatie- (20%) en een testdataset (20%). De prestaties van het FFNN werden gemeten aan de hand van de gemiddelde kwadratische fout (MSE), de gemiddelde kwadratische fout (RMSE) en de determinatiecorrelatie (R 2 ). In dit werk werd het FFNN getraind met behulp van de Levenberg-Marquardt backpropagation techniek. Deze techniek staat erom bekend FFNN te produceren met een goede generalisatie en een snelle convergentie. Het FFNN is iteratief getraind met verschillende aantallen verborgen neuronen om het beste model te verkrijgen met de laagste MSE en RMSE waarde met R 2 in de buurt van één. Alle simulaties met betrekking tot het neuraal netwerk De prestaties van het FFNN werden gemeten aan de hand van de gemiddelde kwadratische fout (MSE), de gemiddelde kwadratische fout (RMSE), en de determinatiecorrelatie (R 2 ). In dit werk werd het FFNN getraind met behulp van de Levenberg-Marquardt backpropagation techniek. Deze techniek staat erom bekend FFNN te produceren met een goede generalisatie en een snelle convergentie. Het FFNN is iteratief getraind met verschillende aantallen verborgen neuronen om het beste model te verkrijgen met de laagste MSE en RMSE waarde met R 2 in de buurt van één. Al het simulatiewerk met betrekking tot neurale netwerk modellering en analyse werd uitgevoerd met behulp van Matlab …

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.