Modelltopologi för Feed Forward Neural Network (FFNN) med en enda dold modell för… | Ladda ner vetenskapligt diagram

… Framåtriktade neurala nätverk (FFNN) är en okomplicerad typ av neurala nätverk där informationen endast rör sig i en riktning (dvs. framåt) från ingångsnoderna, genom de dolda noderna och till utgångsnoderna. Det finns inga cykler eller slingor i nätverket. Gruppen av noder i varje respektive kolumn kallas för ett lager. Ett typiskt FFNN med ett enda dolt lager visas i figur 1. Linjerna som förbinder neuronerna i ingångslagret och neuronerna i det dolda lagret representerar nätverksvikterna. Den dolda neuronen summerar motsvarande vikt från alla ingångsförbindelser. Den viktade summan skickas sedan genom en aktiveringsfunktion i det dolda lagret. Aktiveringsfunktionen, t.ex. sigmoid, ger FFNN-modellen förmågan att välja vilken information som ska föras vidare till nästa neuron. En grundläggande nod eller beräkningselement för FFNN-modellen visas i figur 2. Ett tröskelvärde eller en bias används i allmänhet för att reglera nätverkets prestanda. För att generalisera förhållandet mellan input och output tränas FFNN-modellen med hjälp av förutbestämda data. Under denna träning lär sig FFNN-modellen modellens beteende genom att justera dess vikter och bias. Träningsprocessen sker vanligtvis med hjälp av en backpropagationsalgoritm för att minimera en viss ”kostnadsfunktion” som t.ex. medelkvadratfel (MSE). I det här arbetet valdes en uppsättning med fyra ingångs- och tre utgångsparametrar för att utveckla syntesmodellen för PHAs. Valet av modellens input-output är detsamma som i det experimentella arbetet, som utfördes för att bestämma de viktiga parametrarna i syntesförfarandet. Eftersom det finns mer input än output räcker det med ett enda dolt lager i FFNN-topologin . Valet av ett dolt skikt är vanligtvis tillräckligt för approximation av kontinuerliga icke-linjära funktioner, eftersom fler dolda skikt kan leda till överanpassning . Mängden tillgängliga experimentella data är dock begränsad och detta kan hindra FFNN-modellen från att generaliseras ordentligt under träningsprocessen. För att generera och replikera fler data för FFNN-träning används bootstrap-återprovningsmetoden . Bootstrap-metoden använder sig av en randomiseringsteknik för att ordna om och sampla de ursprungliga uppgifterna till ett nytt större dataset. Denna teknik har visat sig förbättra generaliseringen och robustheten hos den neurala nätverksmodellen . En beskrivande översikt över hur data återskapas och omfördelas med hjälp av den här tekniken illustreras i figur 3. I den ursprungliga datamängden är uppgifterna fördelade på det sätt som framgår av färgintensiteten. Efter omprovtagning har de nya datamängderna en slumpmässig fördelning med ersättning av de ursprungliga uppgifterna (se färgintensiteten i de nya datamängderna). I den här studien användes bootstrap-tekniken för att ta fram 160 datapunkter från de ursprungliga 16 experimentella datapunkterna. Detta nya dataset delades slumpmässigt upp i träningsdataset (60 %), valideringsdataset (20 %) och testdataset (20 %). FFNNN:s prestanda mättes med hjälp av medelkvadratfel (MSE), rotmedelkvadratfel (RMSE) och bestämningskorrelation (R 2 ). I detta arbete tränades FFNN med hjälp av Levenberg-Marquardts backpropagationsteknik. Denna teknik är välkänd för att producera FFNN med god generalisering och snabb konvergens. FFNN tränas iterativt med olika antal dolda neuroner för att få fram den bästa modellen med det lägsta MSE- och RMSE-värdet med R 2 nära ett . Alla simuleringar av neurala nätverk FFNN:s prestanda mättes med hjälp av medelkvadratfel (MSE), rotmedelkvadratfel (RMSE) och bestämningskorrelation (R 2 ). I detta arbete tränades FFNN med hjälp av Levenberg-Marquardts backpropagationsteknik. Denna teknik är välkänd för att producera FFNN med god generalisering och snabb konvergens. FFNN tränas iterativt med olika antal dolda neuroner för att få fram den bästa modellen med det lägsta MSE- och RMSE-värdet med R 2 nära ett . Allt simuleringsarbete avseende modellering och analys av neurala nätverk utfördes med hjälp av Matlab …

Lämna ett svar

Din e-postadress kommer inte publiceras.