Topologia modelului de rețea neuronală Feed Forward (FFNN) cu o singură rețea ascunsă… | Descărcați Diagrama științifică

… Rețeaua neuronală de tip Forward (FFNN) este un tip simplu de rețea neuronală în care informația se deplasează doar într-o singură direcție (adică înainte) de la nodurile de intrare, prin nodurile ascunse și până la nodurile de ieșire. Nu există cicluri sau bucle în rețea. Grupul de noduri din fiecare coloană respectivă se numește strat. Un FFNN tipic cu un singur strat ascuns este prezentat în figura 1. Liniile care leagă neuronii din stratul de intrare și neuronii din stratul ascuns reprezintă ponderile rețelei. Neuronul ascuns însumează greutatea corespunzătoare din toate conexiunile de intrare. Suma ponderată este apoi trecută printr-o funcție de activare în stratul ascuns. Funcția de activare, cum ar fi funcția sigmoidă, oferă modelului FFNN capacitatea de a selecta informația adecvată pentru a fi transmisă neuronului următor. Un nod de bază sau un element de calcul pentru modelul FFNN este prezentat în figura 2. Un prag sau o polarizare este în general utilizat pentru a regla performanțele rețelei. Pentru a generaliza relația dintre intrare și ieșire, modelul FFNN este antrenat folosind date prestabilite. În timpul acestei instruiri, modelul FFNN învață comportamentul modelului prin ajustarea ponderilor și a polarizărilor sale. Procesul de instruire se realizează de obicei cu ajutorul unui algoritm de backpropagation pentru a minimiza o anumită „funcție de cost”, cum ar fi eroarea medie pătratică (MSE). În această lucrare, a fost selectat un set de patru parametri de intrare și trei parametri de ieșire pentru a dezvolta modelul de sinteză al PHA-urilor. Selecția intrărilor-ieșirilor modelului este aceeași cu cea din lucrarea experimentală, care a fost realizată pentru a determina parametrii semnificativi în procedura de sinteză. Având în vedere că există mai multe intrări decât ieșiri, este suficientă utilizarea unui singur strat ascuns în topologia FFNN . Alegerea unui singur strat ascuns este, de obicei, suficientă în scopul aproximării unei funcții neliniare continue, deoarece mai multe straturi ascunse pot provoca o supraadaptare . Cu toate acestea, cantitatea de date experimentale disponibile este limitată, ceea ce poate împiedica generalizarea adecvată a modelului FFNN în timpul procesului de formare. Pentru a genera și reproduce mai multe date pentru formarea FFNN, se utilizează metoda de reeșantionare bootstrap. Metoda bootstrap utilizează tehnica de randomizare pentru a rearanja și reeșantiona datele originale într-un nou set de date mai mare. Această tehnică s-a dovedit a îmbunătăți generalizarea și robustețea modelului de rețea neuronală. O imagine de ansamblu descriptivă a modului în care datele sunt reeșantionate și redistribuite prin utilizarea acestei tehnici este ilustrată în figura 3. În setul de date original, datele sunt distribuite după cum se observă prin intensitatea culorii. După reeșantionare, noile seturi de date au o distribuție aleatorie cu înlocuirea datelor originale (a se vedea intensitatea de culoare a noilor seturi de date). În acest studiu, tehnica bootstrap a fost utilizată pentru a produce 160 de puncte de date din cele 16 puncte de date experimentale originale. Acest nou set de date a fost împărțit în mod aleatoriu în set de date de instruire (60%), validare (20%) și testare (20%). Performanța FFNN a fost măsurată folosind eroarea medie pătratică (MSE), eroarea medie pătratică (RMSE) și corelația de determinare (R 2 ). În această lucrare, FFNN a fost antrenată folosind tehnica de backpropagare Levenberg-Marquardt. Această tehnică este bine cunoscută pentru a produce FFNN cu o bună generalizare și convergență rapidă. FFNN este antrenat în mod iterativ folosind diferite numere de neuroni ascunși pentru a obține cel mai bun model cu cea mai mică valoare MSE și RMSE cu R 2 aproape de unu . Toate lucrările de simulare referitoare la rețeaua neuronală Performanța FFNN a fost măsurată folosind eroarea medie pătratică (MSE), eroarea medie pătratică (RMSE) și corelația de determinare (R 2 ). În această lucrare, FFNN a fost antrenată utilizând tehnica de backpropagare Levenberg-Marquardt. Această tehnică este bine cunoscută pentru a produce FFNN cu o bună generalizare și convergență rapidă. FFNN este antrenat în mod iterativ folosind diferite numere de neuroni ascunși pentru a obține cel mai bun model cu cea mai mică valoare MSE și RMSE cu R 2 aproape de unu . Toate lucrările de simulare privind modelarea și analiza rețelelor neuronale au fost realizate cu ajutorul Matlab …

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.