Feed forward neural network (FFNN) -mallin topologia yhdellä piilotetulla… | Lataa tieteellinen kaavio

… Eteenpäin syöttävä neuroverkko (FFNN) on suoraviivainen neuroverkkotyyppi, jossa tieto liikkuu vain yhteen suuntaan (eli eteenpäin) tulosolmuista piilosolmujen kautta lähtösolmuihin. Verkossa ei ole syklejä tai silmukoita. Kunkin sarakkeen solmujen ryhmää kutsutaan kerrokseksi. Tyypillinen FFNN, jossa on yksi piilokerros, on esitetty kuvassa 1. Tulokerroksen neuronien ja piilokerroksen neuronien väliset viivat edustavat verkon painoja. Piiloneuroni laskee yhteen kaikkien tuloyhteyksien vastaavat painot. Painotettu summaus johdetaan sitten piilokerroksessa olevan aktivointifunktion läpi. Aktivointifunktio, kuten sigmoidi, antaa FFNN-mallille kyvyn valita sopiva tieto siirrettäväksi seuraavalle neuronille. FFNN-mallin perussolmu tai laskentaelementti on esitetty kuvassa 2. Kynnysarvoa tai harhaa käytetään yleensä verkon suorituskyvyn säätelemiseen. Jotta syötteen ja ulostulon välinen suhde voidaan yleistää, FFNN-malli koulutetaan käyttämällä ennalta määritettyjä tietoja. Koulutuksen aikana FFNN-malli oppii mallin käyttäytymisen säätämällä sen painoja ja harhoja. Koulutusprosessi tehdään yleensä käyttämällä backpropagation-algoritmia tietyn ”kustannusfunktion”, kuten keskimääräisen neliövirheen (MSE), minimoimiseksi. Tässä työssä valittiin neljän tulo- ja kolmen lähtöparametrin joukko PHA:n synteesimallin kehittämiseksi. Mallin tulo- ja lähtöarvojen valinta on sama kuin kokeellisessa työssä, joka suoritettiin synteesimenettelyssä merkittävien parametrien määrittämiseksi. Koska syötteitä on enemmän kuin ulostuloja, yhden piilokerroksen käyttö FFNN-topologiassa riittää. Yhden piilokerroksen valinta on yleensä riittävä jatkuvan epälineaarisen funktion approksimointiin, sillä useampi piilokerros voi aiheuttaa ylisovittamista . Käytettävissä olevan kokeellisen datan määrä on kuitenkin rajallinen, mikä voi estää FFNN-mallia yleistymästä kunnolla sen koulutusprosessin aikana. Jotta FFNN-koulutusta varten voitaisiin tuottaa ja toistaa enemmän dataa, käytetään bootstrap-resampling-menetelmää . Bootstrap-menetelmässä käytetään satunnaistamistekniikkaa alkuperäisen datan uudelleenjärjestelyyn ja näytteenottoon uudeksi suuremmaksi tietokokonaisuudeksi. Tämä tekniikka on todistetusti parantanut neuroverkkomallin yleistettävyyttä ja kestävyyttä . Kuvassa 3 on havainnollinen yleiskuva siitä, miten tiedot otetaan uudelleen näytteeksi ja jaetaan uudelleen tätä tekniikkaa käyttämällä. Alkuperäisessä tietokokonaisuudessa tiedot jakautuvat värin voimakkuuden mukaan. Uudelleen näytteenoton jälkeen uusilla tietokokonaisuuksilla on satunnaistettu jakauma, jossa alkuperäiset tiedot on korvattu (katso uusien tietokokonaisuuksien värin voimakkuus). Tässä tutkimuksessa bootstrap-tekniikkaa käytettiin 160 datapisteen tuottamiseksi alkuperäisistä 16 koetietopisteestä. Tämä uusi tietokokonaisuus jaettiin satunnaisesti harjoittelu- (60 %), validointi- (20 %) ja testitietokokonaisuuteen (20 %). FFNN:n suorituskykyä mitattiin keskimääräisen neliövirheen (MSE), keskimääräisen neliövirheen juuren (RMSE) ja määrityskorrelaation (R 2 ) avulla. Tässä työssä FFNN koulutettiin Levenberg-Marquardtin backpropagation-tekniikalla. Tämän tekniikan tiedetään tuottavan FFNN:n, jolla on hyvä yleistettävyys ja nopea konvergenssi. FFNN:ää koulutetaan iteratiivisesti käyttämällä eri piiloneuronien lukumääriä, jotta saadaan paras malli, jonka MSE- ja RMSE-arvot ovat alhaisimmat ja jonka R 2 on lähellä yhtä. Kaikki neuroverkkoa koskevat simulointityöt FFNN:n suorituskykyä mitattiin käyttämällä keskimääräistä neliövirhettä (MSE), keskimääräistä neliövirheen juurta (RMSE) ja määrityskorrelaatiota (R 2 ). Tässä työssä FFNN koulutettiin Levenberg-Marquardtin backpropagation-tekniikalla. Tämän tekniikan tiedetään tuottavan FFNN:n, jolla on hyvä yleistettävyys ja nopea konvergenssi. FFNN:ää koulutetaan iteratiivisesti käyttämällä eri piiloneuronien lukumääriä, jotta saadaan paras malli, jonka MSE- ja RMSE-arvot ovat alhaisimmat ja jonka R 2 on lähellä yhtä. Kaikki neuroverkon mallintamiseen ja analysointiin liittyvä simulointityö suoritettiin Matlabilla …

Vastaa

Sähköpostiosoitettasi ei julkaista.