… Az előremenő neurális hálózat (FFNN) a neurális hálózatok egy egyszerű típusa, ahol az információ csak egy irányban (azaz előre) mozog a bemeneti csomópontoktól a rejtett csomópontokon keresztül a kimeneti csomópontokig. A hálózatban nincsenek ciklusok vagy hurkok. Az egyes oszlopokban lévő csomópontok csoportját rétegnek nevezzük. Egy tipikus FFNN egyetlen rejtett réteggel az 1. ábrán látható. A bemeneti réteg neuronjait és a rejtett réteg neuronjait összekötő vonalak a hálózat súlyait jelölik. A rejtett neuron az összes bemeneti kapcsolat megfelelő súlyát összegzi. A súlyozott összegzés ezután a rejtett rétegben egy aktiválási függvényen halad át. Az aktiválási függvény, például a szigmoid, lehetővé teszi az FFNN modell számára, hogy kiválassza a következő neuronhoz továbbítandó megfelelő információt. Az FFNN modell alapvető csomópontja vagy számítási eleme a 2. ábrán látható. A hálózat teljesítményének szabályozására általában küszöbértéket vagy torzítást használnak. A bemenet és a kimenet közötti kapcsolat általánosítása érdekében az FFNN modellt előre meghatározott adatok felhasználásával képzik. A képzés során az FFNN modell megtanulja a modell viselkedését a súlyok és az előfeszítések beállításával. A képzési folyamat általában egy backpropagation algoritmus segítségével történik bizonyos “költségfüggvény”, például az átlagos négyzetes hiba (MSE) minimalizálása érdekében. Ebben a munkában négy bemeneti és három kimeneti paramétert választottak ki a PHA-k szintézismodelljének kifejlesztéséhez. A modell bemenet-kimenetének kiválasztása megegyezik a kísérleti munkával, amelyet a szintéziseljárás jelentős paramétereinek meghatározására végeztünk. Mivel több a bemenet, mint a kimenet, elegendő egyetlen rejtett réteg használata az FFNN topológiában . Az egy rejtett réteg választása általában elegendő a folytonos nemlineáris függvény közelítése céljából, mivel több rejtett réteg túlillesztést okozhat . A rendelkezésre álló kísérleti adatok mennyisége azonban korlátozott, és ez akadályozhatja az FFNN modell megfelelő általánosítását a képzési folyamat során. Annak érdekében, hogy több adatot hozzunk létre és ismételjünk meg az FFNN képzéséhez, a bootstrap újramintavételezési módszert használjuk . A bootstrap módszer randomizációs technikát használ az eredeti adatok újrarendezéséhez és újramintázásához egy új, nagyobb adathalmazban. Ez a technika bizonyítottan javítja a neurális hálózati modell általánosítását és robusztusságát . A 3. ábra szemlélteti, hogyan történik az adatok újramintázása és újraelosztása e technika alkalmazásával. Az eredeti adathalmazban az adatok a színintenzitás szerint vannak elosztva. Az újramintavételezés után az új adatkészletek véletlenszerű eloszlása az eredeti adatok helyettesítésével történik (lásd az új adatkészletek színintenzitását). Ebben a tanulmányban a bootstrap technikát használtuk, hogy az eredeti 16 kísérleti adatpontból 160 adatpontot állítsunk elő. Ezt az új adathalmazt véletlenszerűen osztottuk fel képzési (60%), validálási (20%) és tesztelési adathalmazra (20%). Az FFNN teljesítményét az átlagos négyzetes hiba (MSE), az átlagos négyzetes hiba gyökere (RMSE) és a determinációs korreláció (R 2 ) segítségével mértük. Ebben a munkában az FFNN-t a Levenberg-Marquardt backpropagation technikával képeztük. Ez a technika közismerten jó általánosítással és gyors konvergenciával rendelkező FFNN-t állít elő. Az FFNN-t iteratív módon, a rejtett neuronok különböző számának felhasználásával képezték ki annak érdekében, hogy a legjobb modellt a legalacsonyabb MSE és RMSE értékkel, R 2 egyhez közeli értékkel kapják meg. A neurális hálózatra vonatkozó összes szimulációs munka Az FFNN teljesítményét az átlagos négyzetes hiba (MSE), az átlagos négyzetes hiba gyökere (RMSE) és a meghatározási korreláció (R 2 ) segítségével mértük. Ebben a munkában az FFNN-t a Levenberg-Marquardt backpropagation technikával képezték ki. Ez a technika közismerten jó általánosítással és gyors konvergenciával rendelkező FFNN-t állít elő. Az FFNN-t iteratív módon, a rejtett neuronok különböző számának felhasználásával képezték ki annak érdekében, hogy a legjobb modellt a legalacsonyabb MSE és RMSE értékkel, R 2 egyhez közeli értékkel kapják meg. A neurális hálózat modellezésével és elemzésével kapcsolatos összes szimulációs munkát a Matlab …
segítségével végeztük.