… Forward Neural Network (FFNN) è un tipo diretto di rete neurale in cui l’informazione si muove solo in una direzione (cioè, in avanti) dai nodi di ingresso, attraverso i nodi nascosti, e ai nodi di uscita. Non ci sono cicli o loop nella rete. Il gruppo di nodi in ogni rispettiva colonna è chiamato strato. Una tipica FFNN con un singolo strato nascosto è mostrata nella Figura 1. Le linee che collegano i neuroni del livello di ingresso e i neuroni del livello nascosto rappresentano i pesi della rete. Il neurone nascosto somma il peso corrispondente di tutte le connessioni d’ingresso. La somma ponderata viene poi passata attraverso una funzione di attivazione nello strato nascosto. La funzione di attivazione, come la sigmoide, dà al modello FFNN la capacità di selezionare le informazioni appropriate da passare al neurone successivo. Un nodo di base o elemento di calcolo per il modello FFNN è mostrato nella Figura 2. Una soglia o bias è generalmente usata per regolare le prestazioni della rete. Al fine di generalizzare la relazione tra l’input e l’output, il modello FFNN viene addestrato utilizzando dati predeterminati. Durante questo addestramento, il modello FFNN impara il comportamento del modello regolando i suoi pesi e bias. Il processo di formazione è di solito fatto usando un algoritmo di backpropagation per minimizzare una certa “funzione di costo” come l’errore quadratico medio (MSE). In questo lavoro, un insieme di quattro parametri di input e tre di output sono stati selezionati per sviluppare il modello di sintesi di PHAs. La selezione degli input-output del modello è la stessa del lavoro sperimentale, che è stato effettuato per determinare i parametri significativi nella procedura di sintesi. Poiché c’è più input che output, l’uso di un singolo strato nascosto nella topologia FFNN è sufficiente. La scelta di un solo strato nascosto è di solito sufficiente ai fini dell’approssimazione di funzioni continue non lineari, poiché più strati nascosti possono causare un over-fitting. Tuttavia, la quantità di dati sperimentali disponibili è limitata e questo può ostacolare il modello FFNN nell’essere correttamente generalizzato durante il suo processo di formazione. Al fine di generare e replicare più dati per la formazione FFNN, viene utilizzato il metodo di ricampionamento bootstrap. Il metodo bootstrap utilizza una tecnica di randomizzazione per riorganizzare e ricampionare i dati originali in un nuovo set di dati più grande. Questa tecnica ha dimostrato di migliorare la generalizzazione e la robustezza del modello di rete neurale. Una panoramica descrittiva di come i dati vengono ricampionati e ridistribuiti utilizzando questa tecnica è illustrata nella Figura 3. Nel set di dati originale, i dati sono distribuiti come indicato dall’intensità del colore. Dopo il ricampionamento, i nuovi set di dati hanno una distribuzione randomizzata con sostituzione dei dati originali (fare riferimento all’intensità del colore dei nuovi set di dati). In questo studio, la tecnica bootstrap è stata utilizzata per produrre 160 punti di dati dai 16 punti di dati sperimentali originali. Questo nuovo set di dati è stato diviso casualmente in training (60%), validazione (20%), e testing dataset (20%). Le prestazioni della FFNN sono state misurate utilizzando l’errore quadratico medio (MSE), l’errore quadratico medio (RMSE) e la correlazione di determinazione (R 2 ). In questo lavoro, la FFNN è stata addestrata usando la tecnica di backpropagation Levenberg-Marquardt. Questa tecnica è ben nota per produrre FFNN con buona generalizzazione e convergenza veloce. La FFNN è addestrata iterativamente usando diversi numeri di neuroni nascosti al fine di acquisire il miglior modello con il più basso valore MSE e RMSE con R 2 vicino a uno. Tutti i lavori di simulazione riguardanti la rete neurale Le prestazioni della FFNN sono state misurate utilizzando l’errore quadratico medio (MSE), l’errore quadratico medio (RMSE), e la correlazione di determinazione (R 2 ). In questo lavoro, la FFNN è stata addestrata usando la tecnica di backpropagation di Levenberg-Marquardt. Questa tecnica è ben nota per produrre FFNN con buona generalizzazione e convergenza veloce. La FFNN è addestrata iterativamente usando diversi numeri di neuroni nascosti al fine di acquisire il miglior modello con il più basso valore MSE e RMSE con R 2 vicino a uno. Tutto il lavoro di simulazione riguardante la modellazione e l’analisi delle reti neurali è stato eseguito utilizzando Matlab …
.