Topologie du modèle de réseau de neurones à action directe (FFNN) avec un seul caché … | Télécharger Diagramme scientifique

… Le réseau neuronal direct (FFNN) est un type de réseau neuronal simple où l’information se déplace uniquement dans une seule direction (c’est-à-dire vers l’avant) à partir des nœuds d’entrée, à travers les nœuds cachés et vers les nœuds de sortie. Il n’y a pas de cycles ou de boucles dans le réseau. Le groupe de nœuds dans chaque colonne respective est appelé une couche. Un FFNN typique avec une seule couche cachée est illustré à la figure 1. Les lignes reliant les neurones de la couche d’entrée et les neurones de la couche cachée représentent les poids du réseau. Le neurone caché additionne le poids correspondant de toutes les connexions d’entrée. La somme pondérée est ensuite transmise par une fonction d’activation dans la couche cachée. La fonction d’activation, telle que la fonction sigmoïde, donne au modèle FFNN la capacité de sélectionner l’information appropriée à transmettre au neurone suivant. Un nœud de base ou élément de calcul pour le modèle FFNN est illustré à la figure 2. Un seuil ou un biais est généralement utilisé pour réguler les performances du réseau. Afin de généraliser la relation entre l’entrée et la sortie, le modèle FFNN est entraîné à l’aide de données prédéterminées. Au cours de cet entraînement, le modèle FFNN apprend le comportement du modèle en ajustant ses poids et ses biais. Le processus de formation est généralement effectué à l’aide d’un algorithme de rétropropagation afin de minimiser une certaine  » fonction de coût  » telle que l’erreur quadratique moyenne (EQM). Dans ce travail, un ensemble de quatre paramètres d’entrée et de trois paramètres de sortie a été sélectionné pour développer le modèle de synthèse des PHA. La sélection des entrées-sorties du modèle est la même que dans le travail expérimental, qui a été réalisé pour déterminer les paramètres significatifs dans la procédure de synthèse. Comme il y a plus d’entrées que de sorties, l’utilisation d’une seule couche cachée dans la topologie FFNN est suffisante. Le choix d’une couche cachée est généralement suffisant pour l’approximation d’une fonction non linéaire continue, car un plus grand nombre de couches cachées peut entraîner un surajustement. Cependant, la quantité de données expérimentales disponibles est limitée, ce qui peut empêcher le modèle FFNN d’être correctement généralisé au cours de son processus de formation. Afin de générer et de reproduire plus de données pour la formation du FFNN, la méthode de rééchantillonnage bootstrap est utilisée. La méthode bootstrap utilise une technique de randomisation pour réarranger et rééchantillonner les données originales dans un nouvel ensemble de données plus grand. Cette technique a permis d’améliorer la généralisation et la robustesse du modèle de réseau neuronal. La figure 3 donne un aperçu descriptif de la manière dont les données sont rééchantillonnées et redistribuées à l’aide de cette technique. Dans l’ensemble de données original, les données sont distribuées comme indiqué par l’intensité de la couleur. Après rééchantillonnage, les nouveaux ensembles de données ont une distribution aléatoire avec remplacement des données originales (voir l’intensité de la couleur des nouveaux ensembles de données). Dans cette étude, la technique bootstrap a été utilisée pour produire 160 points de données à partir des 16 points de données expérimentaux originaux. Ce nouvel ensemble de données a été divisé aléatoirement en un ensemble de données de formation (60 %), de validation (20 %) et de test (20 %). La performance du FFNN a été mesurée en utilisant l’erreur quadratique moyenne (MSE), l’erreur quadratique moyenne (RMSE) et la corrélation de détermination (R 2 ). Dans ce travail, le FFNN a été entraîné en utilisant la technique de rétropropagation de Levenberg-Marquardt. Cette technique est bien connue pour produire des FFNN avec une bonne généralisation et une convergence rapide. Le FFNN est formé de manière itérative en utilisant différents nombres de neurones cachés afin d’acquérir le meilleur modèle avec la valeur MSE et RMSE la plus faible avec R 2 proche de un. Les performances du FFNN ont été mesurées en utilisant l’erreur quadratique moyenne (MSE), l’erreur quadratique moyenne (RMSE) et la corrélation de détermination (R 2 ). Dans ce travail, le FFNN a été entraîné en utilisant la technique de rétropropagation de Levenberg-Marquardt. Cette technique est bien connue pour produire des FFNN avec une bonne généralisation et une convergence rapide. Le FFNN est formé de manière itérative en utilisant différents nombres de neurones cachés afin d’acquérir le meilleur modèle avec la valeur MSE et RMSE la plus faible avec R 2 proche de un. Tous les travaux de simulation concernant la modélisation et l’analyse des réseaux neuronaux ont été effectués à l’aide de Matlab …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.