Topología del modelo de red neuronal de avance de alimentación (FFNN) con una sola… | Descargar Diagrama Científico

… La red neuronal de avance (FFNN) es un tipo de red neuronal directa en la que la información se mueve sólo en una dirección (es decir, hacia adelante) desde los nodos de entrada, a través de los nodos ocultos, y a los nodos de salida. No hay ciclos ni bucles en la red. El grupo de nodos de cada columna se denomina capa. En la figura 1 se muestra una FFNN típica con una sola capa oculta. Las líneas que conectan las neuronas de la capa de entrada y las de la capa oculta representan los pesos de la red. La neurona oculta suma el peso correspondiente de todas las conexiones de entrada. La suma ponderada se hace pasar por una función de activación en la capa oculta. La función de activación, como la sigmoidea, da al modelo FFNN la capacidad de seleccionar la información adecuada para pasarla a la siguiente neurona. En la figura 2 se muestra un nodo básico o elemento de cálculo del modelo FFNN. Generalmente se utiliza un umbral o sesgo para regular las prestaciones de la red. Para generalizar la relación entre la entrada y la salida, el modelo FFNN se entrena utilizando datos predeterminados. Durante este entrenamiento, el modelo FFNN aprende el comportamiento del modelo ajustando sus pesos y sesgos. El proceso de entrenamiento suele realizarse mediante un algoritmo de retropropagación para minimizar cierta «función de coste», como el error medio cuadrático (MSE). En este trabajo, se seleccionó un conjunto de cuatro parámetros de entrada y tres de salida para desarrollar el modelo de síntesis de los PHA. La selección de la entrada-salida del modelo es la misma que en el trabajo experimental, que se llevó a cabo para determinar los parámetros significativos en el procedimiento de síntesis. Dado que hay más entradas que salidas, el uso de una sola capa oculta en la topología FFNN es suficiente. La elección de una capa oculta suele ser suficiente para la aproximación de una función continua no lineal, ya que más capas ocultas pueden provocar un sobreajuste . Sin embargo, la cantidad de datos experimentales disponibles es limitada y esto puede dificultar la correcta generalización del modelo FFNN durante su proceso de entrenamiento. Para generar y replicar más datos para el entrenamiento de la FFNN, se utiliza el método de remuestreo bootstrap . El método bootstrap utiliza la técnica de la aleatorización para reordenar y remuestrear los datos originales en un nuevo conjunto de datos más grande. Esta técnica ha demostrado mejorar la generalización y la robustez del modelo de red neuronal. En la Figura 3 se ilustra un resumen descriptivo de cómo se remuestrean y redistribuyen los datos mediante esta técnica. En el conjunto de datos original, los datos se distribuyen según la intensidad del color. Tras el remuestreo, los nuevos conjuntos de datos tienen una distribución aleatoria con sustitución de los datos originales (consulte la intensidad del color de los nuevos conjuntos de datos). En este estudio, se utilizó la técnica bootstrap para producir 160 puntos de datos a partir de los 16 puntos de datos experimentales originales. Este nuevo conjunto de datos se dividió aleatoriamente en conjunto de datos de entrenamiento (60%), de validación (20%) y de prueba (20%). El rendimiento de la FFNN se midió mediante el error medio cuadrático (MSE), el error medio cuadrático (RMSE) y la correlación de determinación (R 2 ). En este trabajo, la FFNN se entrenó utilizando la técnica de retropropagación de Levenberg-Marquardt. Esta técnica es bien conocida por producir FFNN con buena generalización y rápida convergencia. La FFNN se entrena de forma iterativa utilizando diferentes números de neuronas ocultas con el fin de adquirir el mejor modelo con el menor valor de MSE y RMSE con R 2 cercano a uno. Todo el trabajo de simulación de la red neuronal El rendimiento de la FFNN se midió utilizando el error medio cuadrático (MSE), el error medio cuadrático (RMSE) y la correlación de determinación (R 2 ). En este trabajo, la FFNN se entrenó utilizando la técnica de retropropagación de Levenberg-Marquardt. Esta técnica es bien conocida por producir FFNN con buena generalización y rápida convergencia. La FFNN se entrena de forma iterativa utilizando diferentes números de neuronas ocultas con el fin de adquirir el mejor modelo con el menor valor de MSE y RMSE con R 2 cercano a uno. Todo el trabajo de simulación relativo al modelado y análisis de las redes neuronales se realizó utilizando Matlab …

Deja una respuesta

Tu dirección de correo electrónico no será publicada.