Modelo de topologia da rede neural feed forward (FFNN) com uma única topologia oculta… | Download Diagrama Científico

… Forward Neural Network (FFNN) é um tipo simples de rede neural onde a informação se move apenas em uma direção (isto é, para frente) dos nós de entrada, através dos nós ocultos, e para os nós de saída. Não há ciclos ou loops na rede. O grupo de nós em cada coluna respectiva é chamado de camada. Um típico FFNN com uma única camada oculta é mostrado na Figura 1. As linhas que conectam os neurônios da camada de entrada e os neurônios da camada oculta representam os pesos da rede. O neurônio oculto resume o peso correspondente de todas as conexões de entrada. A soma ponderada é então passada através de uma função de ativação na camada oculta. A função de ativação, como a sigmoid, dá ao modelo FFNN a capacidade de selecionar as informações apropriadas a serem passadas para o neurônio seguinte. Um nó básico ou elemento de computação para o modelo FFNN é mostrado na Figura 2. Um limiar ou viés é geralmente usado para regular o desempenho da rede. A fim de generalizar a relação entre a entrada e a saída, o modelo FFNN é treinado usando dados pré-determinados. Durante este treinamento, o modelo FFNN aprende o comportamento do modelo ajustando os seus pesos e enviesamentos. O processo de treinamento é geralmente feito usando um algoritmo de retropropagação para minimizar certas “funções de custo” como o erro quadrático médio (MSE). Neste trabalho, um conjunto de quatro parâmetros de entrada e três de saída foram selecionados para desenvolver o modelo de síntese de PHAs. A seleção do input-output do modelo é a mesma do trabalho experimental, que foi realizado para determinar os parâmetros significativos no procedimento de síntese. Como há mais entrada do que saída, o uso de uma única camada oculta na topologia FFNN é suficiente. A escolha de uma camada oculta é geralmente suficiente para fins de aproximação da função não linear contínua, uma vez que mais camadas ocultas podem causar sobreposições . Contudo, a quantidade de dados experimentais disponíveis é limitada e isso pode impedir que o modelo FFN seja generalizado corretamente durante o seu processo de treinamento. A fim de gerar e replicar mais dados para o treinamento FFNN, o método de re-amostragem bootstrap é usado . O método bootstrap utiliza a técnica de aleatorização para reorganizar e resamplificar os dados originais em um novo conjunto de dados maior. Esta técnica tem provado melhorar a generalização e robustez do modelo de rede neural. Uma visão descritiva de como os dados são resampledados e redistribuídos com o uso desta técnica é ilustrada na Figura 3. No conjunto de dados original, os dados são distribuídos conforme observado pela intensidade da cor. Após a resamostragem, os novos conjuntos de dados têm uma distribuição aleatória com a substituição dos dados originais (consulte a intensidade da cor dos novos conjuntos de dados). Neste estudo, a técnica bootstrap foi utilizada para produzir 160 pontos de dados a partir dos 16 pontos de dados experimentais originais. Este novo conjunto de dados foi dividido aleatoriamente em treinamento (60%), validação (20%) e conjunto de dados de teste (20%). O desempenho do FFNN foi medido utilizando o erro quadrático médio (MSE), erro quadrático médio (RMSE) e a correlação de determinação (R 2 ). Neste trabalho, o FFNN foi treinado usando a técnica de retropropagação Levenberg-Marquardt. Esta técnica é bem conhecida por produzir FFNN com boa generalização e rápida convergência. O FFNN é treinado iterativamente usando diferentes números de neurônios ocultos para adquirir o melhor modelo com o menor valor MSE e RMSE com R 2 próximo a um . Todo o trabalho de simulação referente à rede neural O desempenho do FFNN foi medido usando o erro quadrático médio (MSE), erro quadrático médio raiz (RMSE) e correlação de determinação (R 2 ). Neste trabalho, o FFNN foi treinado usando a técnica de retropropagação Levenberg-Marquardt. Esta técnica é bem conhecida por produzir FFNN com boa generalização e rápida convergência. O FFNN é treinado iterativamente usando diferentes números de neurônios ocultos para adquirir o melhor modelo com o menor valor MSE e RMSE com R 2 próximo a um . Todo o trabalho de simulação relativo à modelagem e análise de redes neurais foi realizado usando Matlab …

Deixe uma resposta

O seu endereço de email não será publicado.