Topologia modelu sieci neuronowej typu Feed Forward (FFNN) z pojedynczym ukrytym… | Pobierz Schemat naukowy

… Sieć neuronowa typu forward (FFNN) jest prostym typem sieci neuronowej, w której informacja porusza się tylko w jednym kierunku (tj. do przodu) od węzłów wejściowych, przez węzły ukryte, do węzłów wyjściowych. W sieci tej nie występują cykle ani pętle. Grupa węzłów w każdej odpowiedniej kolumnie nazywana jest warstwą. Typowa sieć FFNN z pojedynczą warstwą ukrytą jest pokazana na rysunku 1. Linie łączące neurony warstwy wejściowej i neurony warstwy ukrytej reprezentują wagi sieci. Neuron ukryty sumuje odpowiednie wagi ze wszystkich połączeń wejściowych. Ważona suma jest następnie przepuszczana przez funkcję aktywacji w warstwie ukrytej. Funkcja aktywacji, taka jak sigmoidalna, daje modelowi FFNN zdolność wyboru odpowiedniej informacji, która ma być przekazana do następnego neuronu. Podstawowy węzeł lub element obliczeniowy dla modelu FFNN jest pokazany na rysunku 2. Próg lub skośność jest zwykle używana do regulowania wydajności sieci. W celu uogólnienia relacji pomiędzy wejściem i wyjściem, model FFNN jest trenowany przy użyciu wcześniej ustalonych danych. Podczas tego treningu model FFNN uczy się zachowania modelu poprzez dostosowywanie jego wag i biasów. Proces szkolenia jest zwykle wykonywany przy użyciu algorytmu wstecznej propagacji w celu zminimalizowania pewnej „funkcji kosztu”, takiej jak błąd średniokwadratowy (MSE). W niniejszej pracy, do opracowania modelu syntezy PHAs wybrano zestaw czterech parametrów wejściowych i trzech wyjściowych. Wybór parametrów wejściowo-wyjściowych modelu jest taki sam jak w pracy eksperymentalnej, która została przeprowadzona w celu określenia istotnych parametrów w procedurze syntezy. Ponieważ wejść jest więcej niż wyjść, wystarczające jest zastosowanie pojedynczej warstwy ukrytej w topologii FFNN . Wybór jednej warstwy ukrytej jest zazwyczaj wystarczający dla celów aproksymacji ciągłej funkcji nieliniowej, gdyż większa liczba warstw ukrytych może powodować nadmierne dopasowanie. Jednakże, ilość dostępnych danych eksperymentalnych jest ograniczona, co może utrudniać prawidłowe uogólnienie modelu FFNN w procesie jego szkolenia. W celu wygenerowania i powtórzenia większej ilości danych do szkolenia FFNN, stosowana jest metoda bootstrap resampling. Metoda bootstrap wykorzystuje technikę randomizacji do zmiany układu i ponownego próbkowania oryginalnych danych w nowy, większy zbiór danych. Technika ta okazała się poprawiać generalizację i odporność modelu sieci neuronowej. Opisowy przegląd sposobu, w jaki dane są ponownie próbkowane i dystrybuowane przy użyciu tej techniki jest zilustrowany na Rysunku 3. W oryginalnym zbiorze danych, dane są rozmieszczone zgodnie z intensywnością kolorów. Po ponownym próbkowaniu, nowe zestawy danych mają losowy rozkład z zastąpieniem oryginalnych danych (patrz intensywność kolorów nowych zestawów danych). W tym badaniu, technika bootstrap została użyta do uzyskania 160 punktów danych z oryginalnych 16 punktów danych eksperymentalnych. Ten nowy zbiór danych został podzielony losowo na zbiór treningowy (60%), walidacyjny (20%) i testowy (20%). Wydajność sieci FFNN mierzono za pomocą błędu średniokwadratowego (MSE), błędu pierwiastkowego średniokwadratowego (RMSE) oraz korelacji determinacji (R 2 ). W tej pracy, FFNN była trenowana przy użyciu techniki wstecznej propagacji Levenberga-Marquardta. Technika ta jest dobrze znana z produkcji FFNN o dobrej generalizacji i szybkiej zbieżności. FFNN jest trenowana iteracyjnie przy użyciu różnej liczby ukrytych neuronów w celu uzyskania najlepszego modelu z najniższą wartością MSE i RMSE przy R 2 bliskim jedności. Wszystkie prace symulacyjne dotyczące sieci neuronowej Wydajność sieci FFNN była mierzona za pomocą błędu średniokwadratowego (MSE), błędu średniokwadratowego (RMSE) oraz korelacji determinacji (R 2 ). W tej pracy, sieć FFNN była trenowana przy użyciu techniki wstecznej propagacji Levenberga-Marquardta. Technika ta jest dobrze znana z produkcji FFNN o dobrej generalizacji i szybkiej zbieżności. FFNN jest trenowana iteracyjnie przy użyciu różnej liczby ukrytych neuronów w celu uzyskania najlepszego modelu z najniższą wartością MSE i RMSE przy R 2 bliskim jedności. Wszystkie prace symulacyjne dotyczące modelowania i analizy sieci neuronowych zostały wykonane przy użyciu programu Matlab …

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.