フィードフォワードニューラルネットワーク(FFNN)のモデルトポロジーは、単一の隠れ… | 科学的図表のダウンロード

… フィードフォワードニューラルネットワーク(FFNN)は、入力ノードから隠れノードを通って出力ノードに至るまで、情報が一方向(すなわち順方向)にしか移動しない、単純なタイプのニューラルネットワークです。 ネットワークにはサイクルやループは存在しない。 それぞれの列のノードのグループを層と呼ぶ。 隠れ層が1つの典型的なFFNNをFigure 1に示す。 入力層ニューロンと隠れ層ニューロンを結ぶ線は、ネットワークの重みを表す。 隠れ層ニューロンは、すべての入力接続から対応する重みを合計する。 この重みの和は、隠れ層で活性化関数に渡される。 シグモイドのような活性化関数は、FFNNモデルに次のニューロンへ渡すべき適切な情報を選択する能力を与える。 FFNNモデルの基本的なノード(演算要素)を図2に示す。 一般に、ネットワークの性能を調整するために、閾値やバイアスが用いられる。 FFNNモデルは、入力と出力の関係を一般化するために、あらかじめ決められたデータを用いて学習させる。 この学習時に、FFNNモデルは重みとバイアスを調整することにより、モデルの挙動を学習する。 この学習過程は、通常、平均二乗誤差(MSE)などの特定の「コスト関数」を最小化するバックプロパゲーションアルゴリズムを使用して行われる。 本研究では、4つの入力パラメータと3つの出力パラメータのセットを選択し、PHA の合成モデルを開発した。 このモデルの入力-出力の選択は,合成手順における重要なパラメータを決定するために行った実験と同じである. 出力よりも入力の方が多いので、FFNNトポロジーの隠れ層は1つで十分である。 連続非線形関数の近似を目的とする場合、隠れ層が多くなるとオーバーフィッティングを起こす可能性があるため、通常1つの隠れ層を選択すれば十分である。 しかし、利用可能な実験データの量は限られており、これはFFNNモデルの学習過程で適切に汎化される妨げになる可能性がある。 そこで、FFNN の学習に必要なデータをより多く生成し、再現するために、ブートストラップ再標本化法を用いている。 ブートストラップ法はランダム化技術を使って、元のデータを新しいより大きなデータセットに並べ替え、再サンプリングするものである。 この手法は、ニューラルネットワークモデルの汎化性と頑健性を向上させることが証明されています。 図3は、この手法によってデータがどのように再標本化され、再分配されるかを説明したものである。 元のデータセットでは、データは色の濃さで示されるように分布しています。 リサンプリング後の新しいデータセットは、元のデータを置換したランダムな分布をしている(新しいデータセットの色の強さを参照)。 この研究では、ブートストラップ法を用いて、元の16個の実験データから160個のデータポイントを作成した。 この新しいデータセットは、トレーニングデータセット(60%)、検証データセット(20%)、テストデータセット(20%)にランダムに分割された。 FFNN の性能は、平均二乗誤差(MSE)、二乗平均平方根誤差(RMSE)、決定相関(R 2 )を用いて測定された。 この研究では,FFNN は Levenberg-Marquardt バックプロパゲーショ ン法を用いて学習させた. この手法は、良好な汎化性と高速な収束性を持つ FFNN を生成することでよく知られている。 FFNN は,MSE と RMSE が最も小さく,R 2 が 1 に近い最適なモデルを獲得するために,異なる数の隠れニューロンを用いて繰り返し学習される. FFNN の性能は,平均二乗誤差(MSE),二乗平均平方根誤差(RMSE), 決定相関(R 2 )を用いて測定された. この作品では,FFNN はレーベンベルグ・マルカルト・バックプロパゲーショ ン法を用いて学習させた. この手法は、良好な汎化性と高速な収束性を持つ FFNN を生成することでよく知られている。 FFNN は,MSE と RMSE が最も小さく,R 2 が 1 に近い最適なモデルを獲得するために,異なる数の隠れニューロンを用いて繰り返し学習される. ニューラルネットワークのモデリングと分析に関するすべてのシミュレーション作業は、Matlab …

を使用して行われました。

コメントを残す

メールアドレスが公開されることはありません。