傳統倒傳遞類神經網路採用最陡坡降法(Steepest Descent Method)來訓練與更新權值,有以下缺點:(1)容易收斂至局部最小值(Local minima);(2)權值更新速率慢,學習時間長;(3)可能造成發散結果。 基於以上倒傳遞類神經網路的缺點,本文提出LM-HLP(Levenberg Marquardt-Hide Layer Partition)演算法,希望將傳統倒傳遞演算法加以改良。我們將傳統的倒傳遞演算法原本採用的最陡坡降訓練法則,改為Levenberg Marquardt(LM)訓練法則,並且使用批次學習法來訓練倒傳遞類神經網路,再加上Block_Cyclic分佈方法將輸入的大量資料平均分配到各處理器上,以平行處理的方式執行例傳遞的學習演算法。本文所提出之LM-HLP平行演算法可以讓倒傳遞類神經網路的學習過程能更有效率且讓結果不易陷入局部最小值。