خوارزمية الانتشار الخلفي للخطأ Error Back Propagation Algorithm:[3]
تسمى هذه الخوارزمية أيضا بخوارزمية الانتشار الخلفي التزايدي, إذ أن أوزان الشبكة تحدث بعد تقديم كل حالة من مجموعة التدريب بدلا من أن يتم التكرار .
وهذا أصلاً يجدد التغاير للانتشار الخلفي وفي بعض الأحيان يشار اليه بالانتشار الخلفي القياسي إن هذه الخوارزمية تكون الأكثر تفضيلا لمجموعة البيانات الكبيرة.
إن تدريب الشبكة العصبية الاصطناعية باستخدام الانتشار العكسي تتضمن ثلاث مراحل هي كالآتي:
1. خطوة الانتشار الأمامي للخطأ •Error Forward propagation Step
2. خطوة الانتشار الخلفي للخطأ Error Back propagation Step.
3. خطوة توليف أوزان الشبكة Network Weights Synthetic Step .
3. خطوة توليف أوزان الشبكة Network Weights Synthetic Step .
شبكة عصبية متعددة الخلايا. |
تجنبا للنهاية الصغرى
(Local minimum) فإنه عادة ما يتم وضع η ذات قيمة قليلة بالرغم من أن ذلك سيكون على حساب زمن التقارب الذي يتناسب عكسيا مع η.
أثبت
خوارزمية الانتشار العكسي نجاحها في مجال التعرف على الحروف وتم تجريبها أيضاً مع
مختلف أنواع وأحجام الخطوط، وتعتبر خوارزمية الانتشار العكسي مناسبة لتعلم الخصائص
التي من الصعب وصفها بشكل بديهي.