(۲-۱۷)
که در آن m تعداد کل ورودی‌ها (به غیر از بایاس) اعمال شده به نورون j است. وزن سیناپسی (که مربوط به ورودی ثابت  است) برابر با بایاس اعمال شده  به نورون j است. در نتیجه تابع سیگنال  در خروجی نورن j در گام n ظاهر می‌شود:
(۲-۱۸)
مشابه با الگوریتم LMS، الگوریتم پس انتشار خطا اصلاح وزنی برابر با  به وزن سیناپسی اعمال می‌شود که متناسب با مشتقات جزئی  است. با بهره گرفتن از قانون استقرا می‌توانیم این گرادیان را به صورت زیر به دست آوریم:
(۲-۱۹)
مشتق جزئی  ضریب حساسیت را مشخص می‌کند که جهت جستجو در فضای وزن را برای وزن  مشخص می‌کند.
پایان نامه - مقاله - پروژه
با مشتق گیری از دو طرف معادله (۲-۱۵) نسبت به  به دست می‌آوریم.
(۳-۲۰)
با مشتق گیری از دو طرف معادله (۲-۱۴) نسبت به  به دست می‌آوریم:
(۲-۲۱)
سپس با مشتق گیری از رابطه (۳-۵) نسبت را به دست می‌آوریم.
(۲-۲۲)
که علامت پریم در سمت راست علامت مشتق نسبت به آرگومان است. نهایتاً با مشتق گیری از معادله (۲-۱۷) نسبت را دست می‌آوریم.
(۲-۲۳)
با بهره گرفتن از معادلات (۲-۲۰) تا (۲-۲۳) در (۲-۱۹) به دست می‌آوریم:
(۲-۲۴)
اصلاح  که به  اعمال می‌شود توسط قانون دلتا تعریف می‌شود:
(۲-۲۵)
که پارامتر نرخ یادگیری الگوریتم پس انتشار است. استفاده از علامت منفی در رابطه (۲-۲۵) نشان دهنده کاهش گرادیان در فضای وزن (جستجوی جهت تغییر وزنی که مقدار  را کاهش می‌دهد) است. به این ترتیب استفاده از روابط (۲-۲۴) و (۲-۲۵) به رابطه زیر منجر می‌شود.
(۲-۲۶)
که در آن گرادیان محلی به صورت زیر تعریف می‌شود:
(۲-۲۷)
گرادیان محلی تغییرات لازم در وزن‌های سیناپسی را مشخص می‌کند. بنابر معادله (۲-۲۷) گرادیان محلی  برای نورون خارجی j مساوی با حاصل ضرب سیگنال خطای مورد نظر  و مشتق تابع محرک مربوطه  می‌باشد.
از معادلات (۲-۲۹) و (۲-۲۷) در می‌یابیم که عنصر کلیدی در محاسبات تنظیم وزن  سیگنال خطای  در خروجی نورون j است. در این ارتباط می‌توانیم دو حالت متفاوت را بسته به محل قرارگیری نورون j در شبکه در نظر بگیریم. در حالت اول نورون j یک نود خروجی است. ارزیابی این حالت آسان است زیرا هر نود خروجی شبکه با پاسخ مطلوب مربوط به خود تغذیه می‌شود که محاسبه سیگنال خطای مربوطه را مستقیماً امکان پذیر می‌سازد. در حالت دوم نورون jیک نود مخفی است. گرچه نورون‌های مخفی مستقیماً قابل دسترسی نیستند، اما مسئولیت هر خطایی را که در خروجی شبکه رخ می‌دهد بر عهده دارند. با این حال سئوال این است که چگونه یک نورون مخفی را برای مسئولیتی که به عهده دارد تشویق یا تنبیه می‌کنیم. این یک مسأله اختصاص دهی اعتبار است و از طریق پس انتشار سیگنال خطا در شبکه حل می‌شود.
حالت ۱: نورون j یک نود خروجی است
هنگامی که نورون j در لایه خروجی شبکه قرار می‌گیرد توسط پاسخ مطلوبی که مربوط به خود نورون است تغذیه می‌شود. می‌توانیم از رابطه (۲-۱۴) برای محاسبه سیگنال خطای  مربوط به این نورون استفاده کنیم . وقتی  را مشخص می‌کنیم گرادیان محلی  با بهره گرفتن از معادله (۲-۲۷) مستقیماً محاسبه می‌شود.
حالت ۲: نورون j یک نود مخفی است
هنگامی که نورون j در لایه مخفی شبکه قرار داشته باشد هیچ پاسخ مطلوب معینی برای آن نورون وجود ندارد. بنابراین سیگنال خطای نورون مخفی باید به صورت بازگشتی بر مبنای سیگنال خطای همه نورون‌هایی که نورون مخفی مستقیماً به آن متصل است تعیین شود. این همان جایی است
که اجرای الگوریتم پس انتشار پیچیده می‌شود. با توجه به معادله (۲-۱۴) می‌توانیم گرادیان محلی را برای نورون مخفی به صورت زیر بازنویسی کنیم:
(۲-۲۸) نورون j مخفی است
که در سطر دوم از رابطه (۲-۲۲) استفاده کرده‌ایم. برای محاسبه مشتق جزیی  به ترتیب زیر عمل می‌کنیم.
(۲-۲۹) نورون k یک نورون خروجی است
که همان رابطه (۲-۱۵) است که در آن به جای اندیس j از اندیس k استفاده شده است. این کار را به این منظور انجام داده‌ایم که با حالت ۲ که اندیس به یک نورون مخفی اشاره می کند اشتباه نشود. با مشتق گیری از رابطه (۲-۲۹) نسبت به تابع کاری  به دست می‌آوریم:
(۲-۳۰)
حال می‌توانیم از قانون زنجیره‌ای برای مشتق جزئی استفاده کنیم و معادله (۳-۳۰) را به صورت زیر بازنویسی کنیم:
(۲-۳۱)
با این وجود داریم:
(۲-۳۲) نورون k یک نود خروجی است
بنابراین
(۲-۳۳)
همچنین می‌دانیم که میدان‌های اعمال شده محلی برای نورون k به صورت زیر قابل بیان هستند:
(۲-۳۴)
که در ان m تعداد کل ورودی‌های اعمال شده (به غیر از بایاس) به نورون k است. در اینجا نیز وزن سیناپسی  برابر با بایاس  اعمال شده به نورون k است و ورودی متناظر در مقدار ۱+ ثابت می‌شود. با مشتق گیری از رابطه (۲-۳۴) نسبت به  به نتیجه زیر می‌رسیم:
(۲-۳۵)
با بهره گرفتن از روابط (۲-۳۳) و (۲-۳۵) در رابطه (۲-۳۱) به مشتق جزیی مورد نظر می‌رسیم:
(۲-۳۶)

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...