دانلود پژوهش های پیشین درباره پیش بینی تقاضا برای بیمه عمر در ایران با استفاده از ... |
(۲-۱۷)
که در آن m تعداد کل ورودیها (به غیر از بایاس) اعمال شده به نورون j است. وزن سیناپسی (که مربوط به ورودی ثابت است) برابر با بایاس اعمال شده به نورون j است. در نتیجه تابع سیگنال در خروجی نورن j در گام n ظاهر میشود:
(۲-۱۸)
مشابه با الگوریتم LMS، الگوریتم پس انتشار خطا اصلاح وزنی برابر با به وزن سیناپسی اعمال میشود که متناسب با مشتقات جزئی است. با بهره گرفتن از قانون استقرا میتوانیم این گرادیان را به صورت زیر به دست آوریم:
(۲-۱۹)
مشتق جزئی ضریب حساسیت را مشخص میکند که جهت جستجو در فضای وزن را برای وزن مشخص میکند.
با مشتق گیری از دو طرف معادله (۲-۱۵) نسبت به به دست میآوریم.
(۳-۲۰)
با مشتق گیری از دو طرف معادله (۲-۱۴) نسبت به به دست میآوریم:
(۲-۲۱)
سپس با مشتق گیری از رابطه (۳-۵) نسبت را به دست میآوریم.
(۲-۲۲)
که علامت پریم در سمت راست علامت مشتق نسبت به آرگومان است. نهایتاً با مشتق گیری از معادله (۲-۱۷) نسبت را دست میآوریم.
(۲-۲۳)
با بهره گرفتن از معادلات (۲-۲۰) تا (۲-۲۳) در (۲-۱۹) به دست میآوریم:
(۲-۲۴)
اصلاح که به اعمال میشود توسط قانون دلتا تعریف میشود:
(۲-۲۵)
که پارامتر نرخ یادگیری الگوریتم پس انتشار است. استفاده از علامت منفی در رابطه (۲-۲۵) نشان دهنده کاهش گرادیان در فضای وزن (جستجوی جهت تغییر وزنی که مقدار را کاهش میدهد) است. به این ترتیب استفاده از روابط (۲-۲۴) و (۲-۲۵) به رابطه زیر منجر میشود.
(۲-۲۶)
که در آن گرادیان محلی به صورت زیر تعریف میشود:
(۲-۲۷)
گرادیان محلی تغییرات لازم در وزنهای سیناپسی را مشخص میکند. بنابر معادله (۲-۲۷) گرادیان محلی برای نورون خارجی j مساوی با حاصل ضرب سیگنال خطای مورد نظر و مشتق تابع محرک مربوطه میباشد.
از معادلات (۲-۲۹) و (۲-۲۷) در مییابیم که عنصر کلیدی در محاسبات تنظیم وزن سیگنال خطای در خروجی نورون j است. در این ارتباط میتوانیم دو حالت متفاوت را بسته به محل قرارگیری نورون j در شبکه در نظر بگیریم. در حالت اول نورون j یک نود خروجی است. ارزیابی این حالت آسان است زیرا هر نود خروجی شبکه با پاسخ مطلوب مربوط به خود تغذیه میشود که محاسبه سیگنال خطای مربوطه را مستقیماً امکان پذیر میسازد. در حالت دوم نورون jیک نود مخفی است. گرچه نورونهای مخفی مستقیماً قابل دسترسی نیستند، اما مسئولیت هر خطایی را که در خروجی شبکه رخ میدهد بر عهده دارند. با این حال سئوال این است که چگونه یک نورون مخفی را برای مسئولیتی که به عهده دارد تشویق یا تنبیه میکنیم. این یک مسأله اختصاص دهی اعتبار است و از طریق پس انتشار سیگنال خطا در شبکه حل میشود.
حالت ۱: نورون j یک نود خروجی است
هنگامی که نورون j در لایه خروجی شبکه قرار میگیرد توسط پاسخ مطلوبی که مربوط به خود نورون است تغذیه میشود. میتوانیم از رابطه (۲-۱۴) برای محاسبه سیگنال خطای مربوط به این نورون استفاده کنیم . وقتی را مشخص میکنیم گرادیان محلی با بهره گرفتن از معادله (۲-۲۷) مستقیماً محاسبه میشود.
حالت ۲: نورون j یک نود مخفی است
هنگامی که نورون j در لایه مخفی شبکه قرار داشته باشد هیچ پاسخ مطلوب معینی برای آن نورون وجود ندارد. بنابراین سیگنال خطای نورون مخفی باید به صورت بازگشتی بر مبنای سیگنال خطای همه نورونهایی که نورون مخفی مستقیماً به آن متصل است تعیین شود. این همان جایی است
که اجرای الگوریتم پس انتشار پیچیده میشود. با توجه به معادله (۲-۱۴) میتوانیم گرادیان محلی را برای نورون مخفی به صورت زیر بازنویسی کنیم:
(۲-۲۸) نورون j مخفی است
که در سطر دوم از رابطه (۲-۲۲) استفاده کردهایم. برای محاسبه مشتق جزیی به ترتیب زیر عمل میکنیم.
(۲-۲۹) نورون k یک نورون خروجی است
که همان رابطه (۲-۱۵) است که در آن به جای اندیس j از اندیس k استفاده شده است. این کار را به این منظور انجام دادهایم که با حالت ۲ که اندیس به یک نورون مخفی اشاره می کند اشتباه نشود. با مشتق گیری از رابطه (۲-۲۹) نسبت به تابع کاری به دست میآوریم:
(۲-۳۰)
حال میتوانیم از قانون زنجیرهای برای مشتق جزئی استفاده کنیم و معادله (۳-۳۰) را به صورت زیر بازنویسی کنیم:
(۲-۳۱)
با این وجود داریم:
(۲-۳۲) نورون k یک نود خروجی است
بنابراین
(۲-۳۳)
همچنین میدانیم که میدانهای اعمال شده محلی برای نورون k به صورت زیر قابل بیان هستند:
(۲-۳۴)
که در ان m تعداد کل ورودیهای اعمال شده (به غیر از بایاس) به نورون k است. در اینجا نیز وزن سیناپسی برابر با بایاس اعمال شده به نورون k است و ورودی متناظر در مقدار ۱+ ثابت میشود. با مشتق گیری از رابطه (۲-۳۴) نسبت به به نتیجه زیر میرسیم:
(۲-۳۵)
با بهره گرفتن از روابط (۲-۳۳) و (۲-۳۵) در رابطه (۲-۳۱) به مشتق جزیی مورد نظر میرسیم:
(۲-۳۶)
فرم در حال بارگذاری ...
[جمعه 1400-07-30] [ 07:04:00 ب.ظ ]
|