معرفی شبکه های پرسپترون چند لایه(MLP)
شبکه های پرسپترون چند لایه از نوع شبکه های عصبی پیشخور میباشند که یکی از پرکاربردترین مدلهای شبکه های عصبی مصنوعی در تشخیص نوع مدولاسیونها هستند. در شبکه های پرسپترون چند لایه هر نرون در هر لایه به تمام نرونهای لایه قبل متصل میباشد. به چنین شبکه هایی، شبکه های کاملاً مرتبط میگویند[۴].
جهت اجرای دقیق شبکه پرسپترون چند لایه در محیط برنامهنویسی، نکات زیر به عنوان اصول کلی اجرا در نظر گرفته می شود.
نرمالیزه کردن داده ها: وارد کردن داده ها به صورت خام باعث کاهش سرعت و دقت شبکه میشود؛ ازاینرو داده های ورودی باید نرمالیزه شوند.
تعداد لایه های پنهان: تعداد لایه های پنهان تا حد امکان باید کم باشد. ثابت شده است که هر تابع می تواند حداکثر با سه لایه پنهان تقریب زده شود. ابتدا شبکه با یک لایه پنهان آموزش داده می شود که در صورت عملکرد نامناسب تعداد لایه های پنهان آن افزایش خواهد یافت.
تعداد نرونهای لایه پنهان: اندازه یک لایه مخفی عموماً بهطور تجربی به دست می آید. برای یک شبکه عصبی با اندازه مناسب، تعداد نرونهای مخفی با یک نسبت کوچک از تعداد ورودی ها انتخاب می شود. اگر شبکه MLP به جواب مطلوب همگرا نگردد، تعداد نرونهای لایه مخفی را افزایش می دهند؛ اگر شبکه همگرا گردید و از قدرت خوبی نیز برخوردار بود، در صورت امکان تعداد نرونهای مخفی کمتری را مورد آزمایش قرار می دهند.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت nefo.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
توابع محرک: نرونها میتوانند از توابع محرک متفاوتی جهت تولید استفاده کنند. از رایجترین آن ها میتوان به توابع لگاریتم سیگموئیدی، تانژانت سیگموئیدی، و تابع محرک خطی اشاره کرد.
تعداد تراز یا سیکل[۲۰]: زمانی که پارامترهای شبکه پس از یک دوره کامل ارائه الگوها به دست آمدند، در اصطلاح به این تکرار اپوک یا یک سیکل میگویند. تعداد تکرارهای شبکه، برابر تعداد داده های یادگیری میباشد[۴].
شکل ۳-۴- توابع محرک رایج در شبکه عصبی پرسپترون چند لایه(MLP)
روشهای آموزش در شبکه های پرسپترون چند لایه
جهت آموزش شبکه های عصبی، چهار الگوریتم آموزشی مرسوم وجود دارد که بر اساس ساختار معروف پرسپترون چند لایه میباشند. این روشها عبارتاند از: پس انتشار خطای بیشترین شیب (پس انتشار خطای استاندارد)، گرادیان مزدوج، شبه نیوتن، مارکوارت-لونبرگ و پس انتشار ارتجاعی. الگوریتم مارکوارت-لونبرگ از سال ۱۹۹۳ تا به امروز به عنوان سریعترین روش آموزش شبکه های عصبی شناخته شده است.]۱[
شبکه عصبی شعاعمبنا
شبکه های با تابع شعاعی بهطور گستردهای برای تخمین غیر پارامتریک توابع چند بعدی از طریق مجموعهای محدود از اطلاعات آموزشی به کار میروند. شبکه های شعاعی بهواسطه آموزش سریع و فراگیر، بسیار جالب و مفید هستند و موردتوجه خاصی قرار گرفتهاند[۱۳]. در سال ۱۹۹۰ میلادی ژیروسی، پوگی و همچنین هارتمن و کپلر اثبات کردند که شبکه های با تابع مدار شعاعی تقریب سازهای بسیار قدرتمند هستند، بهطوریکه با داشتن تعداد نرونهای کافی در لایه مخفی، قادر بهتقریب سازی هر تابع پیوسته با هر درجه دقت میباشد. نکته بسیار جالب آن است که این شبکه ها تنها با داشتن یک لایه مخفی، دارای چنین خاصیتی هستند. شبکه های با تابع مدار شعاعی از تکنیکهای آماری طبقه بندی الگوها بیشترین الهام را گرفتهاند که اساساً به عنوان گونه ای از شبکه های عصبی، حیاتی نو یافتهاند؛ مزیت عمده آن ها طبقه بندی الگوهایی است که دارای فضای غیرخطی هستند. .با قرار دادن این شبکه برای طبقه بندی اصلی شبکه های عصبی، این تکنیکها گرچه تعدادشان اندک است، به فراوانی به کار گرفتهشدهاند.
ساختار شبکه عصبی شعاعمبنا
معماری اصلی RBF متشکل از یک شبکه سه لایه مانند ۳-۵ میباشد. لایه ورودی فقط یک لایه ورودی است و در آن هیچ پردازشی صورت نمیگیرد. لایه دوم یا لایه پنهان، یک انطباق غیرخطی بین فضای ورودی و یک فضای با بعد بزرگتر برقرار میکند و نقش مهمی در تبادل الگوهای غیرخطی به الگوهای تفکیکپذیر خطی دارد. سرانجام لایه سوم، جمع وزنی را به همراه یک خروجی خطی تولید می کند. درصورتیکه از RBF برای تقریب تابع استفاده شود، چنین خروجی مفید خواهد بود، ولی درصورتیکه نیاز باشد طبقه بندی الگوها انجام شود، آنگاه یک محدودکننده سخت یا یک تابع سیگموئید را میتوان بر روی عصبهای خروجی قرار داد تا مقادیر خروجی صفر یا یک تولید شوند.
شکل۳-۵- لایه پنهان(اوزان مرتبط با مرکز خوشه، تابع خروجی معمولاً گوسین)
همانطور که از توضیحات بالا مشخص می شود، خصوصیت منحصربهفرد این شبکه پردازشی است که در لایه پنهان انجام میگیرد. تابع لایه پنهان دارای رابطه است:
(۳-۱۱)
این رابطه نشان میدهد که برای تقریب f از p تابع شعاعی که دارای مراکز ثقل میباشد، استفاده میشود. نماد تابع فاصله در فضای میباشد که معمولاً فاصله اقلیدسی انتخاب میشود. ازآنجاییکه منحنی نمایش تابعهای مدار شعاعی به صورت شعاعی متقارن است، نرونهای لایه مخفی به نرونهای تابع شعاعی معروف هستند.
تابع معروف در شبکه های شعاعی همان تابع گوسی یا نمایی به فرم رابطه میباشد: