بسته جامع آموزشی شبکه های عصبی MLP


این دوره مجموعۀ کاملی از دروس مرتبط با شبکه های عصبی مصنوعی را در اختیار شما قرار می دهد. کل دوره حدود 14 ساعت است که مباحث گوناگونی از جمله بردار ویژگی و مفهوم کاهش بعد، شبکه عصبی تک لایه به همراه روشهای آموزش و مثالهای عددی و کاربردهای آن، شبکه عصبی پیشخور چند لایه (MLP)، آموزش MLP به روش پس انتشار خطا (یا همان الگوریتم گرادیان نزولی پیاده سازی شده با قانون دلتا)، آموزش MLP با قانون دلتای تعمیم یافته (یا همان قانون دلتا با اضافه کردن جمله لختی)، شگردهای افزایش کیفیت و سرعت آموزش MLP، هرس کردن MLP با الگوریتم جراح مغز بهینه و آموزش فشرده نحوه کار با دستورات شبکه عصبی MLP در متلب را در بر دارد. در آخرین درس دوره نیز پنج کاربرد MLP یعنی یادگیری پارک کردن خودکار یک اتومبیل (به عنوان یک مسالۀ کنترل غیرخطی چند متغیره)، پیش بینی سری زمانی آشوبی مکی-گلاس، فشرده سازی داده، شبیه سازی مسابقه فوتبال با یک MLP آموزش دیده به عنوان مغز هر بازیکن و طراحی فیلتر وارون غیرخطی (به عنوان مثال جهت حذف اعوجاج کانالهای مخابراتی) مرور شده است.
در صورت تمایل می توانید برخی از درسهای این دوره را به طور جداگانه با هزینه پایین تر از سایت تعلیمستان تهیه نمایید. همچنین پیش نمایش بسیاری از درسهای این دوره در دروسی که به طور جداگانه در سایت قرار داده شده اند قابل مشاهده هستند.
پیش نمایش درس چهاردهم:
برای دانلود پیشنمایش این دوره کلیک کنید. (حجم : 2.45 Mb)
ویژگی های دوره
- عناوین 14
- امتحانات 0
- مدت تقریباً 14 ساعت
- سطح مهارت کارشناسی، ارشد، دکترا
- زبان فارسی
- دانشجویان 140
- گواهی نه
- ارزیابی ها بله
-
دروس
- مقدمه
- مفهوم بردار ویژگی (Feature Vector) و کاهش بعد
- شبکۀ عصبی تک لایه (Single-Layer Perceptron)
- چند مثال و کاربرد از پرسپترون
- شبکۀ عصبی چند لایه (MLP) و بهینه سازی با گرادیان نزولی
- آموزش MLP به روش پس انتشار خطا
- نکات تکمیلی در ارتباط با آموزش MLP
- قانون دلتای تعمیم یافته (آموزش با جملۀ لختی)
- مفهوم تعمیم (Generalization) و معیار پایان الگوریتم
- شگردهایی برای بهبود کیفیت و سرعت آموزش
- آموزش MLP با الگوریتم Levenberg-Marquardt
- هرس کردن شبکۀ عصبی با الگوریتم جراح مغز بهینه
- آموزش فشرده جعبه ابزار شبکۀ عصبی در متلب (MATLAB)
- مرور چند کاربرد شبکۀ عصبی پیشخور چند لایه (MLP)