آموزش شبکۀ عصبی با الگوریتم پس انتشار خطا


این دوره شامل دو تا از درسهای بستۀ جامع آموزش شبکه های عصبی است که به طور جداگانه در اختیار افرادی که فقط به محتوای این دروس علاقه مند هستند قرار داده شده است. الگوریتم پس انتشار خطا (Error back-propagation) اولین روش کارآمد ابداع شده برای به روز رسانی وزنهای شبکه های عصبی پیشخور چند لایه (موسوم به MLP) بر اساس الگوریتم بهینه سازی گرادیان نزولی است. هر چند که در حال حاضر برای آموزش MLP های با اندازۀ کوچک و متوسط به منظور حل مسائل رگرسیون غیرخطی معمولاً از الگوریتم لونبرگ-مارکوارت استفاده می شود، اما تنها الگوریتمی که همچنان برای آموزش شبکه های عصبی عمیق شامل دهها میلیونها وزن قابل استفاده است الگوریتم پس انتشار خطا (یا به عبارت دقیقتر، گرادیان نزولی تصادفی با قانون دلتا) است. این الگوریتم جزو الگوریتمهای کلاسیک آموزش شبکه های عصبی به شمار می رود که فهم دقیق آن برای افراد علاقه مند به این حوزه کاملاً ضروری است.
در این دوره علاوه بر روش پس انتشار خطا و مثال عددی مربوط به آن، با قضیۀ تقریب زن جهانی و الگوریتم بسیار پراستفادۀ گرادیان نزولی تصادفی (Stochastic Gradient Descent: SGD) نیز آشنا خواهید شد (دربارۀ تصویر لوگو: یادگیری یعنی ترکیب کردن اشتباه و تصحیح).
در صورت تمایل می توانید با خرید بستۀ جامع آموزش شبکه های عصبی علاوه بر این دروس این دوره بسیاری از دروس مرتبط دیگر را نیز با هزینۀ مناسب تر تهیه نمایید.
پیش نمایش درس اول:
پیس نمایش درس دوم:
ویژگی های دوره
- عناوین 2
- امتحانات 0
- مدت 2 ساعت و 53 دقیقه
- سطح مهارت کارشناسی، ارشد، دکترا
- زبان فارسی
- دانشجویان 97
- گواهی نه
- ارزیابی ها بله