25647: یادگیری عمیق
نام درس: یادگیری عمیق (Deep Learning)
شماره درس: 25647
پیشنیاز(ها): -
همنیاز(ها): -
تعداد واحد: 3
مقطع: کارشناسی ارشد
آخرین ویرایش: پاییز 1402
توضیحات:
سرفصلها:
مراجع:
شماره درس: 25647
پیشنیاز(ها): -
همنیاز(ها): -
تعداد واحد: 3
مقطع: کارشناسی ارشد
آخرین ویرایش: پاییز 1402
توضیحات:
“یادگیری عمیق” یک زیرشاخه از “یادگیری ماشین” است که بر روی آموزش شبکههای عصبی با چند لایه (بنابراین اصطلاح “عمیق” استفاده میشود) تمرکز دارد. این شبکهها به طور خودکار الگوها و نمایشهای پیچیده را از دادهها کشف میکنند. برخلاف یادگیری ماشین سنتی که مهندسی ویژگی (feature engineering) بسیار مهم است، مدلهای یادگیری عمیق میتوانند ویژگیهای مرتبط را مستقیماً از دادههای خام یاد بگیرند. کاربردهای یادگیری عمیق در حوزههای مختلفی از جمله بینایی ماشین، پردازش زبان طبیعی، تشخیص گفتار و سیستمهای توصیه قرار دارد. با بهرهبرداری از مجموعه دادههای بزرگ و منابع محاسباتی قدرتمند، یادگیری عمیق به دستاوردهای قابل توجهی مانند دستهبندی تصویر، ترجمه زبان و رانندگی خودکار دست یافته است.
هدف این درس آشنایی با شبکههای عمیق، یادگیری عمیق، چالشهای ریاضیاتی، محاسباتی و کاربرد آنها در دادههای با ابعاد بزرگ مانند سیگنال، تصویر و متن میباشد. یادگیری با سرپرست، بدون سرپرست، و یادگیری خصمانه با تکیه بر شبکههای عصبی کانولوشنی و آشنایی با آخرین مدلهای ارایه شده، از مباحث اصلی این درس میباشند.
هدف این درس آشنایی با شبکههای عمیق، یادگیری عمیق، چالشهای ریاضیاتی، محاسباتی و کاربرد آنها در دادههای با ابعاد بزرگ مانند سیگنال، تصویر و متن میباشد. یادگیری با سرپرست، بدون سرپرست، و یادگیری خصمانه با تکیه بر شبکههای عصبی کانولوشنی و آشنایی با آخرین مدلهای ارایه شده، از مباحث اصلی این درس میباشند.
سرفصلها:
- معرفیها: مفاهیم یادگیری ماشین، اهمیت، کاربردها و نمونهها
- مرور سریع: ریاضیات ضروری برای یادگیری ماشین (جبر خطی، آمار و احتمال)
- شبکههای عصبی کمعمق و عمیق برای وظایف طبقهبندی و رگرسیون: پرسپترون لایه تک (SLP)، پرسپترون چندلایه (MLP)، الگوریتم پسانتشار خطا (EBP)، مهمترین قضایا، روش تنظیم پارامتر (بهینهسازی، تنظیم و نرمالسازی)
- شبکههای عصبی کانولوشنی (CNN): تاریخچه، مبانی، معماری، ترفندهای یادگیری
- کاربرد CNN در بینایی ماشین: مهمترین شبکهها (AlexNet، GoogleNet، VGGNet، ResNet و شبکههای جدید)
- مدلسازی دنبالهای: Vanilla RNN، LSTM، GRU و نسخههای آنها، مقدمهای به پردازش زبان طبیعی (NLP)، توجه، خودتوجهی، ترانسفورمرها و کاربرد آنها در NLP و درک تصویر، کاربردها در زبان طبیعی و پردازش سیگنال/تصویر
- یادگیری بدون ناظر: کدگذار خودکار (AE) و نسخههای آن (SAE، DAE، CAE، …)، کدگذار خودکار متغیر (VAE) و نسخههای آن (CVAE، HVAE، VQ-VAE، …)
- یادگیری مقابلهای: شبکههای تولیدی مقابلهای (GAN)، نسخههای GAN (CGAN، DC-GAN، CycleGAN، WGAN، Progressive-GAN، Style-GAN)
- مدلهای Diffusion
مراجع:
- I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning, MIT Press, 2016
- K. Murphy, Probabilistic Machine Learning – An Introduction, MIT Press, 2022
- S. Theodoridis, Machine Learning: A Bayesian and Optimization Perspective, Academic Press, 2015
- M. Deisenroth, A. Faisal, and C. Ong, Mathematics for Machine Learning, Cambridge University Press, 2020
- K. B. Petersen and M. S. Pedersen, Matrix Cookbook, Technical University of Denmark, 2012
- Top Hot Paper
آخرین بهروزرسانی: 7 / 3 / 1403