25645: علوم اعصاب یادگیری، حافظه، شناخت
نام درس: علوم اعصاب یادگیری، حافظه، شناخت (Neuro Science Learning, Memory, Cognition)
شماره درس: 25645
پیش‌نیاز(ها): -
هم‌نیاز(ها): -
تعداد واحد: 3
مقطع: کارشناسی ارشد
آخرین ویرایش: پاییز 1397

توضیحات:
اهداف این درس عبارتند از:
  • مدل‌سازی کارکرد مغز در پروسه‌های یادگیری، تشکیل و فراخوان حافظه، شناخت، و تصمیم‌گیری بر اساس مدل‌های پردازشی شبکه‌های عصبی: (Feedforward, Recurrent, Reinforcement Learning, Supervised and Unsupervised Learning)
  • بررسی مدل‌های موجود در سطوح مختلف پردازش از مدل اسپایک‌زدن تک نورون تا فعالیت جمعی شبکه‌های بزرگ نورونی در پروسه‌های ادراک و تصمیم‌گیری در مغز
  • الگوریتم‌های یادگیری در شبکه‌های رو به جلو و بازگشتی، شبکه‌های تقویتی، یادگیری سرپرستی‌شده و خودکار
  • پروژه‌های مبتنی بر شبیه‌سازی و تحلیل داده شبکه‌های نورونی در راستای کسب توانمندی برای پژوهش در حوزه علوم اعصاب محاسباتی
  • مرور ادبیات حوزه علوم اعصاب و مطالعه و ارائه دستاوردهای اخیر در آزمایشگاه‌های پژوهشی مطرح دنیا
 
سرفصل‌ها:
  • مدل نورون: ساختار نورون، کانال‌های یونی، پدیده اسپایک، معادله‌هاجکین-هاگزلی، آناتومی یک اسپایک، دینامیک تحریک، مدل انتگرال‌گیر-شلیک، مدل‌های دو بعدی، دندریت‌ها و هندسه نورون‌ها
  • شبکه‌های رو به جلو و بازگشتی: مدل‌سازی ورودی سیناپس، مدل‌های اسپایکی و نرخ شلیک، یافتن لبه تصاویر در مغز، شبکه‌های بزرگ و مدل‌های گسسته و پیوسته برای متغیرهای شبکه، یافتن پاسخ بر مبنای بردارهای ویژه، پایداری شبکه، کاربرد در تقویت ورودی و تشکیل حافظه، شبکه‌های بازگشتی غیر خطی، شبکه‌های تحریکی-ممانعتی، صفحه فاز و تحلیل پایداری، پاسخ نوسانی و رفتار ناپایدار
  • انعطاف سیناپسی و یادگیری: قانون یادگیری هب و تعبیر کوواریانسی آن، تجزیه به مولفه‌های اصلی، تقویت و تضعیف بلندمدت، یادگیری بدون سرپرست، نگاشت‌های خودتنظیم، خوشه‌بندی و یادگیری رقابتی، تصمیم‌گیری بر مبنای بیشینه امکان وقوع، نقش اطلاعات پیشین، مدل ژنراتیو برای تخمین تحریک ورودی، تخمین بیزین پسین، الگوریتم بیشینه‌سازی توقع، مدل‌های تقسیم کار بین نورون‌ها مبتنی بر کدگذاری تکین، پردازش تصویر بر اساس فیلترهای برآمده از مدل تکین، تعبیر خروجی لایه‌های پنهان ابتدایی پردازش در مغز با فیلترهای مشتق‌گیر جهت‌دار، شبکه‌های بازگشتی برای کدینگ تکین، تعبیر کدینگ پیش‌بینانه
  • یادگیری سرپرستی‌شده: مسئله طبقه‌بندی، قانون یادگیری پرسپترون، پرسپترون چندلایه، مدل‌های چندلایه‌ای انتشار به عقب خطا، رگرسیون و شبکه‌های زیگمویدی
  • یادگیری تقویتی: شرطی‌سازی کلاسیک، استفاده از پاداش و جریمه به عنوان فیدبک، یادگیری مبتنی بر پیش‌بینی پاداش، قانون رسکورلا-واگنر، نقش دوپامین در مغز به عنوان سیگنال خطای پیش‌بینی، قانون یادگیری تفاضل زمانی، سیاست انتخاب حرکت، مسئله‌های تصمیم‌سازی مارکوفی، توازن بین اکتشاف در برابر بهره‌گیری از دانش موجود، مدل سیاست بازگشتی، الگوریتم یادگیری عامل-منتقد
  • حافظه تناظری: به‌حافظه‌سپاری و فراخوان، مدل یادگیری تناظری هب، مدل هاپفیلد، فراخوان الگو، شبکه‌های جاذب، مدل قدم‌زدن تصادفی، احتمال خطا، مدل هاپفیلد احتمالاتی، تعبیر انرژی، گنجایش حافظه، تعمیم مدل به ساختار بیولوژیک
  • جمعیت‌های نورونی: فعالیت جمعی، حوزه‌های دریافت بصری، نگاشت‌های جهت‌ها در کورتکس، اتصالات: شبکه‌های تصادفی، مدل حوزه میانگین: حالت غیر هم‌زمان، شبکه نورون‌های انتگرال-شلیک، شبکه‌های متوازن، حالت گذرا، مدل خطی تعمیم‌یافته، معادله فعالیت در حالت نویز بالا، معادله حوزه: مدل پیوسته، مدل‌های پاسخ: مدل پاسخ تابع ورودی و مدل پاسخ جاذب بامپ
  • مدل‌های تصمیم‌سازی: تصمیم‌سازی بر اساس ادراک، تئوری دینامیک تصمیم، پاسخ به ورودی‌های متقارن قوی و ضعیف و ورودی‌های نامتقارن، نتایج شبیه‌سازی و داده‌گیری واقعی، تصمیم‌گیری ریسک‌پذیر و ایمن، آزمون لیبت، اراده و اختیار، چه چیز یا چه کسی تصمیم می‌گیرد، از تصمیم تا حرکت


مراجع:
  • Peter Dayan and Larry Abbott, Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems, MIT Press, 2005
  • W. Gerstner, W. Kistler, R. Naud, L. Paninski, Neuronal Dynamics - From Single Neurons to Networks and Models of Cognition, Cambridge University Press, 2014
  • Eugene M. Izhikevich, Dynamical Systems in Neuroscience: The Geometry of Excitability and Bursting, The MIT Press, 2010
  • Thomas Trappenberg, Fundamentals of Computational Neuroscience, Oxford, 2009


 
آخرین به‌روزرسانی: 5 / 3 / 1403