40 machine learning level 1 farsi Flashcards
RNN چیست و چه کاربردی دارد؟
RNN یا Recurrent Neural Network نوعی شبکه عصبی است که اطلاعات قبلی را در حافظه ذخیره میکند و برای دادههای ترتیبی مانند متن یا سری زمانی استفاده میشود.
چرا RNNها حافظه دارند؟
RNNها از حلقههایی در ساختار خود استفاده میکنند که اطلاعات از مرحلههای قبلی را به مراحل بعدی منتقل میکند.
مشکل اصلی RNNها چیست؟
RNNها در حفظ اطلاعات طولانیمدت مشکل دارند و ممکن است دچار مشکل گرادیان ناپدیدشونده شوند.
LSTM چگونه مشکل RNN را حل میکند؟
LSTM از مکانیزم دروازهها (Gates) برای انتخاب اطلاعات مهم و حذف اطلاعات غیرضروری استفاده میکند.
سه نوع دروازه در LSTM چیست؟
- دروازه ورودی (Input Gate) 2. دروازه خروجی (Output Gate) 3. دروازه فراموشی (Forget Gate).
نقش دروازه فراموشی در LSTM چیست؟
این دروازه تعیین میکند کدام اطلاعات از حافظه حذف شوند.
GRU چیست؟
GRU یا Gated Recurrent Unit نسخه سادهشدهای از LSTM است که فقط از دو دروازه استفاده میکند: Update و Reset.
تفاوت اصلی LSTM و GRU چیست؟
GRU سادهتر از LSTM است و نیاز به محاسبات کمتری دارد زیرا دروازه خروجی ندارد.
چرا از LSTM برای ترجمه ماشین استفاده میشود؟
زیرا LSTM قادر به حفظ اطلاعات طولانیمدت در جملات و متنها است.
Sequence-to-Sequence مدل چیست؟
نوعی معماری RNN است که دادههای ورودی را به دنبالهای از دادههای خروجی تبدیل میکند، مثل ترجمه زبان.
مفهوم Bidirectional RNN چیست؟
نوعی RNN که اطلاعات را از دو جهت (قبلی و بعدی) پردازش میکند تا عملکرد بهتری داشته باشد.
مفهوم Attention Mechanism چیست؟
مکانیزمی است که به مدل کمک میکند اطلاعات مهمتر را در دادههای طولانی شناسایی کند.
Embedding Layer چیست؟
لایهای که کلمات را به بردارهایی با ابعاد کمتر تبدیل میکند تا معنای آنها بهتر مدلسازی شود.
کاربرد Word Embedding چیست؟
برای نمایش کلمات در فضای عددی به نحوی که کلمات مشابه به یکدیگر نزدیک باشند.
مفهوم Time Step در RNN چیست؟
هر نقطه یا مرحله از زمان که داده ورودی به RNN داده میشود.
چرا Sequence Length در RNN مهم است؟
طول دنباله تعیین میکند که مدل چقدر اطلاعات گذشته را در نظر بگیرد.
کاربرد اصلی GRU چیست؟
در مسائل سری زمانی که نیاز به سرعت و محاسبات کمتر نسبت به LSTM دارند، مانند پیشبینی قیمت سهام.
چگونه میتوان دادههای سری زمانی را پیشپردازش کرد؟
با استفاده از Normalization، تقسیم داده به بخشهای آموزشی و آزمایشی، و ایجاد Sliding Windows.
Sliding Window در سری زمانی چیست؟
تکنیکی برای تقسیم دادههای سری زمانی به دنبالههای کوچکتر برای آموزش مدل.
چرا Gradient Clipping در RNN استفاده میشود؟
برای جلوگیری از رشد بیش از حد گرادیانها و ایجاد ناپایداری در آموزش.
Backpropagation Through Time چیست؟
الگوریتمی برای آموزش RNNها که خطاها را در طول زمان به عقب منتشر میکند.
چرا مشکل گرادیان ناپدیدشونده در RNN مهم است؟
زیرا مدل نمیتواند اطلاعات مربوط به زمانهای طولانی را یاد بگیرد.
تفاوت RNN و CNN چیست؟
RNN برای دادههای ترتیبی مثل متن و سری زمانی استفاده میشود، اما CNN برای دادههای مکانی مثل تصاویر.
Dropout در RNN چگونه استفاده میشود؟
بهطور تصادفی برخی از نودها را غیرفعال میکند تا مدل از Overfitting جلوگیری کند.
مفهوم Stateful RNN چیست؟
نوعی RNN که حالت خود را بین Batchهای مختلف حفظ میکند.
چرا Data Augmentation در سری زمانی سختتر است؟
زیرا تغییرات دادهها مانند چرخش یا برش ممکن است توالی زمانی را مختل کند.
Optimizer مناسب برای RNN چیست؟
الگوریتمهایی مانند Adam یا RMSProp که با دادههای ترتیبی بهتر کار میکنند.
مفهوم Teacher Forcing در RNN چیست؟
تکنیکی برای استفاده از خروجی واقعی بهجای پیشبینی مدل در آموزش.
چرا Batch Size در RNNها کوچکتر انتخاب میشود؟
برای بهبود همگرایی و کاهش نیاز به حافظه.
مفهوم Epoch در آموزش RNN چیست؟
هر بار که تمام دادههای آموزشی از طریق مدل عبور میکنند.
Attention چگونه عملکرد RNN را بهبود میدهد؟
با تمرکز بر بخشهای مهم داده بهجای پردازش همه چیز به یک اندازه.
مکانیزم Self-Attention چیست؟
نوعی Attention که هر کلمه را نسبت به سایر کلمات همان دنباله وزندهی میکند.
Transformer چگونه از RNN متفاوت است؟
Transformer از مکانیزم Self-Attention استفاده میکند و نیازی به پردازش ترتیبی ندارد.
چرا Normalization در دادههای سری زمانی مهم است؟
برای کاهش اثر مقیاس دادهها و بهبود عملکرد مدل.
Gradient Explosion در RNN چیست؟
حالتی که گرادیانها بیش از حد بزرگ میشوند و یادگیری مدل ناپایدار میشود.
پیشبینی یک مرحلهای (One-Step Ahead Prediction) چیست؟
پیشبینی مقدار بعدی در دنباله سری زمانی.
پیشبینی چند مرحلهای (Multi-Step Prediction) چیست؟
پیشبینی چندین مقدار بعدی در سری زمانی.
کاربرد Attention در ترجمه ماشین چیست؟
برای تمرکز بر کلمات مرتبط در جمله ورودی و بهبود ترجمه.
مفهوم Hidden State در RNN چیست؟
برداری که اطلاعات خلاصه شده از مراحل قبلی را نگه میدارد.
Context Vector در Attention چیست؟
برداری که اطلاعات مهم انتخاب شده توسط مکانیزم Attention را نگه میدارد.