40 machine learning level 2 farsi Flashcards
تفاوت اصلی بین Supervised Learning و Unsupervised Learning چیست؟
در یادگیری Supervised از دادههای لیبلدار برای پیشبینی استفاده میشود، در حالی که Unsupervised دادههای بدون لیبل را برای یافتن الگوها تحلیل میکند.
نقش Activation Function در یک شبکه عصبی چیست؟
Activation Function به شبکه غیرخطی بودن اضافه میکند، که باعث میشود بتواند روابط پیچیده را یاد بگیرد.
چرا Feature Scaling در یادگیری ماشین مهم است؟
Feature Scaling باعث میشود که مقیاس دادهها یکسان شود و الگوریتمها بهتر عمل کنند، خصوصاً در مدلهایی مانند SVM و KNN.
Overfitting چیست و چگونه میتوان آن را کاهش داد؟
Overfitting زمانی رخ میدهد که مدل روی دادههای آموزشی بیش از حد تمرکز کند. کاهش آن با Regularization، Dropout، یا افزایش داده ممکن است.
تفاوت بین Gradient Descent و Stochastic Gradient Descent چیست؟
Gradient Descent تمام دادهها را برای هر بروزرسانی استفاده میکند، در حالی که Stochastic Gradient Descent فقط یک نمونه از داده را بهکار میگیرد.
چگونه جهت یک خبر فاندامنتال فارکس محاسبه میشود؟
با استفاده از فرمول sign((Actual - Forecast) + (Actual - Previous)) جهت خبر مشخص میشود.
LSTM چه تفاوتی با RNN معمولی دارد؟
LSTM از حافظه طولانیمدت و مکانیزم دروازهای استفاده میکند تا مشکلات RNN در حفظ اطلاعات طولانیمدت را حل کند.
Backpropagation چگونه در آموزش شبکههای عصبی استفاده میشود؟
Backpropagation خطای پیشبینی را محاسبه کرده و گرادیانها را برای تنظیم وزنها در هر لایه بهکار میگیرد.
معماری مناسب برای دادههای سریهای زمانی چیست؟
معماریهای RNN، LSTM و GRU بهترین گزینهها برای دادههای سریهای زمانی هستند.
چرا Regularization در یادگیری ماشین اهمیت دارد؟
Regularization باعث میشود مدل سادهتر و کمتر مستعد Overfitting شود، مانند L2 Regularization یا Dropout.
تفاوت بین Classification و Regression چیست؟
Classification دستهبندی دادهها به گروهها را انجام میدهد، در حالی که Regression مقدار عددی پیشبینی میکند.
Cross-Validation چه کمکی به یادگیری ماشین میکند؟
Cross-Validation عملکرد مدل را با استفاده از تقسیم داده به بخشهای آموزشی و آزمایشی ارزیابی میکند.
مفهوم Learning Rate در آموزش شبکه عصبی چیست؟
Learning Rate سرعت تغییر وزنها در حین یادگیری را تعیین میکند. مقدار خیلی بالا یا پایین میتواند مشکلساز باشد.
مفهوم Dropout در شبکههای عصبی چیست؟
Dropout یک روش Regularization است که برخی از نودها را در هر مرحله تصادفی غیر فعال میکند تا Overfitting کاهش یابد.
Softmax Function چه کاربردی دارد؟
Softmax احتمال هر کلاس را در Classification محاسبه میکند و مجموع خروجیها را به 1 نرمالسازی میکند.
منظور از Hyperparameter چیست؟
Hyperparameter پارامترهایی هستند که قبل از آموزش مدل تنظیم میشوند، مانند تعداد لایهها یا Learning Rate.
مفهوم Epoch در یادگیری ماشین چیست؟
Epoch به یک دور کامل عبور دادههای آموزشی از مدل گفته میشود.
Gradient Clipping چیست و چه کاربردی دارد؟
Gradient Clipping محدود کردن مقادیر گرادیان برای جلوگیری از نوسانات و بهبود پایداری یادگیری است.
چرا Normalization در پیشپردازش دادهها اهمیت دارد؟
Normalization باعث میشود دادهها در مقیاس مشابه قرار بگیرند، که عملکرد مدل را بهبود میبخشد.
Early Stopping چه کمکی به یادگیری ماشین میکند؟
Early Stopping فرآیند یادگیری را زمانی که عملکرد روی دادههای Validation بدتر میشود، متوقف میکند تا Overfitting کاهش یابد.
Batch Normalization چیست و چرا استفاده میشود؟
تکنیکی است که توزیع دادههای هر لایه را نرمال میکند تا یادگیری سریعتر و پایدارتر انجام شود.
PCA در یادگیری ماشین چه کاربردی دارد؟
PCA یا Principal Component Analysis برای کاهش ابعاد دادهها و حفظ بیشترین واریانس استفاده میشود.
مفهوم Confusion Matrix چیست؟
Confusion Matrix ماتریسی است که عملکرد مدل دستهبندی را با نمایش True Positives، True Negatives، False Positives و False Negatives ارزیابی میکند.
تفاوت Precision و Recall چیست؟
Precision نسبت پیشبینیهای درست مثبت به تمام پیشبینیهای مثبت است، در حالی که Recall نسبت پیشبینیهای درست مثبت به کل موارد مثبت واقعی است.
مفهوم F1 Score چیست و چگونه محاسبه میشود؟
F1 Score میانگین هارمونیک Precision و Recall است که برای ارزیابی مدلهایی با تعادل Precision و Recall به کار میرود.
نقش Optimizer در آموزش شبکههای عصبی چیست؟
Optimizer فرآیندی برای بهروزرسانی وزنها و کاهش خطا در شبکه عصبی است. مثال: Adam، SGD.
TensorFlow چیست و چه کاربردی دارد؟
TensorFlow یک کتابخانه متنباز برای ساخت و آموزش مدلهای یادگیری ماشین و شبکههای عصبی است.
PyTorch چه تفاوتی با TensorFlow دارد؟
PyTorch انعطافپذیری بیشتری برای تحقیق ارائه میدهد و از محاسبات پویا استفاده میکند، در حالی که TensorFlow برای تولید کاربردیتر است.
مفهوم Ensemble Learning چیست؟
Ensemble Learning ترکیب چندین مدل برای بهبود عملکرد پیشبینی است، مانند Bagging و Boosting.
Boosting چگونه کار میکند؟
Boosting بهطور متوالی مدلها را آموزش میدهد تا خطاهای مدلهای قبلی را کاهش دهد. مثال: XGBoost.
Bagging در یادگیری ماشین چیست؟
Bagging مدلهای متعدد را بهطور موازی آموزش میدهد و نتایج را ترکیب میکند تا واریانس کاهش یابد. مثال: Random Forest.
Dropout Rate چیست؟
درصد نودهایی که در هر مرحله از آموزش بهطور تصادفی غیرفعال میشوند، Dropout Rate نامیده میشود.
Sigmoid Activation Function چه ویژگیهایی دارد؟
Sigmoid مقدار ورودی را به بازه (0, 1) نگاشت میکند و اغلب در لایههای خروجی استفاده میشود.
ReLU چه مزیتی نسبت به Sigmoid دارد؟
ReLU سادهتر است، از محاسبات بیشتری جلوگیری میکند و مشکلات گرادیان ناپدید شونده را کاهش میدهد.
مفهوم Weight Initialization چیست؟
تنظیم مقادیر اولیه وزنها در شبکه عصبی برای بهبود همگرایی و جلوگیری از مشکلاتی مانند گرادیان ناپدید شونده.
Loss Function چیست و چرا اهمیت دارد؟
Loss Function معیاری است که نشان میدهد مدل چقدر از پیشبینی هدف فاصله دارد. مثال: MSE، Cross-Entropy.
Data Augmentation چیست؟
تکنیکی برای تولید دادههای جدید از دادههای موجود با تغییراتی مانند چرخش، برش یا تغییر روشنایی.
مفهوم Learning Curve چیست؟
Learning Curve نموداری است که نشاندهنده عملکرد مدل بر اساس دادههای آموزشی و Validation در طول زمان است.
Softmax Regression چگونه کار میکند؟
Softmax Regression تعمیم Logistic Regression برای دستهبندی چندکلاسه است و احتمال هر کلاس را محاسبه میکند.
مفهوم Weight Decay چیست؟
Weight Decay تکنیکی است که وزنها را با یک مقدار کوچک کاهش میدهد تا از Overfitting جلوگیری شود.