40 machine learning level 2 farsi Flashcards

1
Q

تفاوت اصلی بین Supervised Learning و Unsupervised Learning چیست؟

A

در یادگیری Supervised از داده‌های لیبل‌دار برای پیش‌بینی استفاده می‌شود، در حالی که Unsupervised داده‌های بدون لیبل را برای یافتن الگوها تحلیل می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

نقش Activation Function در یک شبکه عصبی چیست؟

A

Activation Function به شبکه غیرخطی بودن اضافه می‌کند، که باعث می‌شود بتواند روابط پیچیده را یاد بگیرد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

چرا Feature Scaling در یادگیری ماشین مهم است؟

A

Feature Scaling باعث می‌شود که مقیاس داده‌ها یکسان شود و الگوریتم‌ها بهتر عمل کنند، خصوصاً در مدل‌هایی مانند SVM و KNN.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Overfitting چیست و چگونه می‌توان آن را کاهش داد؟

A

Overfitting زمانی رخ می‌دهد که مدل روی داده‌های آموزشی بیش از حد تمرکز کند. کاهش آن با Regularization، Dropout، یا افزایش داده ممکن است.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

تفاوت بین Gradient Descent و Stochastic Gradient Descent چیست؟

A

Gradient Descent تمام داده‌ها را برای هر بروزرسانی استفاده می‌کند، در حالی که Stochastic Gradient Descent فقط یک نمونه از داده را به‌کار می‌گیرد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

چگونه جهت یک خبر فاندامنتال فارکس محاسبه می‌شود؟

A

با استفاده از فرمول sign((Actual - Forecast) + (Actual - Previous)) جهت خبر مشخص می‌شود.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

LSTM چه تفاوتی با RNN معمولی دارد؟

A

LSTM از حافظه طولانی‌مدت و مکانیزم دروازه‌ای استفاده می‌کند تا مشکلات RNN در حفظ اطلاعات طولانی‌مدت را حل کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Backpropagation چگونه در آموزش شبکه‌های عصبی استفاده می‌شود؟

A

Backpropagation خطای پیش‌بینی را محاسبه کرده و گرادیان‌ها را برای تنظیم وزن‌ها در هر لایه به‌کار می‌گیرد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

معماری مناسب برای داده‌های سری‌های زمانی چیست؟

A

معماری‌های RNN، LSTM و GRU بهترین گزینه‌ها برای داده‌های سری‌های زمانی هستند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

چرا Regularization در یادگیری ماشین اهمیت دارد؟

A

Regularization باعث می‌شود مدل ساده‌تر و کمتر مستعد Overfitting شود، مانند L2 Regularization یا Dropout.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

تفاوت بین Classification و Regression چیست؟

A

Classification دسته‌بندی داده‌ها به گروه‌ها را انجام می‌دهد، در حالی که Regression مقدار عددی پیش‌بینی می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Cross-Validation چه کمکی به یادگیری ماشین می‌کند؟

A

Cross-Validation عملکرد مدل را با استفاده از تقسیم داده به بخش‌های آموزشی و آزمایشی ارزیابی می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

مفهوم Learning Rate در آموزش شبکه عصبی چیست؟

A

Learning Rate سرعت تغییر وزن‌ها در حین یادگیری را تعیین می‌کند. مقدار خیلی بالا یا پایین می‌تواند مشکل‌ساز باشد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

مفهوم Dropout در شبکه‌های عصبی چیست؟

A

Dropout یک روش Regularization است که برخی از نودها را در هر مرحله تصادفی غیر فعال می‌کند تا Overfitting کاهش یابد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Softmax Function چه کاربردی دارد؟

A

Softmax احتمال هر کلاس را در Classification محاسبه می‌کند و مجموع خروجی‌ها را به 1 نرمال‌سازی می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

منظور از Hyperparameter چیست؟

A

Hyperparameter پارامترهایی هستند که قبل از آموزش مدل تنظیم می‌شوند، مانند تعداد لایه‌ها یا Learning Rate.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

مفهوم Epoch در یادگیری ماشین چیست؟

A

Epoch به یک دور کامل عبور داده‌های آموزشی از مدل گفته می‌شود.

18
Q

Gradient Clipping چیست و چه کاربردی دارد؟

A

Gradient Clipping محدود کردن مقادیر گرادیان برای جلوگیری از نوسانات و بهبود پایداری یادگیری است.

19
Q

چرا Normalization در پیش‌پردازش داده‌ها اهمیت دارد؟

A

Normalization باعث می‌شود داده‌ها در مقیاس مشابه قرار بگیرند، که عملکرد مدل را بهبود می‌بخشد.

20
Q

Early Stopping چه کمکی به یادگیری ماشین می‌کند؟

A

Early Stopping فرآیند یادگیری را زمانی که عملکرد روی داده‌های Validation بدتر می‌شود، متوقف می‌کند تا Overfitting کاهش یابد.

21
Q

Batch Normalization چیست و چرا استفاده می‌شود؟

A

تکنیکی است که توزیع داده‌های هر لایه را نرمال می‌کند تا یادگیری سریع‌تر و پایدارتر انجام شود.

22
Q

PCA در یادگیری ماشین چه کاربردی دارد؟

A

PCA یا Principal Component Analysis برای کاهش ابعاد داده‌ها و حفظ بیشترین واریانس استفاده می‌شود.

23
Q

مفهوم Confusion Matrix چیست؟

A

Confusion Matrix ماتریسی است که عملکرد مدل دسته‌بندی را با نمایش True Positives، True Negatives، False Positives و False Negatives ارزیابی می‌کند.

24
Q

تفاوت Precision و Recall چیست؟

A

Precision نسبت پیش‌بینی‌های درست مثبت به تمام پیش‌بینی‌های مثبت است، در حالی که Recall نسبت پیش‌بینی‌های درست مثبت به کل موارد مثبت واقعی است.

25
مفهوم F1 Score چیست و چگونه محاسبه می‌شود؟
F1 Score میانگین هارمونیک Precision و Recall است که برای ارزیابی مدل‌هایی با تعادل Precision و Recall به کار می‌رود.
26
نقش Optimizer در آموزش شبکه‌های عصبی چیست؟
Optimizer فرآیندی برای به‌روزرسانی وزن‌ها و کاهش خطا در شبکه عصبی است. مثال: Adam، SGD.
27
TensorFlow چیست و چه کاربردی دارد؟
TensorFlow یک کتابخانه متن‌باز برای ساخت و آموزش مدل‌های یادگیری ماشین و شبکه‌های عصبی است.
28
PyTorch چه تفاوتی با TensorFlow دارد؟
PyTorch انعطاف‌پذیری بیشتری برای تحقیق ارائه می‌دهد و از محاسبات پویا استفاده می‌کند، در حالی که TensorFlow برای تولید کاربردی‌تر است.
29
مفهوم Ensemble Learning چیست؟
Ensemble Learning ترکیب چندین مدل برای بهبود عملکرد پیش‌بینی است، مانند Bagging و Boosting.
30
Boosting چگونه کار می‌کند؟
Boosting به‌طور متوالی مدل‌ها را آموزش می‌دهد تا خطاهای مدل‌های قبلی را کاهش دهد. مثال: XGBoost.
31
Bagging در یادگیری ماشین چیست؟
Bagging مدل‌های متعدد را به‌طور موازی آموزش می‌دهد و نتایج را ترکیب می‌کند تا واریانس کاهش یابد. مثال: Random Forest.
32
Dropout Rate چیست؟
درصد نودهایی که در هر مرحله از آموزش به‌طور تصادفی غیرفعال می‌شوند، Dropout Rate نامیده می‌شود.
33
Sigmoid Activation Function چه ویژگی‌هایی دارد؟
Sigmoid مقدار ورودی را به بازه (0, 1) نگاشت می‌کند و اغلب در لایه‌های خروجی استفاده می‌شود.
34
ReLU چه مزیتی نسبت به Sigmoid دارد؟
ReLU ساده‌تر است، از محاسبات بیشتری جلوگیری می‌کند و مشکلات گرادیان ناپدید شونده را کاهش می‌دهد.
35
مفهوم Weight Initialization چیست؟
تنظیم مقادیر اولیه وزن‌ها در شبکه عصبی برای بهبود همگرایی و جلوگیری از مشکلاتی مانند گرادیان ناپدید شونده.
36
Loss Function چیست و چرا اهمیت دارد؟
Loss Function معیاری است که نشان می‌دهد مدل چقدر از پیش‌بینی هدف فاصله دارد. مثال: MSE، Cross-Entropy.
37
Data Augmentation چیست؟
تکنیکی برای تولید داده‌های جدید از داده‌های موجود با تغییراتی مانند چرخش، برش یا تغییر روشنایی.
38
مفهوم Learning Curve چیست؟
Learning Curve نموداری است که نشان‌دهنده عملکرد مدل بر اساس داده‌های آموزشی و Validation در طول زمان است.
39
Softmax Regression چگونه کار می‌کند؟
Softmax Regression تعمیم Logistic Regression برای دسته‌بندی چندکلاسه است و احتمال هر کلاس را محاسبه می‌کند.
40
مفهوم Weight Decay چیست؟
Weight Decay تکنیکی است که وزن‌ها را با یک مقدار کوچک کاهش می‌دهد تا از Overfitting جلوگیری شود.