تابع فعال سازی در شبکه های عصبی

تابع فعال سازی در شبکه های عصبی

در شبکه های عصبی کدام تابع های فعال سازی (Activation Functions ) را برای کدام الگوریتم استفاده کنیم؟

برای شبکه های  CNN و MLP معمولا تابع ReLU استفاده می شود.

برای شبکه های RNN معمولا توابع Sigmoid و tanh استفاده می شوند.

تابع ReLU یک تابع جنرال نیز وجود دارد که برای اکثر شبکه های عصبی می تواند استفاده بشود.

 

تابع فعال سازی در شبکه های عصبی2

 

توجه: در مواردی که ذکر شد قانون خاصی وجود ندارد، شما می توانید همه ی توابع فعالسازی غیر خطی مخصوص hidden layers رو می توانید استفاده کنید، مهم این است که به بهترین عملکرد الگوریتم خودتان برسید.

نکته:

توابع فعال سازی برای Output layer:
Linear
Sigmoid
Softmax

توابع فعال سازی برای  Hidden layer:
ReLU
Sigmoid
tanh

 

تابع فعال سازی در شبکه های عصبی3

 

دنبال کردن در تلگرام دنبال کردن در اینستاگرام دنبال کردن در آپارات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

×