Aktivasyon fonksiyonu

testwiki sitesinden
09.32, 20 Kasım 2024 tarihinde imported>InternetArchiveBot tarafından oluşturulmuş 3182 numaralı sürüm (2 kaynak kurtarıldı ve 0 kaynak ölü olarak işaretlendi.) #IABot (v2.0.9.5)
(fark) ← Önceki sürüm | Güncel sürüm (fark) | Sonraki sürüm → (fark)
Gezinti kısmına atla Arama kısmına atla

Yapay sinir ağındaki bir nöronun aktivasyon fonksiyonu, nöronun girdilerinden gelen değerlerin toplamını kullanarak nöronun çıktısını hesaplamaya yardımcı olan matematiksel fonksiyondur. Aktivasyon fonksiyonu doğrusal olmadığı sürece, sadece birkaç nöron kullanılarak bile karmaşık problemler çözülebilir.[1]

Aktivasyon Fonksiyonları Tablosu

İsmi Grafik Fonksiyon, g(x) g'nin türevi, g(x) Değer Kümesi Süreklilik Sırası
Birim Fonksiyon (identity) x 1 (,) C
Heaviside basamak fonksiyonu (binary step) {0if x<01if x0 0 {0,1} C1
Lojistik fonksiyon (sigmoid, softstep) σ(x)11+ex g(x)(1g(x)) (0,1) C
Hiperbolik tanjant (tanh) tanh(x)exexex+ex 1g(x)2 (1,1) C
Soboleva eklentili hiperbolik tanjant (smht) smht(x)eaxebxecx+edx (1,1) C
Doğrultulmuş Lineer birim (ReLU)[2] (x)+{0if x0xif x>0=max(0,x)=x1x>0 {0if x<01if x>0 [0,) C0
Gaussian Error Lineer birim (GELU)[3] Visualization of the Gaussian Error Linear Unit (GELU) 12x(1+erf(x2))=xΦ(x) Φ(x)+xϕ(x) (0.17,) C
Softplus[4] ln(1+ex) 11+ex (0,) C
Üstel lineer birim (ELU)[5] {α(ex1)if x0xif x>0
α parametresi ile
{αexif x<01if x>0 (α,) {C1eğer α=1 iseC0değilse
Ölçeklenmiş üstel lineer birim (SELU)[6] λ{α(ex1)if x<0xif x0
λ=1.0507 ve α=1.67326 parametreleri ile
λ{αexif x<01if x0 (λα,) C0
Leaky doğrultulmuş lineer birim (Leaky ReLU)[7] {0.01xif x0xif x>0 {0.01if x<01if x>0 (,) C0
Parametrik doğrultulmuş lineer birim (PReLU)[8] {αxif x<0xif x0
α parametresi ile
{αif x<01if x0 (,) C0
Sigmoid lineer birim (SiLU,[3] Sigmoid shrinkage,[9] SiL,[10] or Swish-1[11]) Swish Activation Function x1+ex 1+ex+xex(1+ex)2 [0.278,) C
Üstel lineer sigmoid squashing (ELiSH)[12] {x1+exif x0ex11+exif x<0
Gauss Fonksiyonu ex2 2xex2 (0,1] C
Sinusoid sinx cosx [1,1] C
Softmax exij=1Jexj ; Şablon:Mvar = 1, …, Şablon:Mvar gi(x)(δijgj(x)) (0,1) C
Maxout[13] maxixi {1if j=argmaxixi0if jargmaxixi (,) C0
Şablon:Note Yukarıdaki δij, Kronecker Deltası'dır.
Şablon:Note Örneğin; j önceki sinir ağı katmanının çekirdekleri (kernel) arasında yineleme yaparken, i mevcut katmanın çekirdekleri arasında yineleme yapıyor olabilir.

Ayrıca Bakınız

Kaynakça

Şablon:Kaynakça