Aktivasyon fonksiyonu - Vikipedi
İçeriğe atla
Ana menü
Gezinti
  • Anasayfa
  • Hakkımızda
  • İçindekiler
  • Rastgele madde
  • Seçkin içerik
  • Yakınımdakiler
Katılım
  • Deneme tahtası
  • Köy çeşmesi
  • Son değişiklikler
  • Dosya yükle
  • Topluluk portalı
  • Wikimedia dükkânı
  • Yardım
  • Özel sayfalar
Vikipedi Özgür Ansiklopedi
Ara
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç

İçindekiler

  • Giriş
  • 1 Aktivasyon Fonksiyonları Tablosu
  • 2 Ayrıca Bakınız
  • 3 Kaynakça

Aktivasyon fonksiyonu

  • العربية
  • Català
  • Čeština
  • Deutsch
  • English
  • Español
  • فارسی
  • Français
  • Galego
  • עברית
  • İtaliano
  • 日本語
  • 한국어
  • Polski
  • Русский
  • Српски / srpski
  • Ślůnski
  • ไทย
  • Українська
  • Tiếng Việt
  • 中文
  • 閩南語 / Bân-lâm-gí
  • 粵語
Bağlantıları değiştir
  • Madde
  • Tartışma
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Araçlar
Eylemler
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Genel
  • Sayfaya bağlantılar
  • İlgili değişiklikler
  • Kalıcı bağlantı
  • Sayfa bilgisi
  • Bu sayfayı kaynak göster
  • Kısaltılmış URL'yi al
  • Karekodu indir
Yazdır/dışa aktar
  • Bir kitap oluştur
  • PDF olarak indir
  • Basılmaya uygun görünüm
Diğer projelerde
  • Vikiveri ögesi
Görünüm
Vikipedi, özgür ansiklopedi

Yapay sinir ağındaki bir nöronun aktivasyon fonksiyonu, nöronun girdilerinden gelen değerlerin toplamını kullanarak nöronun çıktısını hesaplamaya yardımcı olan matematiksel fonksiyondur. Aktivasyon fonksiyonu doğrusal olmadığı sürece, sadece birkaç nöron kullanılarak bile karmaşık problemler çözülebilir.[1]

Aktivasyon Fonksiyonları Tablosu

[değiştir | kaynağı değiştir]
İsmi Grafik Fonksiyon, g ( x ) {\displaystyle g(x)} {\displaystyle g(x)} g {\displaystyle g} {\displaystyle g}'nin türevi, g ′ ( x ) {\displaystyle g'(x)} {\displaystyle g'(x)} Değer Kümesi Süreklilik Sırası
Birim Fonksiyon (identity) x {\displaystyle x} {\displaystyle x} 1 {\displaystyle 1} {\displaystyle 1} ( − ∞ , ∞ ) {\displaystyle (-\infty ,\infty )} {\displaystyle (-\infty ,\infty )} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Heaviside basamak fonksiyonu (binary step) { 0 if  x < 0 1 if  x ≥ 0 {\displaystyle {\begin{cases}0&{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} {\displaystyle {\begin{cases}0&{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} 0 {\displaystyle 0} {\displaystyle 0} { 0 , 1 } {\displaystyle \{0,1\}} {\displaystyle \{0,1\}} C − 1 {\displaystyle C^{-1}} {\displaystyle C^{-1}}
Lojistik fonksiyon (sigmoid, softstep) σ ( x ) ≐ 1 1 + e − x {\displaystyle \sigma (x)\doteq {\frac {1}{1+e^{-x}}}} {\displaystyle \sigma (x)\doteq {\frac {1}{1+e^{-x}}}} g ( x ) ( 1 − g ( x ) ) {\displaystyle g(x)(1-g(x))} {\displaystyle g(x)(1-g(x))} ( 0 , 1 ) {\displaystyle (0,1)} {\displaystyle (0,1)} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Hiperbolik tanjant (tanh) tanh ⁡ ( x ) ≐ e x − e − x e x + e − x {\displaystyle \tanh(x)\doteq {\frac {e^{x}-e^{-x}}{e^{x}+e^{-x}}}} {\displaystyle \tanh(x)\doteq {\frac {e^{x}-e^{-x}}{e^{x}+e^{-x}}}} 1 − g ( x ) 2 {\displaystyle 1-g(x)^{2}} {\displaystyle 1-g(x)^{2}} ( − 1 , 1 ) {\displaystyle (-1,1)} {\displaystyle (-1,1)} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Soboleva eklentili hiperbolik tanjant (smht) smht ⁡ ( x ) ≐ e a x − e − b x e c x + e − d x {\displaystyle \operatorname {smht} (x)\doteq {\frac {e^{ax}-e^{-bx}}{e^{cx}+e^{-dx}}}} {\displaystyle \operatorname {smht} (x)\doteq {\frac {e^{ax}-e^{-bx}}{e^{cx}+e^{-dx}}}} ( − 1 , 1 ) {\displaystyle (-1,1)} {\displaystyle (-1,1)} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Doğrultulmuş Lineer birim (ReLU)[2] ( x ) + ≐ { 0 if  x ≤ 0 x if  x > 0 = max ( 0 , x ) = x 1 x > 0 {\displaystyle {\begin{aligned}(x)^{+}\doteq {}&{\begin{cases}0&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}\\={}&\max(0,x)=x{\textbf {1}}_{x>0}\end{aligned}}} {\displaystyle {\begin{aligned}(x)^{+}\doteq {}&{\begin{cases}0&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}\\={}&\max(0,x)=x{\textbf {1}}_{x>0}\end{aligned}}} { 0 if  x < 0 1 if  x > 0 {\displaystyle {\begin{cases}0&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} {\displaystyle {\begin{cases}0&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} [ 0 , ∞ ) {\displaystyle [0,\infty )} {\displaystyle [0,\infty )} C 0 {\displaystyle C^{0}} {\displaystyle C^{0}}
Gaussian Error Lineer birim (GELU)[3] Visualization of the Gaussian Error Linear Unit (GELU) 1 2 x ( 1 + erf ( x 2 ) ) = x Φ ( x ) {\displaystyle {\begin{aligned}&{\frac {1}{2}}x\left(1+{\text{erf}}\left({\frac {x}{\sqrt {2}}}\right)\right)\\{}={}&x\Phi (x)\end{aligned}}} {\displaystyle {\begin{aligned}&{\frac {1}{2}}x\left(1+{\text{erf}}\left({\frac {x}{\sqrt {2}}}\right)\right)\\{}={}&x\Phi (x)\end{aligned}}} Φ ( x ) + x ϕ ( x ) {\displaystyle \Phi (x)+x\phi (x)} {\displaystyle \Phi (x)+x\phi (x)} ( − 0.17 … , ∞ ) {\displaystyle (-0.17\ldots ,\infty )} {\displaystyle (-0.17\ldots ,\infty )} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Softplus[4] ln ⁡ ( 1 + e x ) {\displaystyle \ln \left(1+e^{x}\right)} {\displaystyle \ln \left(1+e^{x}\right)} 1 1 + e − x {\displaystyle {\frac {1}{1+e^{-x}}}} {\displaystyle {\frac {1}{1+e^{-x}}}} ( 0 , ∞ ) {\displaystyle (0,\infty )} {\displaystyle (0,\infty )} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Üstel lineer birim (ELU)[5] { α ( e x − 1 ) if  x ≤ 0 x if  x > 0 {\displaystyle {\begin{cases}\alpha \left(e^{x}-1\right)&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}} {\displaystyle {\begin{cases}\alpha \left(e^{x}-1\right)&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}}
α {\displaystyle \alpha } {\displaystyle \alpha } parametresi ile
{ α e x if  x < 0 1 if  x > 0 {\displaystyle {\begin{cases}\alpha e^{x}&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} {\displaystyle {\begin{cases}\alpha e^{x}&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} ( − α , ∞ ) {\displaystyle (-\alpha ,\infty )} {\displaystyle (-\alpha ,\infty )} { C 1 eğer  α = 1  ise C 0 değilse {\displaystyle {\begin{cases}C^{1}&{\text{eğer }}\alpha =1{\text{ ise}}\\C^{0}&{\text{değilse}}\end{cases}}} {\displaystyle {\begin{cases}C^{1}&{\text{eğer }}\alpha =1{\text{ ise}}\\C^{0}&{\text{değilse}}\end{cases}}}
Ölçeklenmiş üstel lineer birim (SELU)[6] λ { α ( e x − 1 ) if  x < 0 x if  x ≥ 0 {\displaystyle \lambda {\begin{cases}\alpha (e^{x}-1)&{\text{if }}x<0\\x&{\text{if }}x\geq 0\end{cases}}} {\displaystyle \lambda {\begin{cases}\alpha (e^{x}-1)&{\text{if }}x<0\\x&{\text{if }}x\geq 0\end{cases}}}
λ = 1.0507 {\displaystyle \lambda =1.0507} {\displaystyle \lambda =1.0507} ve α = 1.67326 {\displaystyle \alpha =1.67326} {\displaystyle \alpha =1.67326} parametreleri ile
λ { α e x if  x < 0 1 if  x ≥ 0 {\displaystyle \lambda {\begin{cases}\alpha e^{x}&{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} {\displaystyle \lambda {\begin{cases}\alpha e^{x}&{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} ( − λ α , ∞ ) {\displaystyle (-\lambda \alpha ,\infty )} {\displaystyle (-\lambda \alpha ,\infty )} C 0 {\displaystyle C^{0}} {\displaystyle C^{0}}
Leaky doğrultulmuş lineer birim (Leaky ReLU)[7] { 0.01 x if  x ≤ 0 x if  x > 0 {\displaystyle {\begin{cases}0.01x&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}} {\displaystyle {\begin{cases}0.01x&{\text{if }}x\leq 0\\x&{\text{if }}x>0\end{cases}}} { 0.01 if  x < 0 1 if  x > 0 {\displaystyle {\begin{cases}0.01&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} {\displaystyle {\begin{cases}0.01&{\text{if }}x<0\\1&{\text{if }}x>0\end{cases}}} ( − ∞ , ∞ ) {\displaystyle (-\infty ,\infty )} {\displaystyle (-\infty ,\infty )} C 0 {\displaystyle C^{0}} {\displaystyle C^{0}}
Parametrik doğrultulmuş lineer birim (PReLU)[8] { α x if  x < 0 x if  x ≥ 0 {\displaystyle {\begin{cases}\alpha x&{\text{if }}x<0\\x&{\text{if }}x\geq 0\end{cases}}} {\displaystyle {\begin{cases}\alpha x&{\text{if }}x<0\\x&{\text{if }}x\geq 0\end{cases}}}
α {\displaystyle \alpha } {\displaystyle \alpha } parametresi ile
{ α if  x < 0 1 if  x ≥ 0 {\displaystyle {\begin{cases}\alpha &{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} {\displaystyle {\begin{cases}\alpha &{\text{if }}x<0\\1&{\text{if }}x\geq 0\end{cases}}} ( − ∞ , ∞ ) {\displaystyle (-\infty ,\infty )} {\displaystyle (-\infty ,\infty )} C 0 {\displaystyle C^{0}} {\displaystyle C^{0}}
Sigmoid lineer birim (SiLU,[3] Sigmoid shrinkage,[9] SiL,[10] or Swish-1[11]) Swish Activation Function x 1 + e − x {\displaystyle {\frac {x}{1+e^{-x}}}} {\displaystyle {\frac {x}{1+e^{-x}}}} 1 + e − x + x e − x ( 1 + e − x ) 2 {\displaystyle {\frac {1+e^{-x}+xe^{-x}}{\left(1+e^{-x}\right)^{2}}}} {\displaystyle {\frac {1+e^{-x}+xe^{-x}}{\left(1+e^{-x}\right)^{2}}}} [ − 0.278 … , ∞ ) {\displaystyle [-0.278\ldots ,\infty )} {\displaystyle [-0.278\ldots ,\infty )} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Üstel lineer sigmoid squashing (ELiSH)[12] { x 1 + e − x if  x ≥ 0 e x − 1 1 + e − x if  x < 0 {\displaystyle {\begin{cases}{\frac {x}{1+e^{-x}}}&{\text{if }}x\geq 0\\{\frac {e^{x}-1}{1+e^{-x}}}&{\text{if }}x<0\end{cases}}} {\displaystyle {\begin{cases}{\frac {x}{1+e^{-x}}}&{\text{if }}x\geq 0\\{\frac {e^{x}-1}{1+e^{-x}}}&{\text{if }}x<0\end{cases}}}
Gauss Fonksiyonu e − x 2 {\displaystyle e^{-x^{2}}} {\displaystyle e^{-x^{2}}} − 2 x e − x 2 {\displaystyle -2xe^{-x^{2}}} {\displaystyle -2xe^{-x^{2}}} ( 0 , 1 ] {\displaystyle (0,1]} {\displaystyle (0,1]} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Sinusoid sin ⁡ x {\displaystyle \sin x} {\displaystyle \sin x} cos ⁡ x {\displaystyle \cos x} {\displaystyle \cos x} [ − 1 , 1 ] {\displaystyle [-1,1]} {\displaystyle [-1,1]} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Softmax e x i ∑ j = 1 J e x j {\displaystyle {\frac {e^{x_{i}}}{\sum _{j=1}^{J}e^{x_{j}}}}} {\displaystyle {\frac {e^{x_{i}}}{\sum _{j=1}^{J}e^{x_{j}}}}} ; i = 1, …, J g i ( x → ) ( δ i j − g j ( x → ) ) {\displaystyle g_{i}\left({\vec {x}}\right)\left(\delta _{ij}-g_{j}\left({\vec {x}}\right)\right)} {\displaystyle g_{i}\left({\vec {x}}\right)\left(\delta _{ij}-g_{j}\left({\vec {x}}\right)\right)} ( 0 , 1 ) {\displaystyle (0,1)} {\displaystyle (0,1)} C ∞ {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}
Maxout[13] max i x i {\displaystyle \max _{i}x_{i}} {\displaystyle \max _{i}x_{i}} { 1 if  j = argmax i x i 0 if  j ≠ argmax i x i {\displaystyle {\begin{cases}1&{\text{if }}j={\underset {i}{\operatorname {argmax} }}\,x_{i}\\0&{\text{if }}j\neq {\underset {i}{\operatorname {argmax} }}\,x_{i}\end{cases}}} {\displaystyle {\begin{cases}1&{\text{if }}j={\underset {i}{\operatorname {argmax} }}\,x_{i}\\0&{\text{if }}j\neq {\underset {i}{\operatorname {argmax} }}\,x_{i}\end{cases}}} ( − ∞ , ∞ ) {\displaystyle (-\infty ,\infty )} {\displaystyle (-\infty ,\infty )} C 0 {\displaystyle C^{0}} {\displaystyle C^{0}}
^ Yukarıdaki δ i j {\displaystyle \delta _{ij}} {\displaystyle \delta _{ij}}, Kronecker Deltası'dır.
^ Örneğin; j {\displaystyle j} {\displaystyle j} önceki sinir ağı katmanının çekirdekleri (kernel) arasında yineleme yaparken, i {\displaystyle i} {\displaystyle i} mevcut katmanın çekirdekleri arasında yineleme yapıyor olabilir.

Ayrıca Bakınız

[değiştir | kaynağı değiştir]
  • Yapay sinir ağları
  • Lojistik fonksiyon

Kaynakça

[değiştir | kaynağı değiştir]
  1. ^ Neural Networks (PDF) (İngilizce). Knut Hinkelmann. 6 Ekim 2018 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 7 Ekim 2024. 
  2. ^ Nair, Vinod; Hinton, Geoffrey E. (2010), "Rectified Linear Units Improve Restricted Boltzmann Machines", 27th International Conference on International Conference on Machine Learning, ICML'10, ABD: Omnipress, ss. 807-814, ISBN 9781605589077 
  3. ^ a b Kaynak hatası: Geçersiz <ref> etiketi; ReferenceA isimli refler için metin sağlanmadı (Bkz: Kaynak gösterme)
  4. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (2011). "Deep sparse rectifier neural networks" (PDF). International Conference on Artificial Intelligence and Statistics. 17 Mayıs 2017 tarihinde kaynağından (PDF) arşivlendi. 
  5. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (23 Kasım 2015). "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)". arXiv:1511.07289 Özgürce erişilebilir. 
  6. ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp (8 Haziran 2017). "Self-Normalizing Neural Networks". Advances in Neural Information Processing Systems. 30 (2017). arXiv:1706.02515 Özgürce erişilebilir. 
  7. ^ Maas, Andrew L.; Hannun, Awni Y.; Ng, Andrew Y. (June 2013). "Rectifier nonlinearities improve neural network acoustic models". Proc. ICML. 30 (1). 
  8. ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (6 Şubat 2015). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification". arXiv:1502.01852 Özgürce erişilebilir. 
  9. ^ Atto, Abdourrahmane M.; Pastor, Dominique; Mercier, Grégoire (2008), "Smooth sigmoid wavelet shrinkage for non-parametric estimation" (PDF), 2008 IEEE International Conference on Acoustics, Speech and Signal Processing, ss. 3265-3268, doi:10.1109/ICASSP.2008.4518347, ISBN 978-1-4244-1483-3 
  10. ^ Elfwing, Stefan; Uchibe, Eiji; Doya, Kenji (2018). "Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning". Neural Networks. Cilt 107. ss. 3-11. arXiv:1702.03118 Özgürce erişilebilir. doi:10.1016/j.neunet.2017.12.012. PMID 29395652. 
  11. ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V (2017). "Searching for Activation Functions". arXiv:1710.05941 Özgürce erişilebilir. 
  12. ^ Basirat, Mina; Roth, Peter M. (2 Ağustos 2018), The Quest for the Golden Activation Function, doi:10.48550/arXiv.1808.00783, 28 Mart 2023 tarihinde kaynağından arşivlendi5 Ekim 2024 
  13. ^ Goodfellow, Ian J.; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua (2013). "Maxout Networks". JMLR Workshop and Conference Proceedings. 28 (3). ss. 1319-1327. arXiv:1302.4389 Özgürce erişilebilir. 
"https://tr.wikipedia.org/w/index.php?title=Aktivasyon_fonksiyonu&oldid=34233894" sayfasından alınmıştır
Kategori:
  • Yapay zekâ
Gizli kategori:
  • Kaynak gösterme hatası bulunan maddeler
  • Sayfa en son 08.32, 20 Kasım 2024 tarihinde değiştirildi.
  • Metin Creative Commons Atıf-AynıLisanslaPaylaş Lisansı altındadır ve ek koşullar uygulanabilir. Bu siteyi kullanarak Kullanım Şartlarını ve Gizlilik Politikasını kabul etmiş olursunuz.
    Vikipedi® (ve Wikipedia®) kâr amacı gütmeyen kuruluş olan Wikimedia Foundation, Inc. tescilli markasıdır.
  • Gizlilik politikası
  • Vikipedi hakkında
  • Sorumluluk reddi
  • Davranış Kuralları
  • Geliştiriciler
  • İstatistikler
  • Çerez politikası
  • Mobil görünüm
  • Wikimedia Foundation
  • Powered by MediaWiki
Aktivasyon fonksiyonu
Konu ekle