Yapay sinir ağındaki bir nöronun aktivasyon fonksiyonu, nöronun girdilerinden gelen değerlerin toplamını kullanarak nöronun çıktısını hesaplamaya yardımcı olan matematiksel fonksiyondur. Aktivasyon fonksiyonu doğrusal olmadığı sürece, sadece birkaç nöron kullanılarak bile karmaşık problemler çözülebilir.
Aktivasyon Fonksiyonları Tablosu
İsmi | Grafik | Fonksiyon, | Değer Kümesi | Süreklilik Sırası | |
---|---|---|---|---|---|
Birim Fonksiyon (identity) | |||||
Heaviside basamak fonksiyonu (binary step) | |||||
Lojistik fonksiyon (sigmoid, softstep) | |||||
Hiperbolik tanjant (tanh) | |||||
Soboleva eklentili hiperbolik tanjant (smht) | |||||
Doğrultulmuş Lineer birim (ReLU) | |||||
Gaussian Error Lineer birim (GELU) | |||||
Softplus | |||||
Üstel lineer birim (ELU) |
| ||||
Ölçeklenmiş üstel lineer birim (SELU) |
| ||||
Leaky doğrultulmuş lineer birim (Leaky ReLU) | |||||
Parametrik doğrultulmuş lineer birim (PReLU) |
| ||||
Sigmoid lineer birim (SiLU, Sigmoid shrinkage, SiL, or Swish-1) | |||||
Üstel lineer sigmoid squashing (ELiSH) | |||||
Gauss Fonksiyonu | |||||
Sinusoid | |||||
Softmax | |||||
Maxout |
- ^ Yukarıdaki
, Kronecker Deltası'dır.
- ^ Örneğin;
önceki sinir ağı katmanının çekirdekleri (kernel) arasında yineleme yaparken,
mevcut katmanın çekirdekleri arasında yineleme yapıyor olabilir.
Ayrıca Bakınız
Kaynakça
- ^ Neural Networks (PDF) (İngilizce). Knut Hinkelmann. 6 Ekim 2018 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 7 Ekim 2024.
- ^ Nair, Vinod; Hinton, Geoffrey E. (2010), "Rectified Linear Units Improve Restricted Boltzmann Machines", 27th International Conference on International Conference on Machine Learning, ICML'10, ABD: Omnipress, ss. 807-814, ISBN
- ^ a b Kaynak hatası: Geçersiz
<ref>
etiketi;ReferenceA
isimli refler için metin sağlanmadı (Bkz: ) - ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (2011). "Deep sparse rectifier neural networks" (PDF). International Conference on Artificial Intelligence and Statistics. 17 Mayıs 2017 tarihinde kaynağından (PDF) arşivlendi.
- ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (23 Kasım 2015). "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)". arXiv:1511.07289 $2.
- ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp (8 Haziran 2017). "Self-Normalizing Neural Networks". Advances in Neural Information Processing Systems. 30 (2017). arXiv:1706.02515 $2.
- ^ Maas, Andrew L.; Hannun, Awni Y.; Ng, Andrew Y. (June 2013). "Rectifier nonlinearities improve neural network acoustic models". Proc. ICML. 30 (1).
- ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (6 Şubat 2015). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification". arXiv:1502.01852 $2.
- ^ Atto, Abdourrahmane M.; Pastor, Dominique; Mercier, Grégoire (2008), "Smooth sigmoid wavelet shrinkage for non-parametric estimation" (PDF), , ss. 3265-3268, doi:10.1109/ICASSP.2008.4518347, ISBN
- ^ Elfwing, Stefan; Uchibe, Eiji; Doya, Kenji (2018). "Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning". Neural Networks. Cilt 107. ss. 3-11. arXiv:1702.03118 $2. doi:10.1016/j.neunet.2017.12.012. (PMID) 29395652.
- ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V (2017). "Searching for Activation Functions". arXiv:1710.05941 $2.
- ^ Basirat, Mina; Roth, Peter M. (2 Ağustos 2018), The Quest for the Golden Activation Function, doi:10.48550/arXiv.1808.00783, 28 Mart 2023 tarihinde kaynağından arşivlendi, erişim tarihi: 5 Ekim 2024
- ^ Goodfellow, Ian J.; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua (2013). "Maxout Networks". JMLR Workshop and Conference Proceedings. 28 (3). ss. 1319-1327. arXiv:1302.4389 $2.
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Yapay sinir agindaki bir noronun aktivasyon fonksiyonu noronun girdilerinden gelen degerlerin toplamini kullanarak noronun ciktisini hesaplamaya yardimci olan matematiksel fonksiyondur Aktivasyon fonksiyonu dogrusal olmadigi surece sadece birkac noron kullanilarak bile karmasik problemler cozulebilir Aktivasyon Fonksiyonlari TablosuIsmi Grafik Fonksiyon g x displaystyle g x g displaystyle g nin turevi g x displaystyle g x Deger Kumesi Sureklilik SirasiBirim Fonksiyon identity x displaystyle x 1 displaystyle 1 displaystyle infty infty C displaystyle C infty Heaviside basamak fonksiyonu binary step 0if x lt 01if x 0 displaystyle begin cases 0 amp text if x lt 0 1 amp text if x geq 0 end cases 0 displaystyle 0 0 1 displaystyle 0 1 C 1 displaystyle C 1 Lojistik fonksiyon sigmoid softstep s x 11 e x displaystyle sigma x doteq frac 1 1 e x g x 1 g x displaystyle g x 1 g x 0 1 displaystyle 0 1 C displaystyle C infty Hiperbolik tanjant tanh tanh x ex e xex e x displaystyle tanh x doteq frac e x e x e x e x 1 g x 2 displaystyle 1 g x 2 1 1 displaystyle 1 1 C displaystyle C infty Soboleva eklentili hiperbolik tanjant smht smht x eax e bxecx e dx displaystyle operatorname smht x doteq frac e ax e bx e cx e dx 1 1 displaystyle 1 1 C displaystyle C infty Dogrultulmus Lineer birim ReLU x 0if x 0xif x gt 0 max 0 x x1x gt 0 displaystyle begin aligned x doteq amp begin cases 0 amp text if x leq 0 x amp text if x gt 0 end cases amp max 0 x x textbf 1 x gt 0 end aligned 0if x lt 01if x gt 0 displaystyle begin cases 0 amp text if x lt 0 1 amp text if x gt 0 end cases 0 displaystyle 0 infty C0 displaystyle C 0 Gaussian Error Lineer birim GELU 12x 1 erf x2 xF x displaystyle begin aligned amp frac 1 2 x left 1 text erf left frac x sqrt 2 right right amp x Phi x end aligned F x xϕ x displaystyle Phi x x phi x 0 17 displaystyle 0 17 ldots infty C displaystyle C infty Softplus ln 1 ex displaystyle ln left 1 e x right 11 e x displaystyle frac 1 1 e x 0 displaystyle 0 infty C displaystyle C infty Ustel lineer birim ELU a ex 1 if x 0xif x gt 0 displaystyle begin cases alpha left e x 1 right amp text if x leq 0 x amp text if x gt 0 end cases a displaystyle alpha parametresi ile aexif x lt 01if x gt 0 displaystyle begin cases alpha e x amp text if x lt 0 1 amp text if x gt 0 end cases a displaystyle alpha infty C1eger a 1 iseC0degilse displaystyle begin cases C 1 amp text eger alpha 1 text ise C 0 amp text degilse end cases Olceklenmis ustel lineer birim SELU l a ex 1 if x lt 0xif x 0 displaystyle lambda begin cases alpha e x 1 amp text if x lt 0 x amp text if x geq 0 end cases l 1 0507 displaystyle lambda 1 0507 ve a 1 67326 displaystyle alpha 1 67326 parametreleri ile l aexif x lt 01if x 0 displaystyle lambda begin cases alpha e x amp text if x lt 0 1 amp text if x geq 0 end cases la displaystyle lambda alpha infty C0 displaystyle C 0 Leaky dogrultulmus lineer birim Leaky ReLU 0 01xif x 0xif x gt 0 displaystyle begin cases 0 01x amp text if x leq 0 x amp text if x gt 0 end cases 0 01if x lt 01if x gt 0 displaystyle begin cases 0 01 amp text if x lt 0 1 amp text if x gt 0 end cases displaystyle infty infty C0 displaystyle C 0 Parametrik dogrultulmus lineer birim PReLU axif x lt 0xif x 0 displaystyle begin cases alpha x amp text if x lt 0 x amp text if x geq 0 end cases a displaystyle alpha parametresi ile aif x lt 01if x 0 displaystyle begin cases alpha amp text if x lt 0 1 amp text if x geq 0 end cases displaystyle infty infty C0 displaystyle C 0 Sigmoid lineer birim SiLU Sigmoid shrinkage SiL or Swish 1 x1 e x displaystyle frac x 1 e x 1 e x xe x 1 e x 2 displaystyle frac 1 e x xe x left 1 e x right 2 0 278 displaystyle 0 278 ldots infty C displaystyle C infty Ustel lineer sigmoid squashing ELiSH x1 e xif x 0ex 11 e xif x lt 0 displaystyle begin cases frac x 1 e x amp text if x geq 0 frac e x 1 1 e x amp text if x lt 0 end cases Gauss Fonksiyonu e x2 displaystyle e x 2 2xe x2 displaystyle 2xe x 2 0 1 displaystyle 0 1 C displaystyle C infty Sinusoid sin x displaystyle sin x cos x displaystyle cos x 1 1 displaystyle 1 1 C displaystyle C infty Softmax exi j 1Jexj displaystyle frac e x i sum j 1 J e x j i 1 J gi x dij gj x displaystyle g i left vec x right left delta ij g j left vec x right right 0 1 displaystyle 0 1 C displaystyle C infty Maxout maxixi displaystyle max i x i 1if j argmaxixi0if j argmaxixi displaystyle begin cases 1 amp text if j underset i operatorname argmax x i 0 amp text if j neq underset i operatorname argmax x i end cases displaystyle infty infty C0 displaystyle C 0 Yukaridaki dij displaystyle delta ij Kronecker Deltasi dir Ornegin j displaystyle j onceki sinir agi katmaninin cekirdekleri kernel arasinda yineleme yaparken i displaystyle i mevcut katmanin cekirdekleri arasinda yineleme yapiyor olabilir Ayrica BakinizYapay sinir aglari Lojistik fonksiyonKaynakca Neural Networks PDF Ingilizce Knut Hinkelmann 6 Ekim 2018 tarihinde kaynagindan PDF arsivlendi Erisim tarihi 7 Ekim 2024 Nair Vinod Hinton Geoffrey E 2010 Rectified Linear Units Improve Restricted Boltzmann Machines 27th International Conference on International Conference on Machine Learning ICML 10 ABD Omnipress ss 807 814 ISBN 9781605589077 a b Kaynak hatasi Gecersiz lt ref gt etiketi ReferenceA isimli refler icin metin saglanmadi Bkz Kaynak gosterme Glorot Xavier Bordes Antoine Bengio Yoshua 2011 Deep sparse rectifier neural networks PDF International Conference on Artificial Intelligence and Statistics 17 Mayis 2017 tarihinde kaynagindan PDF arsivlendi Clevert Djork Arne Unterthiner Thomas Hochreiter Sepp 23 Kasim 2015 Fast and Accurate Deep Network Learning by Exponential Linear Units ELUs arXiv 1511 07289 2 Klambauer Gunter Unterthiner Thomas Mayr Andreas Hochreiter Sepp 8 Haziran 2017 Self Normalizing Neural Networks Advances in Neural Information Processing Systems 30 2017 arXiv 1706 02515 2 Maas Andrew L Hannun Awni Y Ng Andrew Y June 2013 Rectifier nonlinearities improve neural network acoustic models Proc ICML 30 1 He Kaiming Zhang Xiangyu Ren Shaoqing Sun Jian 6 Subat 2015 Delving Deep into Rectifiers Surpassing Human Level Performance on ImageNet Classification arXiv 1502 01852 2 Atto Abdourrahmane M Pastor Dominique Mercier Gregoire 2008 Smooth sigmoid wavelet shrinkage for non parametric estimation PDF ss 3265 3268 doi 10 1109 ICASSP 2008 4518347 ISBN 978 1 4244 1483 3 Elfwing Stefan Uchibe Eiji Doya Kenji 2018 Sigmoid Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning Neural Networks Cilt 107 ss 3 11 arXiv 1702 03118 2 doi 10 1016 j neunet 2017 12 012 PMID 29395652 Ramachandran Prajit Zoph Barret Le Quoc V 2017 Searching for Activation Functions arXiv 1710 05941 2 Basirat Mina Roth Peter M 2 Agustos 2018 The Quest for the Golden Activation Function doi 10 48550 arXiv 1808 00783 28 Mart 2023 tarihinde kaynagindan arsivlendi erisim tarihi 5 Ekim 2024 Goodfellow Ian J Warde Farley David Mirza Mehdi Courville Aaron Bengio Yoshua 2013 Maxout Networks JMLR Workshop and Conference Proceedings 28 3 ss 1319 1327 arXiv 1302 4389 2