2021
DOI: 10.1016/j.eswa.2020.114534
|View full text |Cite
|
Sign up to set email alerts
|

Shape autotuning activation function

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1

Citation Types

0
1
0
1

Year Published

2021
2021
2024
2024

Publication Types

Select...
6
1
1

Relationship

0
8

Authors

Journals

citations
Cited by 23 publications
(3 citation statements)
references
References 11 publications
0
1
0
1
Order By: Relevance
“…Yapılan bir çalışmada [13] belirtildiği gibi aktivasyon fonksiyonu seçimi, son teknoloji ürünü sinir ağı modelleri oluşturmak için çok önemli bir konudur. Şu anda etkin olan ve en yaygın kullanılan aktivasyon fonksiyonu ReLU'dur.…”
Section: Deney-4unclassified
“…Yapılan bir çalışmada [13] belirtildiği gibi aktivasyon fonksiyonu seçimi, son teknoloji ürünü sinir ağı modelleri oluşturmak için çok önemli bir konudur. Şu anda etkin olan ve en yaygın kullanılan aktivasyon fonksiyonu ReLU'dur.…”
Section: Deney-4unclassified
“…The shape autotuning adaptive activation function (SAAAF) 66 is an AAF proposed in [512]. It is defined as…”
Section: Shape Autotuning Adaptive Activation Function (Saaaf)mentioning
confidence: 99%
“…Newly proposed activation functions SAAF [31] and RSigELU [32] perform better than Swish, but they all include more complex exponential terms that increase computational complexity. The tanhLU [33] is similar to Tanh, and the Smish [34] is similar to Mish; both are better than Swish and have complex exponential terms.…”
Section: Introductionmentioning
confidence: 99%