2016
DOI: 10.1016/j.neucom.2015.12.003
|View full text |Cite
|
Sign up to set email alerts
|

Constructive algorithm for fully connected cascade feedforward neural networks

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
6
0
1

Year Published

2016
2016
2024
2024

Publication Types

Select...
6
2

Relationship

1
7

Authors

Journals

citations
Cited by 47 publications
(14 citation statements)
references
References 28 publications
0
6
0
1
Order By: Relevance
“…Yapay sinir ağlarında optimal nöron sayısını belirlemek için kullanılan iki farklı yaklaşım vardır. İlk yaklaşım minimal bir mimari ile başlayıp, nöron ekleyerek ağın kapasitesini geliştirip optimal nöron sayısını elde etmektir [15][16][17][18][19][20]. İkinci yaklaşım ise gereğinden fazla nöron bulunan bir mimari ile başlayıp, gereksiz nöronları budayarak optimum nöron sayısını elde etmektir [13,[21][22][23][24][25][26][27][28][29][30].…”
Section: 𝑖=1unclassified
“…Yapay sinir ağlarında optimal nöron sayısını belirlemek için kullanılan iki farklı yaklaşım vardır. İlk yaklaşım minimal bir mimari ile başlayıp, nöron ekleyerek ağın kapasitesini geliştirip optimal nöron sayısını elde etmektir [15][16][17][18][19][20]. İkinci yaklaşım ise gereğinden fazla nöron bulunan bir mimari ile başlayıp, gereksiz nöronları budayarak optimum nöron sayısını elde etmektir [13,[21][22][23][24][25][26][27][28][29][30].…”
Section: 𝑖=1unclassified
“…In addition, the Faster Cascade Neural Network (FCNN) was proposed to improve the generalization performance of CCN and improve the existing OLSCN drawbacks: First, the linear dependence of candidate units with the existing u can cause mistake in the new objective function in OLSCN. Second, the w icw modification by the modified Newton Method is based on a second-order H which may result in a local minimum and slow convergence due to heavy computation (Qiao et al , 2016). In FCNN, hidden nodes are generated randomly and remain unchanged as inspired by randomly mapping algorithms.…”
Section: Optimization Techniquesmentioning
confidence: 99%
“…However, the random weights sometimes make the column vectors of hidden layer output matrix of the network not full rank [37], i.e. 0 L …”
Section: Contribution Degree Of Unitsmentioning
confidence: 99%