2009
DOI: 10.1016/j.neucom.2008.12.020
|View full text |Cite
|
Sign up to set email alerts
|

Pruning and regularization in reservoir computing

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

2
46
0
2

Year Published

2010
2010
2020
2020

Publication Types

Select...
5
3

Relationship

0
8

Authors

Journals

citations
Cited by 97 publications
(50 citation statements)
references
References 20 publications
2
46
0
2
Order By: Relevance
“…intrinsic plasticity (Schrauwen et al, 2008b;Steil, 2007), refined training algorithms (Jaeger & Hass, 2004), leaky-integrator reservoir units (Jaeger et al, 2007a), support vector machine (Schmidhuber et al, 2007), filter neurons with delay&sum readout (Holzmann & Hauser, 2009), pruning connections within the reservoir (Dutoit et al, 2009) etc. There have also been attempts to impose specialized interconnection topolo-gies on the reservoir, e.g.…”
Section: Introductionmentioning
confidence: 99%
“…intrinsic plasticity (Schrauwen et al, 2008b;Steil, 2007), refined training algorithms (Jaeger & Hass, 2004), leaky-integrator reservoir units (Jaeger et al, 2007a), support vector machine (Schmidhuber et al, 2007), filter neurons with delay&sum readout (Holzmann & Hauser, 2009), pruning connections within the reservoir (Dutoit et al, 2009) etc. There have also been attempts to impose specialized interconnection topolo-gies on the reservoir, e.g.…”
Section: Introductionmentioning
confidence: 99%
“…Mientras que el modelo ARIMA se obtiene utilizando la función auto. arima() implementada en R del paquete forecast de [19], la cual busca el mejor modelo ARIMA para una serie de tiempo univariada; el modelo encontrado fue ARIMA(0,1,0) (2,0,2) [12]; el resultado del pronóstico se presenta también en la tabla 1 y se destaca que todos los modelos CASCOR regularizados alcanzan un error inferior al de la red CASCOR correspondiente sin regularizar. Los resultados de la tabla 1 muestran que en los modelos con tres rezagos, el CASCOR-EP+RC-1 es el que obtiene el menor error en entrenamiento y de pronóstico a 2 años, mientras que con el CASCOR-RC-1 se obtiene el menor de pronóstico a un año; no obstante, el error de pronóstico a un año del modelo CASCOR-EP+RC-1 es tan solo 4 % mayor que el menor en modelos de 3 rezagos.…”
Section: Resultados Obtenidos Y Discusiónunclassified
“…En la literatura se han escrito varios trabajos sobre cómo controlar el sobreajuste, tanto para redes neuronales (especialmente MLP) como para otros modelos de aprendizaje de máquina; entre estos se encuentran: [7][8][9][10][11][12]. En los MLP el problema de sobreajuste es controlado, principalmente, mediante tres estrategias de regularización: descomposición de pesos (weightdecay) propuesta por [8], eliminación de pesos (weight elimination) por [13] (ambas son estrategias de reducción y son descritas en [9]), y regresión en cadena (ridge regression) propuesta por [14].…”
Section: Controlando El Sobreajuste De Una Red Cascorunclassified
“…Since RR does not in general yield sparse input features, it is often combined with feature selection [6][7][8]. If there are N input features to the RR algorithm and if N s and N r represent the number of selected and removed features in a forward or backward algorithm, respectively, naive implementations have a complexity of the order O(RKN N 3 s M ) and O(RKN 3 N r M ).…”
Section: Feature Selectionmentioning
confidence: 99%
“…However, many publications show the advantages of RR [6][7][8] or even linear regression [9] with sparse input features. In [7] and [9] a fast algorithm for feature selection with small datasets was proposed.…”
Section: Introductionmentioning
confidence: 99%