2007
DOI: 10.1109/tsmca.2007.897589
|View full text |Cite
|
Sign up to set email alerts
|

On the Time Series $K$-Nearest Neighbor Classification of Abnormal Brain Activity

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
63
0
6

Year Published

2010
2010
2019
2019

Publication Types

Select...
3
3
2

Relationship

0
8

Authors

Journals

citations
Cited by 169 publications
(69 citation statements)
references
References 35 publications
0
63
0
6
Order By: Relevance
“…The last element of the warping path is the distance between two time series [15]. This matrix has complexity of O(M N ), thus in our implementation we decreased the complexity by limiting the warping window size.…”
Section: Dynamic Time Warpingmentioning
confidence: 99%
“…The last element of the warping path is the distance between two time series [15]. This matrix has complexity of O(M N ), thus in our implementation we decreased the complexity by limiting the warping window size.…”
Section: Dynamic Time Warpingmentioning
confidence: 99%
“…O parâmetro k pode ser obtido através de validação cruzada na porção de treino, maximizando-se indicadores de performance de classificação como sensibilidade e especificidade, entre outros. Maiores detalhes sobre KNN podem ser obtidos em Duda et al [17], enquanto que exemplos de aplicações são encontrados em Golub et al [18], Weiss et al [19] e Chaovalitwongse et al [20].…”
Section: Referencial Teóricounclassified
“…Três componentes PLS foram retidos em cada banco de dados, com base no percentual de variância explicada em Y (Vinho tinto=81%, Vinho branco=77%, QSAR=70%). O parâmetro k da ferramenta KNN foi determinado por intermédio de 15 repetições de validação cruzada, sendo que cada banco de dados foi dividido em 5 porções em cada procedimento [20]. Definiu-se k=3 para os três bancos de dados ao maximizar-se sensibilidade e especificidade simultaneamente.…”
Section: Métodounclassified
See 1 more Smart Citation
“…In general, for a given unlabeled time series X, the KNN rule finds the K "closest" (neighborhood) labeled time series in the training data set and assigns X to the class that appears most frequently in the neighborhood of k time series. There are two main schemes or decision rules in KNN algorithm, the similarity voting scheme and majority voting scheme (Chaovalitwongse et al 2007). …”
Section: K Nearest Neighbour (Knn)mentioning
confidence: 99%