2020
DOI: 10.33480/pilar.v16i1.813
|View full text |Cite
|
Sign up to set email alerts
|

Implementation of Gain Ratio and K-Nearest Neighbor for Classification of Student Performance

Abstract: Predicting student performance is very useful in analyzing weak students and providing support to students who face difficulties. However, the work done by educators has not been effective enough in identifying factors that affect student performance. The main predictor factor is an informative student academic score, but that alone is not good enough in predicting student performance. Educators utilize Educational Data Mining (EDM) to predict student performance. KK-Nearest Neighbor is often used in classifyi… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1

Citation Types

0
0
0
2

Year Published

2021
2021
2023
2023

Publication Types

Select...
4
1

Relationship

0
5

Authors

Journals

citations
Cited by 5 publications
(3 citation statements)
references
References 24 publications
(36 reference statements)
0
0
0
2
Order By: Relevance
“…K-NN uses data from several classes to predict the classification of a new data point. However, k-NN will suffer a slow prediction stage (high computation time), if the dataset is large and the dimension of features is high [56]. Other than that, K-NN is also sensitive to noise in the dataset, and any irrelevant features such as missing values and outliers, need to be manually imputed and removed, respectively [57].…”
Section: Tehmentioning
confidence: 99%
“…K-NN uses data from several classes to predict the classification of a new data point. However, k-NN will suffer a slow prediction stage (high computation time), if the dataset is large and the dimension of features is high [56]. Other than that, K-NN is also sensitive to noise in the dataset, and any irrelevant features such as missing values and outliers, need to be manually imputed and removed, respectively [57].…”
Section: Tehmentioning
confidence: 99%
“…Pada penelitian ini proses klasifikasi yang digunakan adalah metode KNN (K-Nearest Neighbor), cara kerja metode ini yaitu dengan cara menemukan jarak terdekat dari suatu data dengan sejumlah k data terdekat, kemudian dilihat data apa yang paling dominan dari antar data yang memiliki jarak terdekat [19]. Dalam penelitian ini nilai k yang digunakan adalah angka ganjil 1-30, yang dimana dilakukannya pencarian nilai k terbaik di masing masing percobaan menggunakan Hyperparameter Tunning dengan teknik Grid Search CV sebelum dilakukan prediksi terhadap dataset test.…”
Section: K-nearest Neighborunclassified
“…Penelitian dari [10] yang melakukan kombinasi K-Nearest Neighbor dengan Gini Index untuk klasifikasi tingkat kognitif soal pada Taksonomi Bloom dengan hasil yang diperoleh yaitu Gini Index mampu mengurangi dimensi fitur yang tinggi, sehingga meningkatkan kinerja KNN dan meningkatkan tingkat akurasi klasifikasi tingkat kognitif soal pada Taksonomi Bloom dari akurasi 59.97 % menjadi 68.37 %. Penelitian dari [11] melakukan reduksi atribut dengan Gini Index pada K-Nearest Neighbor pada klasifikasi kinerja siswa dengan hasil yang diperoleh yaitu peningkatan akurasi K-NN setelah reduksi atribut dari 74.068 % menjadi 76.516 %. Penelitian dari [12] melakukan kombinasi K-Means dengan Bee Colony Optimization (BCO) pada pengelompokan data dengan hasil yang diperoleh yaitu peningkatan performa K-Means setelah dikombinasikan dengan BCO yaitu dari 83.09 % menjadi 83.30%.…”
Section: Pendahuluanunclassified