2021
DOI: 10.25299/itjrd.2021.vol5(2).5831
|View full text |Cite
|
Sign up to set email alerts
|

Klasifikasi Pola Kain Tenun Melayu Menggunakan Faster R-CNN

Abstract: Motif tenun melayu sangat beragam. Keberagaman ini membuat sulit membedakan motif-motif kain tenun tersebut. Klasifikasi data diperlukan untuk mengidentifikasi karakteristik objek yang terkandung dalam basis data agar kemudian dikategorikan ke dalam kelompok yang berbeda. Tujuan penelitian yang dicapai dalam penelitian ini yaitu untuk mengetahui performa pengenalan dan klasifikasi motif tenun melayu menggunakan Faster R-CNN dengan model arsitektur VGG, dengan cara mengukur persentase dari tingkat akurasi, pres… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
3
1
1

Citation Types

0
0
0
6

Year Published

2021
2021
2023
2023

Publication Types

Select...
5
2

Relationship

0
7

Authors

Journals

citations
Cited by 8 publications
(10 citation statements)
references
References 14 publications
0
0
0
6
Order By: Relevance
“…Pooling Layer adalah pengurangan ukuran matriks dengan menggunakan operasi Pooling (Rizki, Medikawati Taufiq, Mukhtar, & Putri, 2021). Pooling Layer biasanya digunakan setelah Convolution Layer.…”
Section: Pooling Layer Dan Transfer Learningunclassified
“…Pooling Layer adalah pengurangan ukuran matriks dengan menggunakan operasi Pooling (Rizki, Medikawati Taufiq, Mukhtar, & Putri, 2021). Pooling Layer biasanya digunakan setelah Convolution Layer.…”
Section: Pooling Layer Dan Transfer Learningunclassified
“…Training Mask R-CNN adalah tahap utama dimana model dilatih untuk mempelajari suatu objek dari dataset [11]. Hasil akhir dari proses pembelajaran atau pelatihan Mask R-CNN adalah terbentuknya sebuah model pembelajaran mesin yang dapat mengklasifikasi candi mahligai.…”
Section: Gambar 3 Alur Penelitianunclassified
“…Proses penerapan fungsi aktifasi terjadi setelah proses konvolusi dan sebelum terjadi proses pooling. Fungsi aktivasi digunakan untuk membuat model jaringan syaraf tidak menghasilkan nilai nonlinear [13]. Pada proses ini, hasil dari konvolusi diberikan fungsi aktivasi.…”
Section: Fungsi Aktifasiunclassified
“…Fungsi yang digunakan untuk aktivasi pada relu adalah nilai output dari neuron yang bisa dinyatakan sebagai 0 jika inputnya adalah negatif. Jika nilai input dari fungsi aktivasi adalah positif, maka output dari neuron adalah nilai input aktivasi itu sendiri [13]. Grafik fungsi dari aktivasi relu ditunjukkan pada Gambar 3.…”
Section: Fungsi Aktifasiunclassified
See 1 more Smart Citation