2019
DOI: 10.1007/978-3-030-12767-1_4
|View full text |Cite
|
Sign up to set email alerts
|

Multi-Objective Evolutionary Optimization Algorithms for Machine Learning: A Recent Survey

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1

Citation Types

0
10
0
2

Year Published

2019
2019
2024
2024

Publication Types

Select...
4
3
1

Relationship

0
8

Authors

Journals

citations
Cited by 34 publications
(13 citation statements)
references
References 102 publications
0
10
0
2
Order By: Relevance
“…Models were trained using a random 80% sample of the annotated dataset, with the remaining 20% used to form a validation dataset (Alexandropoulos et al, 2019). Training performance was then measured against the validation set to monitor for overfitting.…”
Section: Model Validation and Performance Curvementioning
confidence: 99%
See 1 more Smart Citation
“…Models were trained using a random 80% sample of the annotated dataset, with the remaining 20% used to form a validation dataset (Alexandropoulos et al, 2019). Training performance was then measured against the validation set to monitor for overfitting.…”
Section: Model Validation and Performance Curvementioning
confidence: 99%
“…The 80/20 validation test is an established method in machine learning to assess the expected performance of the final model (Alexandropoulos et al, 2019). However, using deep learning to answer ecological questions requires another testing procedure to accurately reflect the usability of the model when analyzing new data.…”
Section: Model Performancementioning
confidence: 99%
“…There are many issues in the real-world applications today that require finding similar samples. Usually, we can solve such a problem by finding the nearest neighbor to an item in some dimensional space [39]. This solution looks easy, but when the dataset is massive and the instances are too interfered and complicated, the time required for processing is increasing linearly with the number of instances and the complexity of the classes inside the dataset.…”
Section: B Locality Sensitive Hashing (Lsh)mentioning
confidence: 99%
“…Στο Κεφάλαιο 7, παρουσιάζονται πρόσφατες εξελικτικές προσεγγίσεις πολλαπλών αντικειµένων για τέσσερις ϐασικές διεργασίες της Εξόρυξης ∆εδοµένων και Μηχανικής Μάθησης [8], και συγκεκριµένα, αφορούν : (α) την προεπεξεργασία των δεδοµένων, (ϐ) το πρόβληµα της ταξινόµησης, (γ) το πρόβληµα της οµαδοποίησης δεδοµένων και (δ) τους κανόνες συσχέτισης. Μέσα από αυτό το κεφάλαιο σκιαγραφούνται ϐασικές τοµές µεταξύ των επιστηµονικών πεδίων της Βελτιστοποίησης, της Υπολογιστικής Νοηµοσύνης και της Μηχανικής Μάθησης.…”
Section: σύνοψηunclassified
“…-objective evolutionary optimization) ϐοηθάει τους αλγορίθµους Μηχανικής Μάθησης να ϐελτιστοποιούν τις υπερ-παραµέτρους (hyper-parameters) τους, συνήθως κάτω από αντικρουόµενες αντικειµενικές συνιστώσες και συµβάλλει στην επιλογή του καλύτερου µοντέλου για το δοθέν πρόβληµα. Στην παρούσα έρευνα[8], εξετάζονται πρόσφατες εξελικτικές προσεγγίσεις πολλαπλών αντικειµένων για τέσσερις ϐασικές διεργασίες της Εξόρυξης ∆εδοµένων και Μηχανικής Μάθησης, και συγκεκριµένα, αφορούν : (α) την προεπεξεργασία των δεδοµένων (data preprocessing), (ϐ) το πρόβληµα της ταξινόµησης (classification), (γ) την εργασία της οµαδοποίησης (clustering) δεδοµένων και (δ) τους κανόνες συσχέτισης (association rules). Ο χώρος αναζήτησης των λύσεων µπορεί να είναι µεγάλος, οπότε και η διαστασιµότητα του προβλήµατος αυξάνεται µε παρόµοιο τρόπο.…”
unclassified