Özetçe -Duygu analizi sosyal medya izleme çalışmaları için en kullanışlı yöntemlerden birisidir. Sosyal medya (Kişisel Blog, Twitter, Facebook) üzerinden elde edilen veri üzerinde duygu analizi uygulanarak, birşirketin müşteri servisinin, müşterilerden gelen olumlu ve olumsuz geri bildirimlere göre müşteri memnuniyetini saglaması ve maliyetleri düşürmesi saglanabilir. Ayrıca ekonomik, ticari ve kullanıcılara yönelik fikir madenciligi gibi çeşitli alanlarda kullanılarak anlamlı bilgiler elde edilebilir. Bu çalışmada, Türkçe Twitter mesajlardan oluşturulan veri seti metin sınıflandırma yöntemleri ile analiz edilerek olumlu veya olumsuz olup olmadıgı incelenmiştir. Deneysel sonuçlar SVM, Naive Bayes, Multinom Naive Bayes ve KNN algoritmalarıyla elde edilmiştir. Vector Space model ile temsil edilen öznitelikler, kelime torbası (Bag of Words, BoW) ve N-Gram model olmak üzere iki farklışekilde elde edilmiş ve bu durumun sınıflandırma sonuçlarına olan etkisi incelenmiştir.Anahtar Kelimeler-twitter, duygu analizi, duygu sınıflandırması, makine ögrenmesi, metin sınıflandırma.Abstract-Sentiment analysis is one of the most useful tools in social media monitoring. Implementing sentiment analysis on data gained from social media (Blogs, Twitter, and Facebook) can increase the customer satisfaction and decrease the costs for a company. Also sentiment analysis can be used in various domains, such as economic, commercial and opinion mining for the users to get meaningful information. In this study, Turkish Twitter feeds collected from Twitter API have been analyzed in terms of the sentiment context whether positive or negative using document classification methods. Experimental results have been conducted on machine learning algorithms such as SVM, Naive Bayes, Multinomial Naive Bayes and KNN. The features represented by vector space are extracted from two different models which are Bag of Words and N-Gram. The experimental results have been investigated on the effect of classification methods.
Automatic flying target detection and tracking in video sequences acquired from a camera mounted on another Unmanned Aerial Vehicle (UAV) is a challenging task due to the presence of nonstationary cameras in the system, dynamic motion of the moving target, and high-cost computation for realtime applications. In this paper, our aim is to automatically detect and track moving UAV by another one while simultaneously flying in the air. In order to provide efficiently in real-time applications, we develop a vision-based low-cost hardware system integrated with an independent ground control station. We initially created a new public dataset called ATAUAV that includes different types of UAV images obtained from videos recording in our experiments and searches on Google Images for the training process. Deep learningbased YOLOv3-Tiny (You Only Look Once) is used for target detection with the highest accuracy and fastest results. Kernelized Correlation Filter (KCF) adapted with YOLO, which runs on low-cost hardware, is used for real-time detected target tracking. We compared the performance of the proposed approach with different tracking algorithms. Experimental results show that the proposed approach provides the highest accuracy rate as 82.7% and a mean fps speed as 29.6 on CPU. The dataset can be downloaded at http://cogvi.atauni.edu.tr/ResearchLab/PageDetail/Our-ATAUAVs-Dataset-86. INDEX TERMS Artificial neural networks, computer vision, kcf, object detection, object recognition, target tracking, unmanned aerial vehicles, yolo This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.
Öz Foto-kapanlar genellikle ormanlık arazide sabit noktaya yerleştirilmiş ve doğal yaşamı izlemek için kullanılan görüntüleme cihazlarıdır. Foto-kapanlar kullanılarak canlıların doğal yaşamı üzerinde araştırma yapmak amacıyla milyonlarca görüntü kaydedilmektedir. Kaydedilmiş görüntüler üzerinde bilgisayar tabanlı yöntemler ile canlıların tespit edilmesi ve tanınması amacıyla otomatik yöntemler geliştirilmektedir. Ayrıca foto-kapan görüntülerinde arka plan karmaşıklığı, arka planın hareketli olması, ışık şiddeti değişimi ve nesnenin parçalı olması gibi problemler hareketli nesne tespitini zorlaştırmaktadır. Literatürde bu amaçla yapılan çalışmalarda hareketli nesnelere ait model görüntüler görüntü içerisinden el ile tespit edilerek sınıflandırma tabanlı yöntemlerde ön bilgi olarak kullanılmaktadır. Nesnelere ait model görüntülerin el ile tespit edilmesi ve kırpılması zor, zahmetli, zaman alan bir süreçtir ve yüksek iş yükü gerektirmektedir. Çalışmamızda bu iş yükünü azaltmak amacıyla doğal ortamdan elde edilmiş foto-kapan görüntülerinde nesnelere ait ön bilgi kullanılmadan hareketli nesneler otomatik tespit edilmiş ve hareketli nesnelerin görüntüdeki konumları belirlenmiştir. Önerilen yöntemde hareketli nesnelerin tespit edilmesi için görüntülere arka plan çıkarma ve çerçeve farkı yöntemleri uygulanmıştır. Arka plan modelinin oluşturulması için Değişen Gauss Ortalama ve Gaussların Karışımı, gürültülerin azaltılması ve nesnelerin belirginleştirilmesi amacıyla Gauss Bulanıklığı ve Medyan filtre, ön plan tespitindeki hataların giderilmesi için OTSU eşikleme kullanılmıştır. Foto-kapan veri setlerinde hareketli nesne tespit etme başarısı %83, nesne konumlandırma başarısı ise %80 olarak elde edilmiştir.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.