In this paper we propose a method to tracking facial expressions. A system with two cameras is used to capture stereoscopic video sequences. The frames are acquired and analyzed by matching two stereoscopic frames through a correlation method that performs image processing to obtain a resulting frame, and then it is processed to recognize a human face by using the Viola and Jones (VJ) method. The face is located via the Nitzberg operator and it provides the feature points of the eyes, eyebrows, nose and mouth, which are introduced into a Backpropagation neural network that is capable of learning and classifying different types of facial expressions that make a person, feel such as: surprised, scared, unhappy, sad, mad and happy. Finally, the result of this process is recognition of facial expressions.
This paper describes the necessary process to create virtual scene in 3D from 2D images. The scene consist of regular objects and its describes a general image process with help of a manipulated mobile from a computer, the acquisition and processing image that include filters, edge detection, segmentation and corner detection, and the future generation of the virtual scene using techniques of correspondence based in area.
In this paper the results of the implementation of an algorithm are reported to extract representative frames of a digital video. The algorithm is based on the partition of video segments as in quadtree partition dimensional space. Discarded frames are compared and the like. A comparison based on PSRN and a recursive process is used.Keywords-processing, representative frames, quadtree partition, video processing, video summarization. I. INTRODUCCIÓNA CLASIFICACIÓN y generación de bases de datos de contenidos multimedia es una tarea compleja debido a la gran cantidad de información que se necesita clasificar y ordenar. Los contenidos multimedia principalmente son imágenes, audio y video. Tanto en bases de datos gubernamentales como en internet, la clasificación e indización es un problema que falta por resolver. Existen propuestas de solución, como búsquedas por contenido y técnicas que se utilizan en la búsqueda en la web, entre otras [1].Para la catalogación e indexado de video digital se debe de analizar y añadir etiquetas que lo describan. Con esto, en las búsquedas se obtendrán resultados más acertados. Por ejemplo, si un video contiene el reportaje de una ciudad, sus etiquetas deberían ser: edificios, automóviles, personas, señales de tránsito, etc. [2]. En general los pasos para catalogar de manera automática un video digital son: (1) tener el video digital en un formato estándar, (2) identificar los frames o segmentos de video representativos del contenido del video [1] [2] [3] [4], (3) analizar los frames o segmentos de video buscando los descriptores para etiquetar [5] [6] [7], (4) generar la base de datos con las etiquetas [8] y (5) emplear algoritmos de búsqueda en consulta de la base de datos [8].El presente trabajo está dedicado a la extracción de frames representativos de un video. Esta etapa en la catalogación es de suma importancia debido a que estos frames son los que pueden ser analizados con un procesamiento de imagen para encontrar descriptores que se asocien etiquetas. Entonces, entre mejor sea la extracción de los frames, mejor será la descripción que se tendrá del contenido del video. _________________________ J. Y. Montiel, Escuela Superior de Cómputo del Instituto Politécnico Nacional, Ciudad de México, México, yalja@ipn.mx.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.