Con el fin de localizar un punto en el espacio mediante el uso de cámaras Web (visión artificial), se tuvieron en cuenta los siguientes aspectos: parámetros de la cámara, tipo de proceso a efectuar sobre la imagen capturada y presentación de los resultados. Con el objetivo de encontrar el campo útil de visión de la cámara, se determinó experimentálmente el ángulo para el cual la distorsión radial es mínima; luego por medio de una red neuronal tipo Perceptrón Multicapa de 3 entradas, 7 neuronas ocultas y 10 salidas, se filtra la imagen procedente de cada una de las cámaras identificando en estas un color específico; promediando los puntos de dispersión resultantes, se ubica bidimensionalmente en cada imagen el centroide del objeto, con base en esta información y aplicando un desarrollo matemático, se localiza completamente el objeto en un sistema de coordenadas aleatorio XYZ, respecto del cual, inicialmente, solo se necesita conocer la posición de cada una de las cámaras. Se desarrolló un software para computador, que permite observar las imágenes de cada una de las cámaras y la con figuración de la mayoría de parámetros. En la calibración del sistema se deben tener en cuenta: orientación de las cámaras, distancias sugeridas entre los focos de estas y calidad de las imágenes obtenidas.
This work presents the design and validation of a voice assistant to command robotic tasks in a residential environment, as a support for people who require isolation or support due to body motor problems. The preprocessing of a database of 3600 audios of 8 different categories of words like “paper”, “glass” or “robot”, that allow to conform commands such as "carry paper" or "bring medicine", obtaining a matrix array of Mel frequencies and its derivatives, as inputs to a convolutional neural network that presents an accuracy of 96.9% in the discrimination of the categories. The command recognition tests involve recognizing groups of three words starting with "robot", for example, "robot bring glass", and allow identifying 8 different actions per voice command, with an accuracy of 88.75%.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.