Background Neurocysticercosis (NCC) is the infection of the human central nervous system (CNS) by Taenia solium larvae that cause significant neurological morbidity. Studies on NCC pathophysiology, host-parasite interactions or therapeutic agents are limited by the lack of suitable animal models. We have previously reported that carotid injection of activated T. solium oncospheres directs parasites into the CNS and consistently reproduces NCC. This study assessed the minimal dose required to consistently obtain NCC by intracarotid oncosphere injection and compared antigen and antibody response profiles by dose-group. Methods/Principal findings Three groups of pigs were infected with either 2500 (n = 10), 5000 (n = 11), or 10000 (n = 10) oncospheres. Two pigs died during the study. Necropsy exam at day 150 post-infection (PI) demonstrated viable NCC in 21/29 pigs (72.4%), with higher NCC rates with increasing oncosphere doses (4/9 [44.4%], 9/11 [81.8%] and 8/9 [88.9%] for 2500, 5000, and 10000 oncospheres respectively, P for trend = 0.035). CNS cyst burden was also higher in pigs with increasing doses (P for trend = 0.008). Viable and degenerated muscle cysticerci were also found in all pigs, with degenerated cysticerci more frequent in the 2500 oncosphere dose-group. All pigs were positive for circulating parasite antigens on ELISA (Ag-ELISA) from day 14 PI; circulating antigens markedly increased at day 30 PI and remained high with plateau levels in pigs infected with either 5000 or 10000 oncospheres, but not in pigs infected with 2500 oncospheres. Specific antibodies appeared at day 30 PI and were not different between dose-groups. Conclusion/Significance Intracarotid injection of 5000 or more oncospheres produces high NCC rates in pigs with CNS cyst burdens like those usually found in human NCC, making this model appropriate for studies on the pathogenesis of NCC and the effects of antiparasitic treatment.
Objetivo: Presentar un estado del arte alrededor de problemas que surgen al crear servicios complejos de interacción entre sensores en la Web, como: descubrimiento automático, combinación de datos heterogéneos, coordinación y cooperación entre sensores, solucionados con el desarrollo de middlewares semánticos para la Web de las Cosas, sin lograr una cooperación transparente entre ellos, profundizando en aportes en la interacción máquina a máquina. Metodología: La investigación fue de tipo documental a través de un análisis bibliográfico de los últimos 12 años, identificando núcleos temáticos, criterios de selección, fichas descriptivas y realizando abstracción de estas para su desarrollo. Resultados y conclusiones: Los resultados exhiben por núcleo temático las principales componentes del tema, permitiendo una discusión alrededor de los retos por resolver en esta área de investigación, analizando enfoques presentes en el estado actual del conocimiento relacionados con la interacción semántica de la Web de las cosas (WoT).
Organizations today need to maintain relationships with actors who intervene in the execution of key processes. This creates problems for the correct administration of the organization's procedures and in administrating a shared jargon, increasing costs related to the procedures. The objective of this paper is to present the MONPRO methodology, which supports the management of organizational procedures through the creation of specific ontologies of the organizational domain (including employee jargon and natural language), allowing any person with knowledge in computer science to create ontologies, without needing to be an expert. MONPRO is composed of five phases. The activities in each of them define a series of forms and diagrams that lead the ontology developer to break down the procedure and obtain the necessary resources to build the ontology. To test the methodology, the Presentation and Defense of the Doctoral Thesis at UC3M procedure for the Carlos III University of Madrid, Leganés Campus, Spain was used. The results can, in general, have a positive impact, reducing costs for a company through their no longer requiring to hire experts to develop procedure ontologies, also reducing by approximately 43.8% the consultation time on procedures and establishing a common organizational language regardless of the jargon of a particular employee. In general, this research offers organizations the opportunity to improve operational procedures, giving their employees access to the standards of the organization using a natural language and its own jargon, increasing the quality of procedures. INDEX TERMS Management of organizational procedures, ontology creation methodology, organizational jargon, organizational ontologies.
Objetivo: Determinar y caracterizar el estado actual del conocimiento acerca de los criterios de ubicación del procesamiento de datos, utilizando técnicas de inteligencia computacional en un Ecosistema de Objetos Inteligentes de la Web de las Cosas. Metodología: La revisión sistemática que se presenta a continuación se basa en los estudios realizados por Petersen y Kitchenham , se plantearon cuatro preguntas de investigación, se aplicó el método PICOC para identificar las palabras clave, se planteó una cadena de búsqueda y cuatro motores de búsqueda, se plantearon los criterios de inclusión y exclusión de estudios primarios, así como los criterios de evaluación de la calidad, la estrategia de extracción de datos y el método de síntesis. Resultados: Se lograron responder las cuatro preguntas de investigación planteadas, encontrando que la mayoría de los estudios carecen de una implementación en las tres ubicaciones analizadas y un único estudio que compara el desempeño obtenido por un algoritmo de inteligencia computacional al procesar información en distintas ubicaciones del ecosistema. Conclusiones: Se demostró la necesidad de continuar realizando estudios en el área de la localización del procesamiento en ecosistemas inteligentes utilizando técnicas de inteligencia computacional para el procesamiento en distintas ubicaciones. Además, se evidencia una necesidad en hacer un mayor énfasis en la comparativa del rendimiento obtenido al realizar implementaciones teniendo en cuenta distintas técnicas de inteligencia computacional.
La energía eléctrica o electricidad es uno de los componentes esenciales que impulsan la economía, es decir, a que mayor crecimiento económico mayor consumo energético y viceversa. En consecuencia, el mercado eléctrico debe estar en la capacidad de cubrir el incremento en la demanda de energía, y de la misma forma, establecer estrategias para el uso eficiente de la energía. En el Reino Unido se ha potencializado la inclusión de nuevas tecnologías en el sistema eléctrico, a través de un programa de cambio automático de comercializador de energía conocido como AutoSwitch, en el cual, los usuarios ya no están sujetos a un vínculo exclusivo con su comercializador local y tienen la libertad de cambiar de comercializador de energía. En Colombia se abre la posibilidad de liberalizar el mercado de energía a través de un programa piloto de AutoSwitch, buscando inducir mayor competencia entre los comercializadores de energía por medio de la desregulación de las tarifas y facilitar a los clientes la selección del comercializador que le ofrezca un menor costo, mayor calidad en el servicio, la fuente de energía deseada, entre otros. En este artículo, se presenta una caracterización de los atributos y funcionalidades de las principales herramientas de AutoSwitch del Reino Unido. Además, la adecuación de esta caracterización a una herramienta de AutoSwitch para el mercado eléctrico colombiano, teniendo en cuenta información suministrada por la empresa Enel Codensa, relacionada con el registro de potenciales usuarios, vinculación con el comercializador de energía, visualización de ofertas, notificaciones a los usuarios, entre otros. Para llegar a la liberación del mercado eléctrico colombiano, se hace necesario promover este tipo de herramientas, con las cuales, usuarios y comercializadores puedan llegar a tener mayores beneficios.
En esta investigación, mediante la exploración de la literatura, se realizó un mapeo sistemático sobre la aplicación de técnicas de programación neurolingüística (PNL) soportadas en la Web de las Cosas (WoT) para prevenir el síndrome de Burnout. Dicho síndrome es un tipo de estrés laboral que causa agotamiento físico, mental y emocional, generando una incapacidad para trabajar, dado que es un proceso paulatino en el cual el trabajador pierde interés por sus tareas, carece de sentido de responsabilidad y puede generar profundas depresiones. En los estudios encontrados se destaca el uso de la WoT para la detección de emociones y estrés laboral, para ello sobresale el uso de sensores capaces de medir Respuesta galvánica de la piel GSR, Frecuencia cardiaca HR, Fotopletismografía PPG, Electrocardiograma ECG, Cámaras, Micrófonos y Microprocesadores de bajo costo, así como la utilización de Inteligencia Artificial para procesar estos datos, entre las técnicas y los algoritmos más usados destacan Máquinas de Vectores de Soporte SVM, K-vecino más cercano y clasificador Naive Bayes. En los trabajos en los que se detectan emociones o estrés laboral son muy pocos los que intentan alterar el entorno mental o ambiental del usuario para llevarlo a una emoción positiva o disminuir el estrés. Se evidenció la posibilidad de la utilización de técnicas de PNL en la prevención del síndrome de Burnout. Sin embargo, no se encontró ningún trabajo que relacionara la WoT como soporte a las técnicas PNL para prevenir el síndrome de Burnout, lo cual se considera como una oportunidad de investigación en estos campos.
Este artículo presenta un servicio de clasificación documental que permite a los sistemas de gestión documental de múltiples clientes brindar una mayor confianza y credibilidad sobre los tipos documentales asignados a los documentos que cargan los usuarios. La investigación fue realizada a través de las fases de CRISP-DM en las que se evaluaron dos modelos de representación de documentos, bolsas de palabras con n-gramas acumulativos y BERT (propuesto recientemente por Google), y cinco técnicas de aprendizaje de máquina, perceptrón multicapa, bosques aleatorios, k vecinos más cercanos, árboles de decisión y un clasificador bayesiano ingenuo. Los experimentos se realizaron con datos de dos organizaciones y los mejores resultados fueron los obtenidos por el perceptrón multicapa, los bosques aleatorios y los k vecinos más cercanos, con resultados muy similares de exactitud general y recuerdo por clase para los tres algoritmos. Los resultados no son concluyentes para ofertar el servicio a múltiples clientes con un solo modelo, ya que esto depende de los documentos y tipos documentales de cada uno de ellos. Por lo anterior, se ofrece un servicio basado en una arquitectura de microservicios que permite a cada organización la creación de su propio modelo, el monitoreo de su rendimiento en producción y su actualización cuando el rendimiento no sea adecuado.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.