Proceedings of the Brazilian Symposium on Multimedia and the Web 2020
DOI: 10.1145/3428658.3431076
|View full text |Cite
|
Sign up to set email alerts
|

Extending Ginga-NCL to Specify Multimodal Interactions With Multiple Users

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
3
0
7

Year Published

2020
2020
2024
2024

Publication Types

Select...
5
3

Relationship

2
6

Authors

Journals

citations
Cited by 9 publications
(10 citation statements)
references
References 15 publications
0
3
0
7
Order By: Relevance
“…No que diz respeito ao desempenho, este trabalho segue uma abordagem similar a [2] , que apresenta uma proposta para interação em Ginga-NCL através de reconhecimento de voz. Em [2], os autores apresentam resultados mostrando que a segunda implementação integrada ao middleware Ginga tem desempenho superior à primeira implementação em NCLua. Como trabalhos futuros, serão realizados testes para comprovar a potencial superioridade de desempenho da segunda proposta.…”
Section: Discussionunclassified
See 1 more Smart Citation
“…No que diz respeito ao desempenho, este trabalho segue uma abordagem similar a [2] , que apresenta uma proposta para interação em Ginga-NCL através de reconhecimento de voz. Em [2], os autores apresentam resultados mostrando que a segunda implementação integrada ao middleware Ginga tem desempenho superior à primeira implementação em NCLua. Como trabalhos futuros, serão realizados testes para comprovar a potencial superioridade de desempenho da segunda proposta.…”
Section: Discussionunclassified
“…São duas as implementações deste trabalho: uma, feita na versão atual do middleware Ginga-NCL, e outra, feita sobre uma proposta de extensão do middleware [2] . A Figura 2 ilustra a principal diferença entre as implementações, em termos de arquitetura.…”
Section: Implementaçõesunclassified
“…advancements in this field, and one example of this is the proliferation of voice assistants that are able to provide recommendations and directions based on the physical location of the user [15]. Multimodal interfaces have been developed by developers in order to facilitate the integration of a variety of forms of input, including voice interaction, gesture recognition, spatial orientation, and other forms of input respectively [16]. When you do this, it is much simpler to begin things in a manner that is more realistic, engaging, and laid-back.…”
Section: ░ 2 Related Workmentioning
confidence: 99%
“…Lastly, the ITV application receives those results and can behave accordingly. We provide different interaction modes, such as face recognition, facial expression recognition, voice recognition, gesture recognition, etc., and this set could be extended as desired [2]. In this paper, we focus on facial expression recognition in order to understand viewer's sentiments.…”
Section: Affective Tv Proposalmentioning
confidence: 99%
“…The first one is based on the current standard of the middleware, which relies on Lua scripting for recognizing facial expressions. The second one, which actually implements the proposal of this paper, is based on a modified version of the middleware [2]. Figure 3 illustrates the difference between the implementations.…”
Section: Implementation and Evaluationmentioning
confidence: 99%