PurposeThe use of recommender systems is increasing on academic social media (ASM). However, distinguishing the elements that may be influenced and/or exert influence over content that is read and disseminated by researchers is difficult due to the opacity of the algorithms that filter information on ASM. In this article, the purpose of this paper is to investigate how algorithmic mediation through recommender systems in ResearchGate may uphold biases in scholarly communication.Design/methodology/approachThe authors used a multi-method walkthrough approach including a patent analysis, an interface analysis and an inspection of the web page code.FindingsThe findings reveal how audience influences on the recommendations and demonstrate in practice the mutual shaping of the different elements interplaying within the platform (artefact, practices and arrangements). The authors show evidence of the mechanisms of selection, prioritization, datafication and profiling. The authors also substantiate how the algorithm reinforces the reputation of eminent researchers (a phenomenon called the Matthew effect). As part of defining a future agenda, we discuss the need for serendipity and algorithmic transparency.Research limitations/implicationsAlgorithms change constantly and are protected by commercial secrecy. Hence, this study was limited to the information that was accessible within a particular period. At the time of publication, the platform, its logic and its effects on the interface may have changed. Future studies might investigate other ASM using the same approach to distinguish potential patterns among platforms.Originality/valueContributes to reflect on algorithmic mediation and biases in scholarly communication potentially afforded by recommender algorithms. To the best of our knowledge, this is the first empirical study on automated mediation and biases in ASM.
Algorithmic systems that recommend content often lack transparency about how they come to their suggestions. One area in which recommender systems are increasingly prevalent is online news distribution. In this paper, we explore how a lack of transparency of (news) recommenders can be tackled by involving users in the design of interface elements. In the context of automated decision-making, legislative frameworks such as the GDPR in Europe introduce a specific conception of transparency, granting 'data subjects' specific rights and imposing obligations on service providers. An important related question is how people using personalized recommender systems relate to the issue of transparency, not as legal data subjects but as users. This paper builds upon a two-phase study on how users conceive of transparency and related issues in the context of algorithmic news recommenders. We organized co-design workshops to elicit participants' 'algorithmic imaginaries' and invited them to ideate interface elements for increased transparency. This revealed the importance of combining legible transparency features with features that increase user control. We then conducted a qualitative evaluation of mock-up prototypes to investigate users' preferences and concerns when dealing with design features to increase transparency and control. Our investigation illustrates how users' expectations and impressions of news recommenders are closely related to their news reading practices. On a broader level, we show how transparency and control are conceptually intertwined. Transparency without control leaves users frustrated. Conversely, without a basic level of transparency into how a system works, users remain unsure of the impact of controls.
Trata-se de um estudo metodológico, visando avaliar como sistemas de folksonomias podem contribuir para a indexação de obras cinematográficas, tendo como base teórica a Teoria dos Protótipos, oriunda da Linguística Cognitiva. Para tal, foi elaborado um corpus de análise composto por 25 filmes indexados na plataforma Internet Movie Database (IMDB) sob o termo slasher, que se refere a um subgênero do cinema de terror. Através do sistema de plot keywords do IMDB, foram extraídos 631 termos únicos deste corpus, atribuídos livremente pelos usuários da plataforma. A seguir, analisou-se quais termos além de slasher eram compartilhados por mais de um título presente no corpus, buscando obter aquelas keywords de maior valor semântico para a delimitação da categoria slasher. Foram identificadas 43 plot keywords compartilhadas, que são apresentadas graficamente de acordo com seu nível de frequência. Também buscou-se constatar quais os filmes mais centrais da categoria, aqueles que compartilhavam mais plot keywords com seus pares. Constatou-se que o filme mais prototípico dentro do recorte analisado compartilha 19 termos com os outros membros do corpus. Os termos que os três filmes mais centrais da categoria compartilham com seus pares foram apresentados graficamente. Conclui-se afirmando que a apreensão e descrição de atributos característicos do subgênero cinematográfico slasher por parte do público leigo condiz com o que é observado como significante pela literatura especializada no tema; disto, observa-se que os postulados trazidos pela Teoria dos Protótipos se mostram úteis para se analisar quais atributos são semanticamente significativos na delimitação de uma categoria auxiliando no processo de indexação.
Resumo:Em um cenário de crescente acesso à informação através de plataformas digitais e sistemas de informação, pesquisas envolvendo a análise de logs tornam--se cada vez mais relevantes. Através dos logs, pesquisadores e profissionais da informação podem conhecer as demandas dos usuários com quem não mantêm contato direto, em função da prestação de serviço se dar remotamente, mediada via sistema de recuperação da informação. No entanto, estudos que utilizam a análise de logs como método no Brasil são ainda incipientes, e descrições sistemáticas dos procedimentos metodológicos na literatura nacional sobre o tema inexistem. Para preencher essa lacuna, o objetivo deste capítulo é investigar, sistematizar e descrever as etapas metodológicas e aspectos técnicos da análise de logs em CI, com enfoque em sistemas de recuperação da informação. Concretiza-se esse objetivo através da sistematização da seção metodológica dos 10 artigos mais citados disponíveis na Web Of Science que tenham feito uso de análise de logs, publicados no período entre 2006 e 2016. A proposta metodológica apresenta quatro etapas principais: (i) contextualização do log; (ii) seleção; (iii) coleta e preparação dos dados; e (iv) análise dos dados. A etapa de seleção (ii) é ainda dividida em três subetapas, nas quais se identificam a relevância e adequabilidade das informações do log aos objetivos de pesquisa, o recorte de dados e a disponibilização e uso dos dados para análise. Os procedimentos são apresentados com exemplos tanto dos textos do corpus de pesquisa quanto de estudos mais recentes baseados na experiência dos autores do presente capítulo.Palavras-chave: Análise de logs; metodologia da pesquisa; sistemas de recuperação da informação; estudos de usuário.
Esta obra é licenciada por uma Licença Creative Commons: Atribuição-NãoComercial-SemDerivações 4.0 Internacional -CC BY-NC (CC BY-NC-ND). Os termos desta licença estão disponíveis em:
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.