2013
DOI: 10.14417/lp.759
|View full text |Cite
|
Sign up to set email alerts
|

Acordo inter-juízes: O caso do coeficiente kappa

Abstract: Resumo Sempre que é preciso classificar um conjunto de dados num dado número de categorias, vários tipos (Cohen, 1968). Por fim, algumas críticas feitas a este coeficiente de acordo inter--juízes são sumariamente discutidas.Palavras-chave: Acordo inter-juízes, Coeficiente kappa, Kappa ponderado. AbstractWhenever one needs to classify a set of data in a given number of categories, several types of biases can occur. In order to minimize them, it's frequent to recourse to more than one judge to categorize the sam… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
12
0
24

Year Published

2014
2014
2021
2021

Publication Types

Select...
5
3

Relationship

0
8

Authors

Journals

citations
Cited by 33 publications
(36 citation statements)
references
References 16 publications
0
12
0
24
Order By: Relevance
“…For this analysis, two indicators were used: Concordance Percentage (CP) and Kappa index (K). First, 30 minutes of one session were randomly selected and categorized according to the SiMCCIT (Zamignani, 2007), in order to verify whether the index was within the satisfactory limits: Concordance Percentage (CP) over 70% (Fagundes, 2015) and Kappa Coefficient (K) above .60 (Fonseca et al, 2007).…”
Section: Methodsmentioning
confidence: 99%
See 1 more Smart Citation
“…For this analysis, two indicators were used: Concordance Percentage (CP) and Kappa index (K). First, 30 minutes of one session were randomly selected and categorized according to the SiMCCIT (Zamignani, 2007), in order to verify whether the index was within the satisfactory limits: Concordance Percentage (CP) over 70% (Fagundes, 2015) and Kappa Coefficient (K) above .60 (Fonseca et al, 2007).…”
Section: Methodsmentioning
confidence: 99%
“…• Stage II -Concordance between Observers: after study and consensus of the observers regarding the use of SiMCCITAxis II (Zamignani, 2007), 20% of the sessions were randomly selected for analysis (4.4 sessions, rounded up to 5 sessions), with the aim of evaluating the final concordance index between the observers (Kazdin, 1982 As can be seen, the index maintained a satisfactory level, CP above 70% (Fagundes, 2015) and K above .60 (Fonseca et al, 2007), with regularity maintained among the sessions.…”
Section: Methodsmentioning
confidence: 99%
“…Para a análise dos resultados das avaliações acerca das concordâncias entre os profissionais, o denominado Coeficiente Kappa tem sido empregado em vários estudos (4)(5)(16)(17)(18)(19) . Dessa maneira, tenta-se assegurar a uniformidade do processo de avaliação ou classificação de modo a controlar ou minimizar vieses nas conclusões e/ou análises subsequentes.…”
Section: Métodosunclassified
“…Para esse teste, deve-se dispor de exame ou avaliador considerado padrão-ouro, ou seja, reconhecido como apropriado para fins de comparação. O teste de confiabilidade permitirá a constatação do grau de equivalência, precisão entre as avaliações isoladas de dois ou mais profissionais (16)(17) . Justifica-se a presente pesquisa devido à carência de profissionais de enfermagem capacitados para a realização da avaliação da córnea de pacientes críticos com o teste de fluoresceína.…”
Section: Introductionunclassified
“…Apesar de existirem diferentes formas de calcular o acordo interobservador (Berk, 1979;Suen & Ary, 1989), recomenda-se que os investigadores relatem um coeficiente de acordo que controle as concordâncias devidas ao acaso, nomeadamente o coeficiente kappa (Cohen, 1960;Fonseca, Silva, & Silva, 2007).…”
Section: Realização De Treino De Observadores E Cálculo Dos Níveis Deunclassified