Os tradicionais problemas do reconhecimento pessoal, mormente quando realizado em álbuns fotográficos, foram repaginados e receberam verniz científico-tecnológico com a introdução de algoritmos de reconhecimento facial. A pandemia de coronavírus serviu de justificativa para a multiplicação dessas tecnologias, a pretexto do combate ao vírus. Assim foi que, em muitos lugares, como a Inglaterra e os EUA, esses algoritmos passaram a ser utilizados na persecução penal, não raro sob o argumento de redução da subjetividade dos depoimentos. Nesse contexto, o objetivo deste artigo é indagar como o reconhecimento facial pode produzir novos erros judiciários. Os objetivos específicos são abordar o uso de câmeras de monitoramento com reconhecimento facial para vigilância digital, analisar alguns aspectos do incremento das medidas securitárias durante a pandemia, investigar os erros judiciários em reconhecimentos de pessoas e explicar como os erros judiciários podem ocorrer durante o uso dessas câmeras. A hipótese da qual se parte é que essa tecnologia, por um lado, não pode cumprir condições mínimas de avaliação de confiabilidade probatória, e, por outro, ao ser aplicada a imagens, não passa de uma atualização, em muitos casos bastante malfeita, dos problemáticos reconhecimentos fotográficos. Utilizou-se o método hipotético-dedutivo e a técnica de pesquisa bibliográfica.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.