2017
DOI: 10.2139/ssrn.3959202
|View full text |Cite
|
Sign up to set email alerts
|

Chapter: "Blue Data" (Excerpt from "The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement")

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
39
0
4

Year Published

2021
2021
2023
2023

Publication Types

Select...
5
1
1

Relationship

0
7

Authors

Journals

citations
Cited by 28 publications
(43 citation statements)
references
References 0 publications
0
39
0
4
Order By: Relevance
“…Belangrijke oorzaken hiervan zijn de toegenomen technische mogelijkheden om grote hoeveelheden data te verzamelen, te bewerken en te analyseren, maar ook de mogelijkheden om de uitkomsten ervan in het politiewerk te gebruiken (o.a. WRR, 2016;Ferguson, 2017;Smith, Bennett Moses & Chan, 2018;Rienks & Schuilenburg, 2020;Brayne, 2021). Daarnaast spelen politieke en culturele ontwikkelingen hierbij een belangrijke rol, van de politieke wil om bepaalde vormen van criminaliteit in een steeds vroegtijdiger stadium aan te pakken tot een sterk geloof in techniek als 'de' oplossing voor maatschappelijke problemen zoals onveiligheid (Morozov, 2013;Das & Schuilenburg, 2020).…”
Section: Inleidingunclassified
See 2 more Smart Citations
“…Belangrijke oorzaken hiervan zijn de toegenomen technische mogelijkheden om grote hoeveelheden data te verzamelen, te bewerken en te analyseren, maar ook de mogelijkheden om de uitkomsten ervan in het politiewerk te gebruiken (o.a. WRR, 2016;Ferguson, 2017;Smith, Bennett Moses & Chan, 2018;Rienks & Schuilenburg, 2020;Brayne, 2021). Daarnaast spelen politieke en culturele ontwikkelingen hierbij een belangrijke rol, van de politieke wil om bepaalde vormen van criminaliteit in een steeds vroegtijdiger stadium aan te pakken tot een sterk geloof in techniek als 'de' oplossing voor maatschappelijke problemen zoals onveiligheid (Morozov, 2013;Das & Schuilenburg, 2020).…”
Section: Inleidingunclassified
“…Zo wordt in het geval van predictive policing onder meer gewezen op de risico's van bureaucratisering, false negatives and positives, selffulfilling prophecies, discriminatie van minderheden, en het identificeren van risicogroepen op basis van bepaalde kenmerken en categorieën (o.a. Ferguson, 2017;Peeters & Schuilenburg, 2018;Spithoven & Beerends, 2019;Rienks & Schuilenburg, 2020;O'Neil, 2016). Ook rechtsstatelijke zorgen worden in dit verband regelmatig geuit, variërend van het probleem van vuile data, function creep in de vorm van het hergebruik van data voor andere doelen dan oorspronkelijk vastgelegd, fishing expeditions, spurious correlations waarbij onterecht oorzakelijke verbanden worden gelegd, tot de schending van het onschuldbeginsel (o.a.…”
Section: Inleidingunclassified
See 1 more Smart Citation
“…Multiple (non)-governmental organisations are concerned about bias in low enforcement applications and fear that predictive methods may target minority communities. There are studies that show the existence of the racial bias in different public safety applications such as pedestrian stops [144], racial profiling of vehicles [99], use of force [66], and drug enforcement and arrests [171]. The work in [221] investigated the existence of racial bias in predictive policing.…”
Section: Crime and Public Safetymentioning
confidence: 99%
“…This means considering how, as Jason Edward Lewis notes, “The bias in these systems is not a bug but rather a feature of an interlocking set of knowledge systems designed over centuries to benefit white men first and foremost” (Lewis, 2021 ). Proponents of this shift from bias to power focus on how search engines are imbricated in systems of race and can therefore perpetuate racism (Noble, 2018 ); how AI is shaped by colonialism and the subsequent need for a decolonial approach to AI (Mohamed et al, 2020 ); how racial hierarchies shape the way that AI is illustrated and imagined (Cave & Dihal, 2020 ); and how AI perpetuates an unjust criminal justice system and dramatically expands carceral regimes into spheres of intimate and daily life (Ferguson, 2017 ; Wang, 2018 ; Benjamin, 2019a , 2019b ; Schwerzmann, 2021 ). We push forward this body of scholarship by showing how the rapid growth of the field of recruitment AI fails to meaningfully reckon with what race and gender are and how they are embedded in recruitment AI systems, which holds serious implications for the anti-bias claims of these technologies.…”
Section: Introductionmentioning
confidence: 99%