Download full text
(external source)
Citation Suggestion
Please use the following Persistent Identifier (PID) to cite this document:
https://doi.org/10.14512/tatup.32.1.24
Exports for your reference manager
Algorithmische Fairness in der polizeilichen Ermittlungsarbeit: Ethische Analyse von Verfahren des maschinellen Lernens zur Gesichtserkennung
Algorithmic fairness in police investigative work: Ethical analysis of machine learning methods for facial recognition
[journal article]
Abstract This article discusses fairness in artificial intelligence (AI) based policing procedures using facial recognition as an example. Algorithmic decisions based on discriminatory dynamics can (re)produce and automate injustice. AI fairness here concerns not only the creation and sharing of datasets or ... view more
This article discusses fairness in artificial intelligence (AI) based policing procedures using facial recognition as an example. Algorithmic decisions based on discriminatory dynamics can (re)produce and automate injustice. AI fairness here concerns not only the creation and sharing of datasets or the training of models but also how systems are deployed in the real world. Quantifying fairness can distract rom how discrimination and oppression translate concretely into social phenomena. Integrative approaches can help actively incorporate ethical, legal, social, and economic factors into technology development to more holistically assess the consequences of deployment through continuous interdisciplinary collaboration.... view less
Dieser Beitrag diskutiert Fairness in auf künstlicher Intelligenz (KI) basierenden Verfahren der Polizeiarbeit anhand des Beispiels der Gesichtserkennung. Algorithmische Entscheidungen, die auf gesellschaftlichen Diskriminierungsdynamiken beruhen, können Ungerechtigkeiten (re-)produzieren und automa... view more
Dieser Beitrag diskutiert Fairness in auf künstlicher Intelligenz (KI) basierenden Verfahren der Polizeiarbeit anhand des Beispiels der Gesichtserkennung. Algorithmische Entscheidungen, die auf gesellschaftlichen Diskriminierungsdynamiken beruhen, können Ungerechtigkeiten (re-)produzieren und automatisieren. KI-Fairness betrifft dabei nicht nur die Erstellung und das Teilen von Datensätzen oder das Training von Modellen, sondern auch die Art des Systemeinsatzes in der Realwelt. Die Quantifizierung von Fairness kann davon ablenken, wie Diskriminierung und Unterdrückung sich konkret als soziale Phänomene niederschlagen. Integrative Ansätze können hier dazu beitragen, durch kontinuierliche interdisziplinäre Kollaboration ethische, rechtliche, soziale und wirtschaftliche Faktoren aktiv in die Technikentwicklung einzubeziehen und die Folgen des Einsatzes ganzheitlicher einzuschätzen.... view less
Keywords
police; artificial intelligence; algorithm; fairness
Classification
Technology Assessment
Free Keywords
algorithmic bias; fairness; machine learning; policing
Document language
German
Publication Year
2023
Page/Pages
p. 24-29
Journal
TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis / Journal for Technology Assessment in Theory and Practice, 32 (2023) 1
Issue topic
Modeling for policy: Challenges for technology assessment from new prognostic methods / Modellierung für die Politik: Herausforderungen für die Technikfolgenabschätzung durch neue prognostische Methoden
ISSN
2567-8833
Status
Published Version; peer reviewed