Bibtex export

 

@article{ Lopes2024,
 title = {Artificial intelligence and judicial decision-making: Evaluating the role of AI in debiasing},
 author = {Lopes, Giovana},
 journal = {TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis / Journal for Technology Assessment in Theory and Practice},
 number = {1},
 pages = {28-33},
 volume = {33},
 year = {2024},
 issn = {2567-8833},
 doi = {https://doi.org/10.14512/tatup.33.1.28},
 abstract = {As arbiters of law and fact, judges are supposed to decide cases impartially, basing their decisions on authoritative legal sources and not being influenced by irrelevant factors. Empirical evidence, however, shows that judges are often influenced by implicit biases, which can affect the impartiality of their judgment and pose a threat to the right to a fair trial. In recent years, artificial intelligence (AI) has been increasingly used for a variety of applications in the public domain, often with the promise of being more accurate and objective than biased human decision-makers. Given this backdrop, this research article identifies how AI is being deployed by courts, mainly as decision-support tools for judges. It assesses the potential and limitations of these tools, focusing on their use for risk assessment. Further, the article shows how AI can be used as a debiasing tool, i. e., to detect patterns of bias in judicial decisions, allowing for corrective measures to be taken. Finally, it assesses the mechanisms and benefits of such use.Als Schiedsrichter*innen in Rechts- und Tatsachenfragen sollen Richter*innen unparteiisch entscheiden, indem sie ihre Entscheidungen auf der Grundlage maßgeblicher Rechtsquellen 
treffen und sich nicht von irrelevanten Faktoren beeinflussen lassen. Empirische Untersuchungen zeigen jedoch, dass Richter*innen häufig von kognitiven Verzerrungen (implicit biases) beeinflusst werden, die die Unvoreingenommenheit ihres Urteils beeinträchtigen und eine Gefahr für das Recht auf ein faires Verfahren darstellen können. In den letzten Jahren wurde künstliche Intelligenz (KI) vermehrt für eine Vielzahl von Anwendungen im öffentlichen Bereich eingesetzt, oft mit dem Versprechen, genauer und objektiver zu sein als voreingenommene menschliche Entscheidungsträger*innen. Vor diesem Hintergrund diskutiert dieser Forschungsartikel den Einsatz von KI in Gerichten, insbesondere als Entscheidungshilfe für Richter*innen, und bewertet das Potenzial und die Grenzen dieser Instrumente hinsichtlich deren Einsatz bei der Risikobewertung. Darüber hinaus wird gezeigt, wie KI als Instrument zur Verringerung von Vorurteilen genutzt werden kann, d.h. um Muster der Voreingenommenheit bei gerichtlichen Entscheidungen aufzudecken und ihnen entgegenzuwirken. Abschließend werden die Mechanismen und Vorteile einer solchen Nutzung bewertet.},
 keywords = {künstliche Intelligenz; artificial intelligence; Entscheidungsfindung; decision making; Justiz; judiciary; Rechtsfindung; legal conclusion; Fairness; fairness; Vorurteil; prejudice; Risikoabschätzung; risk assessment; Digitalisierung; digitalization; Gerichtsverfahren; legal proceedings}}