Vor Gericht sollten die Fakten zählen. Doch auch Richter:innen und Geschworene lassen sich leicht beeinflussen. Markus Kneer, Professor für Ethik der künstlichen Intelligenz am IDea_Lab der Universität Graz forscht, welche Urteile ungerecht sind und wie KI für mehr Fairness sorgen kann.
Schätz-Frage
Ein Bereich sind Berufungsprozesse, in denen es um die vorzeitige Haftentlassung geht. Hier sorgen sogenannte Rückschaufehler für schlechte Entscheidungen. Richter:innen überschätzen unter Umständen die Wahrscheinlichkeit eines Ereignisses, weil es schon einmal eingetreten ist. „Zum Beispiel glaubt man, dass ein Täter oder eine Täterin ein Verbrechen jederzeit wieder begehen könnte. Das stimmt aber nicht immer, wie die Kriminalstatistiken zeigen“, schildert Kneer. Er konnte in empirischen Untersuchungen zeigen, dass diese Fehleinschätzung Betroffene regelmäßig diskriminierte.
„Ein anderer Fehler ist der Severity-Effekt“, sagt Kneer. Die Schwere eines Ereignisses wird abhängig davon bewertet, wie schlimm die Folgen sind. Der Ethiker gibt ein Beispiel: „In einem Museum stößt jemand aus Versehen eine Vase um. Handelt es sich um eine billige Kopie, bleibt das vermutlich ohne Konsequenzen. War es aber um ein wertvolles Original, bekommt man vielleicht eine hohe Geld- oder sogar eine Gefängnisstrafe.“ Die Wahrscheinlichkeit, für den größeren Schaden schärfer verurteilt zu werden, sei hoch. „Das ist aber nicht gerecht, weil in beiden Fällen nicht absichtlich gehandelt wurde“, präzisiert der Forscher.
Daten-Basis
Künstliche Intelligenz könnte in Windeseile Statistiken auswerten und Schuldfragen nüchtern bewerten. Ein von Rechts- und Computerwissenschaftler:innen gemeinsam entwickelter Algorithmus könnte Richter:innen beratend zur Seite stehen. „Das würde Fehleinschätzungen reduzieren und helfen, fairere Urteile zu fällen“, resümiert der Ethiker. „Das ist auch im Interesse der Justiz.“ Die finale Entscheidung und die Verantwortung dafür müssten aber freilich in Menschenhand bleiben.