21.9 C
Munich
19. Juli 2019
Rauschgut – Zeitgeist & Infotainment
Digitalisierung

Algorithmen als ein Werkzeug für Recht und Gerechtigkeit?

Algorithmen als ein Werkzeug für Recht und Gerechtigkeit?

Eine Freundin scrollt sich so durch die Netflix Empfehlungen und bemerkt wiederholt verschiedene Anzeigen von Kosmetik für afrikanische Haare. Sie hat sich dann auf Twitter geklickt und andere farbige Nutzerixe gefragt, ob ihnen in der Timeline spezielle Werbung für farbige Menschen aufgefallen seien? Jetzt mit geschärften Blicken nochmal in den Netflix Empfehlungen recherchiert und es ist ihr deutlich aufgefallen, das sich vermehrt Filmempfehlungen und Werbeanzeigen mit und für farbige Menschen finden lassen. Wie bitte? Das hat ihr keine Ruhe gelassen und sie hat dem Netflix Support Team gleich eine E-Mail dazu abgefeuert die dann üblicher Weise so beantwortet wurde: „Ihre Annahme sei falsch. Netflix könne keine Anzeigen auf die direkte Person des Abonnenten schalten, weil wir unsere Mitglieder nicht nach ihrer Herkunft, „Rasse“(stand da), Geschlecht oder Ethnie befragen.“

Natürlich muss Netflix nicht fragen. Es kann algorithmisch feststellen welche Abonnenten wahrscheinlich afroamerikanische Charaktäre sehen wollen, indem sie sich die bisherigen Suchmuster und Betrachtungszeiträume herspeichern um aus den dort ermittelten Zahlen eine klare Vorliebe festzustellen.

Das ist Art und Weise der Technologie, die uns quasi so gut auf jeder Website verfolgt, erst Recht in den sozialen Medien.

Oberflächlich betrachtet ist das Netflix-Beispiel zumindest sehr lächerlich im Anbetracht der Möglichkeiten, aber es dient als ein einfaches Beispiel dafür, wie clevere Algorithmen auf Big Data angewendet werden können, Kombinationen zu ermitteln und zu errechnen, die manchmal mit der stenographischen “künstlichen Intelligenz” in Verbindung gebracht werden können um im Namen einer effizienteren Welt ungültige und manchmal aufdringliche Urteile über uns fällen.

Anstatt Lösungen anzubieten, hat die KI die Dinge noch schlimmer gemacht, argumentieren ihre Kritikerixe, gerade weil Amazon’s Einstellungsalgorithmus lernt, weibliche Bewerber niedriger zu bewerten. Genauso wenn Gesichtserkennungssoftware so konzipiert werden kann, dass sie Bilder von schwarzen Politikern häufiger mit kriminellen Verbrecherfotos verwechselt als weiße. Die Angst in den Büchern der Kritikerixe wie „Algorithmen der Unterdrückung“ ist die Automatisierung von Ungleichheit und die daraus entstehenden Waffen der mathematischen Zerstörung, weil diese Systeme die Ungleichheiten der Gesellschaft in Ursache einschließen.

Eine logische Antwort darauf wäre, dass wir uns von Algorithmen befreien und die Achtung der Privatsphäre und der Individualität fordern. Doch bei einem Großteil unserer Ängste geht es nicht um die Werkzeuge selbst, sondern um die Art und Weise, wie Algorithmen vertreten werden – wenn sie in den richtigen Kontext gestellt und mit den richtigen Fragen zur Lösung eingegeben werden, können Algorithmen den sozialen Fortschritt auf eine Weise beflügeln, wie es sonst keine anderen Möglichkeiten bieten.

Das aktuelle Unternehmensmodell der BigData-Companies im Internet ist die Verwendung von Algorithmen um Effizienzsteigerungen zu erzielen. Netflix will dass die Leute weiterhin glücklich zusehen; Uber will Fahrten zu den Leuten schicken, die genau den Transport benötigen; Facebook sucht nach Anzeigen und Artikeln, die wir finden und teilen werden. “Der überwältigende Teil der Leute sagen uns, dass wenn sie Anzeigen auf Facebook sehen möchten, wollen sie, dass die Anzeigen relevant sind; sie wollen keine schlechten Anzeigen”, sagte Mark Zuckerberg in einem kürzlich veröffentlichten Interview. In der öffentlichen Ordnung erlaubt diese algorithmische Effizienz den Regierungen, Ressourcen durch Programme wie eines beim Los Angeles Police Department zuzuweisen, das eine Liste von “wahrscheinlichen Tätern” erstellt, bevor sie Beamte zur Untersuchung schicken. Weiter entlang der Strafjustizpipeline können den Richtern statistisch fundierte Beurteilungen darüber gegeben werden, ob jemand der wegen Verbrechens verurteilt wurde auf Bewährung entlassen werden sollte; diese Vorhersagen sorgen theoretisch für Effizienz, indem sie eine zweite Chance für diejenigen reservieren, wo ein Algorithmus zu dem Schluss kommt, dass sie sie nicht unnötig lange im Knast sitzen müssen.

die KI Demokratie

Aber stellt euch mal vor, wir würden diesen Irrsinn von persönlichen Daten und einschneidenden Algorithmen denen zuteilen, die sich anmaßen, uns zu beurteilen und zu kontrollieren: Algorithmen sollten eine weitere wichtige Kontrolle des Systems sein, die Muster von Ungerechtigkeiten mit einer Klarheit aufzudecken, die im täglichen Leben ständig verdunkelt werden kann. Werden bestimmte Bevölkerungsgruppen, Nachbarschaften, Altersgruppen unterschiedlich behandelt? Gibt es politische Veränderungen, die solche Ungerechtigkeiten korrigieren könnten? Wie das Silicon Valley Mantra sagt: was man nicht messen kann, kann man nicht auch nicht verbessern.

Zum Beispiel analysierte die New York Times Tausende von Verhaftungen wegen Marihuanabesitz auf unterster Ebene und entdeckte ein Nebenprodukt von “effizienten” Polizeimethoden – Afroamerikaner in New York wurden über einen Zeitraum von drei Jahren mit der achtfachen Rate an weißen, nicht-hispanischen Menschen verhaftet. Als die Polizei erklärte, dass der Unterschied die Demografie der Stadtviertel widerspiegelt, von denen die meisten Beschwerden kamen, benutzte die Times Daten um zu beweisen, dass das nicht wahr war. In den folgenden Wochen kündigten die Bezirksanwälte von Brooklyn und Manhattan an, dass sie die Verfolgung der überwiegenden Mehrheit der Menschen, die wegen Marihuana-Vergehen verhaftet wurden, einstellen würden, indem sie das rassische Gefälle bei den Verhaftungen anführten.

Das vielleicht sicherste Zeichen für die potenzielle Macht der Datenanalyse ist die Opposition, die sich oft um die Analyse der Daten herum bildet. In diesem Sommer veröffentlichte die konservative „Heritage Foundation“ einen Artikel, in dem sie argumentierte, dass das US Census Bureau einfach aufhören sollte, rassische Daten zu sammeln und zitierte den Vorschlag des Obersten Richters John Roberts, dass die Feststellung von rassischen Unterschieden diese Unterschiede erst schaffen: “Der Weg, Diskriminierung aufgrund der Rasse zu beenden, ist die Diskriminierung aufgrund der Rasse zu beenden.” In den 90er Jahren verabschiedete der Kongress die „Dickey-Amendment“, einen von der NRA unterstützten Plan, der die angeblichen Bemühungen der „Centers for Disease Control and Prevention§, “die Waffenkontrolle zu befürworten oder zu fördern” verbietet, indem er die Mittel für die Schusswaffenforschung bestimmt.
Bis 2012 waren die Ausgaben für die Erforschung von Schusswaffenverletzungen um 96 Prozent gesunken.

Die wichtigste Barriere für eine reformgesinnte algorithmische Analyse kam vom Obersten Gerichtshof, in einem Fall „McCleskey v. Kemp“ von 1987. Die Anwälte für Warren McCleskey, der wegen des Mordes an einem Polizisten während eines bewaffneten Überfalls zum Tode verurteilt worden war, erstellten eine detaillierte statistische Studie um zu argumentieren, dass das System der Todesstrafe durch Rassismus infiziert war. Die Studie wurde von einem bahnbrechenden Datenwissenschaftler, David Baldus geleitet. Im Gegensatz zu den heutigen Forschern musste Baldus seine Informationen mühsam sammeln – mehr als 2.000 Todesurteile, die von Jurastudenten in einem Sommer auf mehr als 400 verschiedene Arten kategorisiert wurden. Die vielen Kategorien (ob ein beteiligter Offizier oder der Angeklagte das Opfer kannte) erlaubten es Baldus, Fälle zu vergleichen, die scheinbar identisch waren. Außer der Rasse des Angeklagten oder der Rasse des Opfers. Nach der detaillierten statistischen Analyse entdeckte Baldus eine gewisse Verzerrung gegenüber schwarzen Angeklagten, entdeckte aber, dass die größte Diskrepanz bei der Verurteilung mit der Rasse des Opfers zusammenhing.

Kurz gesagt, schwarze Leben waren weniger wichtig. Eine Verurteilung zum Mord an einer weißen Person war es mehr als viermal so wahrscheinlich das die Todesstrafe verhängt wurde, als eine ähnliche Verurteilung mit einem schwarzen Opfer. Stelle die Rasse der Opfer auf Schwarz von Weiß um, wie es beim Offizier im Fall McCleskey gewesen ist, hätten mehr als die Hälfte der Todesurteile nie stattgefunden wie die Daten zeigen. Das Muster war etwas, das Baldus nicht finden wollte. Die Daten enthüllten aber, was sonst bis dahin niemand zu beweisen vermochte.

In einer Abstimmung von 5-4 Stimmen wies das Oberste Gericht McCleskeys Behauptungen zurück und das obwohl es die Forschung akzeptierte. Baldus hatte mithilfe von Daten systemisch bedingte Rassenvorurteile bewiesen, konnte aber keinen direkten Beweis verbinden, dass sie speziell in McCleskeys Fall stattgefunden haben. Der Richter Lewis Powell verfasste für die Beteiligten des Gerichts den Bericht und bemerkte durchaus diese Schwachstelle. “Statistiken zeigen höchstens die Wahrscheinlichkeit dass ein bestimmter Faktor in bestimmte Entscheidungen eingetreten ist”, schrieb er und fügte hinzu, dass jeder von uns Anspruch auf “individualisierte Gerechtigkeit” hat, mit Entscheidungen, die auf “individualisierter Untersuchung” beruhen. McCleskey wurde also 1991 hingerichtet.

Heute wird der Fall McCleskey von Rechtswissenschaftlern unter anderen als einer der am schlimmsten beurteilten Fälle in der Geschichte des Obersten Gerichtshofs geführt. Genauso auch die berüchtigte Entscheidung von Dred Scott, der dort die Sklaverei billigte oder Korematsu, der die Internierungslager für japanische Amerikaner während des Zweiten Weltkriegs erlaubte. Powell sagte später noch dass der McCleskey Fall die furchtbarste aller Entscheidungen gewesen war, in seinen fast 16 Jahren auf dem Höchsten Gericht.

Paul Butler, Professor an der Georgetown Law School, der über den McCleskey-Fall ausführlich berichtete, sagte noch, dass McCleskey besonders schrecklich sei, weil all das ignoriert worden ist, was die Statistiken ganz deutlich belegten.

Die möglicherweise hoffnungsvolle Nachricht, obwohl ich mir da noch nicht ganz sicher bin, dass die von Baldus verwendeten Werkzeuge hier und heute Journalisten, Interessenvertretungen, Reformern in der Regierung und privaten Unternehmen zur Verfügung stehen – auch wenn die Gerichte, auch in Europa und in Deutschland angewiesen sind, menschlich zu urteilen. Vermutlich hat Amazon selbst Algorithmen verwendet um die Verzerrung von Frauen innerhalb seines eigenen KI-Einstellungssystems zu erkennen. Stelle Dir mal eine Welt vor, in der Daten verwendet werden können um Institutionen fairer und nicht effizienter zu machen, und in der Bücher mit so gruseligen Titeln wie „Algorithmen der Gerechtigkeit, Automatisierung der Gleichstellung und Waffen der mathematischen Konstruktion“ veröffentlicht werden. Wow! Willkommen in der schönen neuen Welt.

Related posts

Mentale Blöcke passend machen: Der Tetris-Effekt und unsere grenzenlose digitale Zukunft

Mathahasy

Der Irrsinn der Digitalisierung: wie KI die Demokratie verändern wird.

Mathahasy

Meinung hinterlassen

Zur Verbesserung unseres Onlineangebotes als auch zu Ihrer und unserer Sicherheit verwendet Rauschgut Cookies. Das sind kleine Textdateien im Speicher Ihres Browsers, wo wir Sie unter anderem als wiederkehrender Besucherix wiedererkennen. Aktzeptieren Datenschutzerklärung