Diskriminierung durch Algorithmen?

Veröffentlicht am: 05.06.2018 | Kategorie(n):


Diskriminierung durch Algorithmen?

Algorithmen schätzen mit welcher Chance wir Gewaltverbrechen verüben und schlagen gegebenenfalls Gesetzeshütern Maßnahmen vor. Klingt nach einer Dystopie a la Big Brother, oder?

Das ist in einigen Gegenden schon Realität und wir sollten uns fragen was das bedeutet.

Deep Learning wertet gigantische Mengen von Daten aus und soll Muster erkennen. Beispielsweise soll vorzeitig erkannt werden wer straftätig wird. Dafür sind Daten über das Umfeld von Bürgern notwendig und deren Straftaten. So kann – oder soll – ein Algorithmus eine Bewertung über Bürger aussprechen und ab einem gewissen Score können präventive Schritte eingeleitet werden.

Macht man sich jetzt weiter Gedanken über das Profiling, so könnte das Resultat sein, dass man gewisse Musik nicht mehr hören oder Filme nicht mehr sehen darf, wenn man nicht als Straftäter profiliert werden will, da mit hinreichenden Daten jedweder Lebensbereich auf Korrelation mit Verbrechen untersucht wird. Jedes „auffällige“ Verhalten kann den Crime-Score erhöhen.

Das geht allerdings in beide Richtungen. Mit guten Modellen soll man beispielsweise Börsencrashes vorhersehen und dementsprechend Schritte einleiten können. Damit könnten viele Krisen zum Positiven gewendet werden.

Langfristig gilt es hier ein Maß zwischen Weltverbesserung durch Datenauswertung und persönlicher Diskriminierung zu finden.
Diskriminierend sind Machine Learning Algorithmen nämlich immer. Das Wort selbst kommt schließlich aus dem Lateinischen – discriminare – und bedeutet hier trennen oder unterscheiden.

Predictive Analytics können in vielen Bereichen Katastrophen abwenden und Chancen vorzeitig aufdecken. Allerdings ist es hier wichtig, immer im Auge zu behalten mit welchen Daten man Algorithmen füttert und was im Hintergrund passiert. Es besteht immer die Gefahr, Programmen blind zu vertrauen und Hintergründe zu ignorieren. Vor lauter Technologie darf der gesunde Menschenverstand nicht vernachlässigt werden.