Top-Thema

02.12.16 -0,73%
Obama blockiert Aixtron-​Übernahme durch Unternehmen aus China

Weckruf gegen die künstliche Intoleranz

Samstag, 24.09.2016 15:00 von

Technische Entscheidungshilfen gelten als objektiv: Wo gerechnet und ausgewertet wird, bleibt kein Raum für Gefühle. Aber wer genau hinsieht, erkennt, dass in vielen digitalen Diensten Vorurteile eingebaut sind.

Oft schätzen wir die technische Datenanalyse als dem Menschen überlegen ein. Technik ist doch neutral, sie funktioniert, oder sie funktioniert eben nicht. Und Gleiches gilt für den Code, der die Technologie lenkt. Wo gerechnet wird, ist Objektivität am Werke. Emotionen, Voreingenommenheit bleiben außen vor. Eins und eins macht seit Adam Riese zwei. Warum sollte das bei großen Datensätzen, die unsere menschliche Vorstellungskraft sprengen, anders sein. Mathe hat immer recht!

Deswegen vertrauen wir, oft unbewusst, der Software, die sich inzwischen durch unser Leben, unsere Gesellschaft und unsere Wirtschaft frisst, immer mehr unsere Entscheidungshoheit an. Wir vertrauen, dass Algorithmen den besten Jobkandidaten und die spendierwilligste Werbezielgruppen herausfiltern, dass sie Kriminalprofile durchforsten oder uns die Nachrichten präsentieren, damit wir gesünder bleiben.

Der Code kopiert unsere Vorurteile

Das Code-Kapital dahinter, die potenzielle wirtschaftliche und gesellschaftliche Wirkungskraft dieser Algorithmen, ist somit für die meisten von uns allgegenwärtig spürbar.

Aber halt. Ist es wirklich so einfach? Wer genauer hinsieht, erkennt: In vielen der populärsten Digitalprodukte sind Vorurteile gegenüber jenen, die sie nutzen oder über die sie Auskunft geben sollen, schon mit eingebaut. Code kann die blinden Flecken der menschlichen Wahrnehmung imitieren, oder er kopiert schlimmstenfalls die Vorurteile derjenigen, die ihn geschrieben haben oder nutzen – und multipliziert diese mit gewaltigen Konsequenzen im Netz für ein Milliardenpublikum.

Um den vollständigen Artikel zu lesen, klicken Sie bitte hier.