Rassistische Computer?
Rassistische Computer?

Rassistische Computer?

Letztens habe ich ja schon einmal kurz anklingen lassen, dass im Bereich der Robotik, auch wenn früher mal mögliche Regeln aufgestellt, diese in unserer jetzigen Zeit widerlegt wurden.

Wie z. B. dass Roboter Menschen nicht verletzen dürfen oder es zumindest nicht sollen. Dennoch können sie es, wenn man sie entsprechend programmiert. Das würde bedeuten, dass auch sie ihr Programm möglicherweise selbst umschreiben können, ähnlich wie wir ethische oder unethische Entscheidungen treffen.

Doch was ist mit einem Computer als solchen, kann der eigentlich rassistisch sein?

Inhaltsverzeichnis

Rassistische Computer – bewusst oder unbewusst?

Rassistische Computer möglich?

Anscheinend kann er – wobei ich in dem Zusammenhang vermute eher unbewusst und weniger aus einer aktiv rassistischen Idee heraus.
Tyler Vigen, ein Harvard Student hat Computer Statistiken verglichen und zusammentragen lassen und das Ergebnis ist sehr interessant. Denn obwohl man auf den ersten Blick keinen wirklichen Zusammenhang zwischen den unterschiedlichen Statistiken sieht, so sind sie dennoch so gravierend, dass man davon ausgehen müsste, dass es einen Zusammenhang gibt.

Steigt der Konsum an Käse, verheddern sich mehr Menschen in ihrem Bettzeug und sterben daran.
Essen mehr US-Bürger Margarine, desto mehr Menschen lassen sich um US-Bundesstaat Maine scheiden.
Oder dass die Ausgaben der USA für Wissenschaft, Technologie und Weltraumforschung mit der Selbstmordrate, durch Strangulation, erhängen oder ersticken, zusammenhängt.

Das hört sich jetzt ziemlich willkürlich an. Doch Vigen ging so vor, dass er Datensätze in den Computer eingab und dieser den dann ganz mathematisch mit anderen verglich und überprüfte.

Man kann sehen, dass es da keinen Zusammenhang gibt.

Uns ist klar, dass das Alter der Miss Amerika nicht mit der Statistik zusammenhängt, bei der es um Morde mit heißem Dampf oder heißen Objekten geht. Doch das Problem ist:
Der Computer weiß das nicht.

Er sieht nicht, dass es da zwar mathematische Übereinstimmungen in den Statistiken gibt, nicht aber, dass sie eigentlich total zusammenhangslos sind.
Dieses Problem zieht damit weitere nach sich.
Wir arbeiten mit Computern und möglicherweise auch mit Computern, die Entscheidungen treffen, die signifikant für Menschen sein können, wie ob jemand einen Job oder Kredit bekommt. Oder auch ob man mit dem Flugzeug fliegen darf.
Gerade was die Zukunft angeht werden sich da die Beispiele noch häufen. Da kann man schnell mal als potentieller Terrorist eingestuft werden, weil man im Supermarkt Socken, eine Tiefkühlpizza und Nagellackentferner gekauft hat. Die Konstellation ist so seltsam und das haben dann vielleicht auch nur Menschen gekauft die dem Terrorismus nahestehen.

Wirres Gerede oder doch potentielle Gefahr?

Hört sich sicher anfänglich erst einmal etwas befremdlich an, doch Wissenschaftler warnen dahingehend. Denn den Computern und Programmen wird beigebracht den Menschen kennenzulernen und studieren somit das Verhalten von jemandem.
Das bedeutet, 99 Menschen bewegen sich im Auge einer Kamera nach Schema X, doch Nummer 100 bewegt sich anders. Damit fällt er automatisch auf. Es ist irrelevant, warum er sich anders bewegt, es geht nur darum, dass er sich anders bewegt und im Zweifelsfall macht ihn das automatisch verdächtig. Das zieht eine Überprüfung von Sicherheitsleuten und Polizeibeamten nach sich, möglicherweise auch eine unangenehme Überprüfung.

Nach heise.de gibt es Berichte aus den USA von den, am Flughafen stehenden, Körperscannern, die immer wieder Transsexuelle outen, da der Algorithmus falsche Geschlechtsteile erkannte, also bspw. einen Penis bei einer Frau, der für den Computer da nicht hingehörte. 
Das war natürlich nicht das Ziel der Scanner, dennoch kann man sehen, wie schnell diese Programme selbst ihre Schlüsse ziehen, obwohl der Computer nicht direkt weiß worum es dabei gehen könnte. Doch klar wird, dass die Kontrolle über diese Maschinen und die Schlüsse, die sie ziehen, verloren geht.

Vor einiger Zeit habe ich auf eine Studie verwiesen, bei der es um die Möglichkeit ging, Depressionen bei Menschen aus sozialen Netzwerken hervorzusagen. Die Trefferquote war zwar relativ hoch, jedoch nicht absolut. Was bedeutet, dass nicht alle, denen eine potentielle Depression angedichtet wurde, dementsprechend auch depressiv war.

Legale Ablehnung

Wenn man dieses Verfahren nun etwas weiterdenkt, dann kommt man schnell darauf, dass Arbeitgeber oder private Krankenversicherungen, den jeweiligen Bewerber legal ablehnen könnten, weil dieser sowohl für die Arbeit, als auch für die Versicherung eine eventuelle Belastung darstellt.
Warum wäre das legal?

Weil uns die Gesetze nur schützen, wenn wir akut krank sind und nicht, wenn wir die Möglichkeit einer Krankheit haben könnten. Wir würden auch hier vorverurteilt werden für etwas, das wir nie hätten. Aber die Maschine sieht das Potential einer Erkrankung und zieht so ihren Schluss.
Ein anderer sehr kritischer Punkt ist z. B. der Algorithmus bei Facebook.

Nur eine kleine Veränderung im Newsfeed und schon lassen sich Menschen bei ihren Entscheidungen massiv beeinflussen. Das Unternehmen selbst hat in einigen Studien gezeigt, dass bspw. die Wahlbeteiligung verändert werden kann oder auch die Meinung zu einem Thema.
In einer konkreten Studie aus dem Jahr ließen sich 0,4% der Facebooknutzer überzeugen auch wählen zu gehen.

Bei den damals 60 Millionen angesprochenen Usern wären das mehrere Hunderttausend Wähler. Das kann dann schon wahlentscheidend sein.

Manchmal reichen dafür nur einige Hundert Stimmen.
So eine Manipulation bei solchen Algorithmen können so gut verschleiert werden, dass man sich gar nicht wirklich nachweisen kann und genau da wird es gefährlich.

Bei diesen Algorithmen wissen viele gar nicht, dass sie so programmiert sind, dass sie eine scheinbare Realität abbilden. Wenn der Nutzer Vorschläge von Seiten bekommt oder Beiträgen bekommt, dann denken viele, dass würde ihn wirklich interessieren und dass es sich dabei um eine Abbildung der Realität handelt.
Dabei sind es nur Vorschläge, die dem User gemacht werden, aufgrund der Dinge, die er sich anschaut und die er postet und liked.

Gatekeeper nicht nachvollziehbar als Algorithmus

So ein Verhalten wird „Gatekeeper“ genannt und ist auch aus dem Journalismus bekannt, wo der Zuständige auswählt, über was berichtet werden soll und über was nicht.

Also was die Allgemeinheit interessant findet und welche Themen die Menschen eher weniger interessieren.
Mit ein Grund, warum ich viele Zeitungen und das Fernsehen schrecklich finde – aber dazu ein anderes Mal.
Jedoch wissen viele Leser, dass es sich bei den Artikeln einer Zeitung um eine Auswahl handelt. Das ist der Unterschied zu dem Otto-Normal-User des Internets.
Dass diese Algorithmen nicht so ganz sauber funktionieren, sieht man daran, dass irgendwann auch mal Seitenvorschläge kommen, auf die man nie gehen würde (wie mir letztens eine Gruppe mit besorgten Bürgern vorgeschlagen wurde…).
Aber nicht nur Gruppen, sondern auch Seiten können aus dem Sichtfeld geraten, bei denen man sich irgendwann fragt, warum man von der Seite XY nichts mehr gelesen hat, ob es die überhaupt noch gibt? Wenn man dann nach der Seite sucht und sie dann findet, kann es gut sein, dass sehr viel neuer Inhalt gepostet wurde, jedoch war der Algorithmus der Meinung, dass einen die Seite nicht mehr interessieren würde.

Ethische Probleme

Diese Gatekeeper sind nicht wirklich nachvollziehbar und undurchsichtig, was sie noch gefährlicher macht, weil einem selbst somit eine Meinung suggeriert werden kann, die gar nicht die eigene ist.
Wenn solche Programme immer mehr Einzug in unseren Alltag finden, dann müssen wir sie auch so gestalten, dass wir sie verstehen und nachvollziehen können und nicht nur eine Hand voll Leute, die sich den Algorithmus in ihrem Kämmerlein zusammenschustern.

Die dabei auftretenden ethischen Probleme müssen nicht nur erkannt, sondern auch vermieden werden. Dahingehend muss man Gesetze schaffen, die das regulieren, denn mit reiner Logik sind einige Prozesse eben nicht zu bewerkstelligen, weil eben der ethische oder menschliche Faktor fehlt.

Zudem muss dem Menschen klarwerden, dass diese Programme nicht allwissend und absolut, sondern auch fehlerhaft sind. Heise.de berichtet in einem Artikel bspw. darüber, dass ein Programm eines Arbeitgebers, in den USA, herausfand, dass es einen Zusammenhang von Wegstrecke zur Arbeit und Fluktuation der Mitarbeiter geben würde. Somit empfahl das Programm Menschen einzustellen, die nah am Arbeitsplatz wohnen.
Was das Programm aber nicht wusste, war, dass somit alle Schwarzen, die in den Randbezirken der Stadt wohnten und somit einen längeren Arbeitsweg hatten, nicht eingestellt werden würden.

Daher sind solche Programme mit Vorsicht zu genießen. Zwar kann man sie benutzen, aber man sollte sich weitaus mehr Gedanken über die Ergebnisse und Folgen machen, als einen Algorithmus zum Überwacher und Entscheidungsträger werden zu lassen.

Quelle Heise Artikel

Veröffentlicht Oktober 2016, aktualisiert

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert