Bekomme ich einen Kredit

Erhalte ich ein Darlehen?

" Papa, was kann ich zu Weihnachten haben? "Rassenprofilerstellung - Racist Algorithms (Archiv) Es ist nicht nur die Koelner Kripo, die Menschen nach ihrer Haarfarbe und -ursprung bewertet. Softwarebasiertes "Racial Profiling" ist seit langem an der Tagesordnung, zum Beispiel bei der US-amerikanischen Kriminalpolizei und im Intranet. Sie könnte der Allgemeinheit weitaus mehr Schäden verursachen als die Veranstaltungen am Koelner Bahnhof vor einem Jahr, sagt Philip Banse. Es gibt viel zu vermuten, dass die Polizisten am Koelner Hbf die Menschen nach ihrer Haarfarbe sortierten, ohne dafür einen triftigen Grund gehabt zu haben.

Zum einen musste die Autobahnpolizei wie vor einem Jahr Gewalttaten vorbeugen, zum anderen untersagt GG 3 eindeutig, dass Menschen nur wegen ihrer Heimatregion und ihres Ursprungs Benachteiligungen erleidet. Gerechtfertigt der Antrag der Polizisten einen Verstoß gegen diesen Prinzip? Auch deshalb ist diese Diskussion so bedeutsam, weil diese Form der Profilerstellung nicht erst vor einer Weile am Koelner Hbf stattgefunden hat, sondern in digitaler Form Teil des Alltags ist.

Und wer darf welche Werbespots aufsuchen? Und wer darf welchen Gewinn ernten? Wem wird welcher Kredit gewährt? Sogar ein Darlehen? Die Menschen dürfen auch hier nicht aufgrund ihrer Heimatregion und ihres Ursprungs diskriminiert werden - allein das ist das geringste Anliegen. Außerdem bestimmt die Firma auch, wer welche Werbespots nach der Herkunftsangabe der Zuschauer zu Gesicht bekomme, die sich auch aus den Nachnamen der Surfer ergeben sollten.

Wenn Sie nach Titeln suchen, die vor allem von afroamerikanischen Bürgern verwendet werden, so die Harvard-Studie, werden Sie mehr Anzeigen für Zuverlässigkeitsprüfungen vorfinden. Ja, denn computergestützte Programme, vom Menschen verfasste Verfahren, neigen dazu, Menschen mit dunklerer Haut als unzuverlässig zu betrachten. In den USA sind diese Fragestellungen entscheidender und es gibt eine Lösung, die die Verlässlichkeit der betroffenen Personen bewerten soll.

So hat sich die unabhÃ?ngige Nachrichtenagentur ProPublica die softwarebasierte Risikobewertung von 7000 Personen angeschaut und kommt zu dem Schluss: Die TÃ?tigkeit der TÃ?tigkeit der Software ist sehr schief gelaufen, viele Menschen zurecht der Tat bezichtigt. Außerdem: Diese Fehlprognose wurde von der Anwendung zweimal so oft an Schwarze ausgegeben wie an Weiße.

Damit werden auch im Sinne der prädiktiven Polizei immer mehr Schwarzhänder unter Kontrolle und Inhaftierung gestellt - denn das ist es, was uns das Programm vorgibt. Werden Menschen - wie in Köln und in den USA - wegen ihrer dunklen Schale unter Kontrolle gebracht, gibt es mehr Menschen mit schwarzer Schale, die gegen geltendes Recht verstossen.

Das bedeutet, dass Menschen mit dunklerem Fell von der Computersoftware als risikoreich eingeschätzt werden. Wenn Unrecht zu einem Kodex wird, wird es die Bevölkerung weitaus mehr unterminieren als die Gewalttaten am Koelner Bahnhof vor einem Jahr.

Die Datenerhebung beim Kreditantrag erfolgt durch: smava GmbH Kopernikusstr. 35 10243 Berlin E-Mail: info@smava.de Internet: www.smava.de Hotline: 0800 - 0700 620 (Servicezeiten: Mo-Fr 8-20 Uhr, Sa 10-15 Uhr) Fax: 0180 5 700 621 (0,14 €/Min aus dem Festnetz, Mobilfunk max. 0,42 €/Min) Vertretungsberechtigte Geschäftsführer: Alexander Artopé (Gründer), Eckart Vierkant (Gründer), Sebastian Bielski Verantwortlicher für journalistisch-redaktionelle Inhalte gem. § 55 II RStV: Alexander Artopé Datenschutzbeauftragter: Thorsten Feldmann, L.L.M. Registergericht: Amtsgericht Charlottenburg, Berlin Registernummer: HRB 97913 Umsatzsteuer-ID: DE244228123 Impressum