Vor zwei Jahren, Mary Louis reichte einen Antrag auf Miete einer Wohnung in Granada Highlands in Malden, Massachusetts ein. Ihr gefiel, dass die Einheit zwei voll ausgestattete Badezimmer hatte und dass es einen Pool auf dem Gelände gab. Aber der Vermieter verweigerte ihr die Wohnung, angeblich aufgrund einer Punktzahl, die ihr von einem Mieter-Screening-Algorithmus von SafeRent zugewiesen wurde.
Louis antwortete mit Hinweisen auf 16 Jahre pünktliche Mietzahlungen, vergeblich. Stattdessen nahm sie eine andere Wohnung, die 200 Dollar mehr im Monat kostete, in einem Gebiet mit einer höheren Kriminalitätsrate. Sondern eine Sammelklage eingereicht von Louis und anderen Mai argumentiert, dass SafeRent-Scores, die teilweise auf Informationen in einer Kreditauskunft basieren, eine Diskriminierung von schwarzen und hispanischen Mietern unter Verletzung des Gesetz über faires Wohnen. Das bahnbrechende Gesetz verbietet Diskriminierung aufgrund von Rasse, Behinderung, Religion oder nationaler Herkunft und wurde 1968 eine Woche nach der Ermordung von Martin Luther King Jr. vom Kongress verabschiedet.
Dieser Fall ist noch anhängig, aber das US-Justizministerium nutzte letzte Woche einen beim Gericht eingereichten Schriftsatz, um Vermieter und die Hersteller von Mieter-Screening-Algorithmen zu warnen. SafeRent hatte argumentiert, dass Algorithmen, die zur Überprüfung von Mietern verwendet werden, nicht dem Gesetz über faires Wohnen unterliegen, da seine Ergebnisse Vermieter nur beraten und keine Entscheidungen treffen. Der Schriftsatz des DOJ, der gemeinsam mit dem Ministerium für Wohnungsbau und Stadtentwicklung eingereicht wurde, weist diese Behauptung zurück und sagt, dass das Gesetz und die damit verbundene Rechtsprechung keine Zweideutigkeit zulassen.
„Wohnungsanbieter und Mieter-Screening-Unternehmen, die Algorithmen und Daten zum Screening von Mietern verwenden, sind nicht von der Haftung befreit, wenn ihre Praktiken Menschen mit Farbe unverhältnismäßig den Zugang zu fairen Wohnmöglichkeiten verweigern“, sagte Kristen Clarke, Leiterin der Bürgerrechtsabteilung des Justizministeriums, in a Aussage.
Wie in vielen Bereichen der Wirtschaft und Verwaltung sind auch in der Wohnungswirtschaft Algorithmen, die Personen Punkte zuweisen, üblicher geworden. Aber obwohl behauptet wird, die Effizienz zu verbessern oder „bessere Mieter“ zu identifizieren, wie das Marketingmaterial von SafeRent vorschlägt, könnten Mieter-Screening-Algorithmen dazu beitragen historisch beständig Wohnungsdiskriminierung trotz jahrzehntelanger Bürgerrechtsgesetze. A 2021 Studie des US National Bureau of Economic Research das Bots verwendete, die Namen verschiedener Gruppen verwendeten, um sich bei mehr als 8.000 Vermietern zu bewerben, stellte eine erhebliche Diskriminierung von farbigen Mietern und insbesondere von Afroamerikanern fest.
„Es ist eine Erleichterung, dass dies ernst genommen wird – es gibt ein Verständnis dafür, dass Algorithmen nicht von Natur aus neutral oder objektiv sind und das gleiche Maß an Prüfung verdienen wie menschliche Entscheidungsträger“, sagt Michele Gilman, Juraprofessorin an der University of Baltimore und ehemalige Zivilistin Rechtsanwältin beim Justizministerium. „Allein die Tatsache, dass das DOJ daran beteiligt ist, halte ich für einen großen Schritt.“
EIN Untersuchung 2020 von The Markup und Propublica stellten fest, dass Mieter-Screening-Algorithmen häufig auf Hindernisse wie falsche Identitäten stoßen, insbesondere bei Farbigen mit gemeinsamen Nachnamen. Eine Propublica-Bewertung von Algorithmen, die letztes Jahr von der texanischen Firma RealPage durchgeführt wurde, deutete darauf hin, dass dies möglich ist Mieten in die Höhe treiben.