Ein diskriminierender Score
Mary Louis erhielt einen Score von dreihundertvierundzwanzig von einer Mietbewertungssoftware namens SafeRent. Der Algorithmus, der keine Erklärungen zu den Kriterien lieferte, die zu diesem Score führten, gab einfach an, dass er zu niedrig sei, damit sie die gewünschte Wohnung bekommen könne. Es wurden keine Erläuterungen zur Bedeutung dieser Zahl angeboten.
Diese Situation trat ein, als sie versuchte, eine Wohnung in einem Vorort von Massachusetts zu mieten. Trotz eines bescheidenen Kreditscores hatte Mary solide Referenzen, darunter eine frühere Vermieterin, die bestätigte, dass sie immer ihre Miete pünktlich gezahlt hatte. Ihr Mietbeihilfeprogramm garantierte dem Vermieter Einkünfte aus staatlichen Mitteln, was zusätzliche finanzielle Sicherheit bot.
Die automatisierte Entscheidung
Der Immobilienverwaltungsdienst informierte Mary per E-Mail, dass ihr Antrag aufgrund der automatisierten Analyse von SafeRent abgelehnt wurde. Die Nachricht besagte, dass sie einen Score von mindestens vierhundertdreiundvierzig hätte erreichen müssen, um akzeptiert zu werden. Ein Einspruch gegen diese willkürliche Entscheidung war nicht möglich.
Die Navigation auf einem Mietmarkt, in dem automatisierte Bewertungen menschliche Urteile ersetzen, bringt ohne Beispiel Herausforderungen mit sich. Das Duopol der künstlichen Intelligenz ermöglicht eine größere Straflosigkeit bei der Auswahl von Mietkandidaten, was wenig Raum für Gerechtigkeit lässt.
Eine Sammelklage
Mary Louis entschloss sich zu rechtlichen Schritten und schloss sich einer Gruppe von über vierhundert Mietern mit Migrationshintergrund an, die Wohnberechtigungen nutzen. Diese Gruppe klagte gegen SafeRent und argumentierte, dass der vergebene Score eine diskriminierende Konnotation hatte, die schwarze und hispanische Mieter benachteiligte. Diese Mieter behaupten, dass der Algorithmus relevante Aspekte ihrer finanziellen Stabilität völlig abwertet.
Die systemischen Nachteile, mit denen diese Gemeinschaften konfrontiert sind, werden durch voreingenommene Daten verstärkt. Studien zeigen, dass Bewerber aus Minderheiten eher niedrigere Kreditwerte haben und Wohnbeihilfen in Anspruch nehmen, was einen Kreislauf der Diskriminierung verstärkt.
Die Auswirkungen der KI auf den Wohnungsmarkt
Systeme wie SafeRent fördern eine Distanz zwischen Immobilienverwaltern und potenziellen Mietern. Algorithmen, obwohl angeblich objektiv, arbeiten oft intransparent. Dies führt zu Missverständnissen sowohl bei den Mietern als auch bei den Vermietern.
Die Fachleute der Immobilienverwaltung, die selbst oft machtlos gegenüber algorithmischen Entscheidungen sind, haben keinen Zugang zu den spezifischen Kriterien, die verwendet werden. Dieser Mangel an Klarheit fördert ein Klima des Misstrauens und der Ungerechtigkeit.
Die Reaktion von SafeRent
Nach der Klage stimmte SafeRent einer Einigung über zwei Millionen dreihunderttausend Dollar zu und erklärte, dass es keine rechtliche Verantwortung anerkenne. Diese Einigung verpflichtet das Unternehmen, für fünf Jahre die Nutzung seines Scoring-Systems für Mieter, die Wohnberechtigungen verwenden, einzustellen. Ein Fortschritt, der das Engagement von Unternehmen für Wohngerechtigkeit neu definieren könnte.
Diese Entscheidung, obwohl sie nicht als Akt der Ungerechtigkeit sanktioniert wurde, stellt eine Anomalie in einem Rahmen dar, in dem Technologie zu oft die Oberhand hat. Verbände zum Schutz der Mieter begrüßen diesen Schritt und hoffen, dass er den Weg für angemessene Regulierung ebnet.
Die breiteren Probleme der KI
Eine Mehrheit der zweiundneunzig Millionen Menschen, die in den USA als einkommensschwach gelten, ist der automatisierten Entscheidungsfindung in grundlegenden Bereichen wie Beschäftigung, Wohnraum und staatlicher Unterstützung ausgesetzt. In Ermangelung robuster Vorschriften verstärkt diese Dynamik bereits bestehende Ungleichheiten und beeinträchtigt die Lebensqualität der Verwundbarsten.
Die aktuellen legislativen Antworten können mit der rasanten Entwicklung der Technologien nicht Schritt halten. Umfragen zeigen eine wachsende Unzufriedenheit in der Öffentlichkeit hinsichtlich der Nutzung von KI in kritischen Situationen, was Bedenken über den Mangel an Sichtbarkeit der Entscheidungsfindungen hervorruft.
Eine ungewisse Zukunft für Rechtsmittel
Die geltenden Gesetze sind in ihrer Fähigkeit eingeschränkt, Missbrauch im Zusammenhang mit algorithmischen Entscheidungssystemen entgegenzuwirken. Ohne einen klaren regulatorischen Rahmen wird es zunehmend schwieriger, diese Unternehmen für die Auswirkungen ihrer Technologien zur Verantwortung zu ziehen. Die derzeitige Situation macht die Notwendigkeit deutlich, robuste Mechanismen zu schaffen, um Gerechtigkeit und Fairness zu gewährleisten.
Die Klage von Mary Louis und ihren Mitklägern stellt einen potenziellen Wendepunkt im Kampf gegen durch KI geförderte Diskriminierung dar, der die Gesetzgeber dazu anregt, signifikante Änderungen in Betracht zu ziehen. Dieser Fall könnte einen Präzedenzfall schaffen, der andere dazu ermutigt, sich gegen die Ungerechtigkeiten zu wehren, die durch algorithmische Entscheidungen verursacht werden.
Häufig gestellte Fragen zu den Ungerechtigkeiten im Zusammenhang mit KI im Wohnungswesen
Welche Rolle spielen Algorithmen im Auswahlprozess für Mieter?
Algorithmen, wie sie von SafeRent verwendet werden, werden eingesetzt, um Mietanträge auf der Grundlage eines Scores zu bewerten, der aus verschiedenen finanziellen und verhaltensbezogenen Kriterien abgeleitet wird. Dieser Prozess kann jedoch intransparent und diskriminierend sein, da er nicht immer die persönlichen Umstände der Bewerber berücksichtigt.
Wie kann ein KI-Score die Wohnungssuche einer Person beeinflussen?
Ein unzureichender Score, der von einer KI generiert wird, kann zu einer Ablehnung eines Antrags führen, wie es bei Mary Louis der Fall war, und es Menschen verwehren, geeignete Wohnungen zu mieten, trotz positiver Referenzen und anderer Garantien.
Welche Maßnahmen kann man ergreifen, wenn ein Mietantrag aufgrund eines KI-Scores abgelehnt wird?
Individuen können in Erwägung ziehen, die Entscheidung mit Verweis auf Antidiskriminierungsgesetze anzufechten. Kollektive Maßnahmen, wie sie von Mary Louis ergriffen wurden, können ebenfalls ein zu erkundender Weg sein.
Welche Kriterien werden im Allgemeinen von Scoring-Algorithmen berücksichtigt?
Algorithmen bewerten häufig Elemente wie Kredit-Scores, außerhalb des Wohnens befindliche Schulden und andere finanzielle Faktoren. Sie können jedoch relevante Informationen vernachlässigen, wie die Verwendung von Wohnvouchers.
Schützt das Gesetz Mieter vor algorithmischer Diskriminierung?
Ja, Gesetze wie der Fair Housing Act in den USA verbieten Diskriminierung im Wohnungswesen. Die Durchsetzung dieser Gesetze kann jedoch kompliziert sein, wenn Entscheidungen von Algorithmen getroffen werden.
Welche Rechtsmittel stehen bei Diskriminierung aufgrund von Scoring-Kriterien zur Verfügung?
Opfer von Diskriminierung können sich an die zuständigen Behörden wenden, wie das Justizministerium oder die Wohnungsbehörden, und in Betracht ziehen, rechtliche Schritte zu unternehmen, um die Art und Weise, wie ihr Antrag bewertet wurde, anzufechten.
Was ist der Fall von Mary Louis und welchen Einfluss hatte er?
Mary Louis verklagte SafeRent, nachdem sie wegen eines KI-Score für eine Wohnung abgelehnt wurde. Dieser Fall wirft Fragen zur Transparenz und Fairness von Scoring-Systemen auf und könnte einen Präzedenzfall für ähnliche Klagen schaffen.
Wie reagieren Sozialarbeiter und Menschenrechtsverteidiger auf dieses Phänomen?
Sie lenken die Aufmerksamkeit auf die Risiken algorithmischer Diskriminierung und fordern die Einführung von Vorschriften, um schutzbedürftige Mieter zu schützen, die möglicherweise ungerechtfertigt von diesen Systemen betroffen sind.
Gibt es Grenzen für die Verwendung von Algorithmen im Wohnungswesen?
Derzeit gibt es wenige spezifische Vorschriften zur Regulierung des Einsatzes von Algorithmen im Wohnungswesen, aber es werden gesetzgeberische Bemühungen unternommen, um die Rechte der Mieter gegenüber automatisierten Entscheidungen zu schützen.
Was können Vermieter tun, um Diskriminierung im Auswahlprozess für Mieter zu vermeiden?
Vermieter werden ermutigt, transparente und faire Bewertungspraktiken anzunehmen, kontextuelle Faktoren zu berücksichtigen und sich nicht ausschließlich auf algorithmische Scores zur Entscheidungsfindung zu verlassen.





