差別的なスコア
メアリー・ルイーズは、SafeRentという入居者評価ソフトウェアから324のスコアを受け取りました。このアルゴリズムは、スコアに至る基準についての説明は何も提供せず、彼女が望む住居を取得するにはスコアが低すぎるとだけ述べました。この数字の意味についての説明は提供されませんでした。
この状況は、マサチューセッツ州の郊外でアパートを借りようとしている際に発生しました。控えめなクレジットスコアにもかかわらず、メアリーは、以前の家主から、彼女が常に家賃を時間通りに支払っていたとの堅固な推薦を得ていました。彼女の賃貸助成プログラムは、家主に政府の収入を保証し、追加の経済的安定を提供しました。
自動化された決定
不動産管理サービスは、メールでメアリーに、SafeRentの自動分析に基づいて、彼女の申請が拒否されたことを通知しました。メッセージには、受け入れられるためには少なくとも443のスコアに達する必要があると明記されていました。この恣意的な決定に対する異議申し立ては不可能でした。
自動評価が人間の判断を置き換える賃貸市場をナビゲートすることは、前例のない課題をもたらします。人工知能の二重独占は、借り手選定における遺憾の多い自由を許可し、公平性の余地がほとんどありません。
集団訴訟
メアリー・ルイーズは、色のある400人以上の借り手や住宅クーポンを利用する人々の集団に参加し、法的手段を取ることを選択しました。このグループは、SafeRentに対して、与えられたスコアが黒人およびヒスパニックの借り手を不利に扱う差別的な意味を持つと主張し、訴訟を提起しました。これらの借り手は、アルゴリズムが彼らの財政的安定に関する重要な要素を完全に過小評価していると主張しています。
これらのコミュニティが直面している体系的な不利は、偏ったデータによって悪化しています。研究によると、マイノリティ出身の候補者は、クレジットスコアが低い傾向にあり、住宅クーポンを利用していることが多く、差別のサイクルを助長しています。
住居に対するAIの影響
SafeRentのようなシステムは、不動産管理者と潜在的な借り手の間に距離を置きます。アルゴリズムは、客観的であるとされているにもかかわらず、しばしば透明性に欠けています。これは、借り手と家主の両方にとって誤解を招く結果となります。
不動産管理の専門家は、自らもアルゴリズムによる決定に対して無力であることが多く、使用される特定の基準へのアクセスも理解も持ち合わせていません。この明確性の欠如は、不信感と不公平の気候を促進します。
SafeRentの反応
訴訟を受けて、SafeRentは法律的責任を認めないとしながらも、230万ドルの和解に同意しました。この和解は、同社が住宅クーポンを使用する借り手向けのスコアリングシステムを今後5年間停止しなければならないことを求めています。一歩前進であり、企業の公平性への取り組みに新たな定義を与える可能性があります。
この決定は、不正行為として制裁されたわけではありませんが、技術があまりにも頻繁に主導権を握る枠組みにおいて異常を示しています。借り手の権利を擁護する団体はこの取り組みを歓迎し、適切な規制への道を開くことを期待しています。
AIの広範な課題
アメリカ合衆国で低収入と見なされている9200万人の人々の大多数は、雇用、住居、政府支援といった基本的な分野で自動化された意思決定に晒されています。堅固な規制がない場合、このダイナミクスは既存の不平等を強化し、最も脆弱な人々の生活の質に影響を与えます。
現在の立法的な対応は、技術の急速な進化についていけていません。調査は、重要な状況でのAIの使用に対する公共の不満が高まっていることを明らかにしており、意思決定システムの可視性の欠如に対する懸念が表れています。
不確実な未来の救済措置
現行の法律は、アルゴリズム決定システムに関連する虐待に対抗する能力に限界があります。明確な規制枠組みがない場合、これらの法人がその技術の影響に対して責任を問うことはますます困難になります。現在の状況は、公平性と正義を保証するための堅固なメカニズムを作成する必要性を強調しています。
メアリー・ルイーズと彼女の共同原告による訴訟は、AIによる差別に対する闘いの転換点となる可能性を秘めており、立法者に重要な変化を考慮させるよう促しています。この事件は、他の人々がアルゴリズムによる決定によって引き起こされる不正に対抗することを奨励する前例を確立するかもしれません。
housingにおけるAIに関連する不正のよくある質問
アルゴリズムは、借り手選定プロセスにどのように関与していますか?
SafeRentによって使用されるアルゴリズムは、さまざまな財務的および行動的基準に基づいて、賃貸申請を評価するために使用されます。しかし、このプロセスは不透明であり、候補者の個人的な状況を常に考慮するわけではないため、差別的である可能性があります。
AIスコアは、個人の住居への応募にどのように影響しますか?
AIによって生成された不十分なスコアは、申し込みの拒否を引き起こす可能性があります。これは、メアリー・ルイーズの場合のように、前向きな推薦や他の保証があっても、居住地を借りることを妨げます。
AIスコアによって申請が拒否された場合、どのような対策を講じることができますか?
個々の人々は、反差別法に基づいて決定に異議を申し立てることを検討することができます。メアリー・ルイーズによって提起されたような集団訴訟も、検討する価値があります。
スコアリングアルゴリズムで一般的に考慮される基準は何ですか?
アルゴリズムは、通常、クレジットスコア、住宅とは無関係な債務、その他の財政的要因などを評価します。ただし、住宅バウチャーの使用など、関連情報を無視する場合があります。
法律は、アルゴリズムによる差別から借り手を保護していますか?
はい、アメリカ合衆国の公平住宅法のような法律は、住宅における差別を禁止しています。しかし、決定がアルゴリズムによって行われる場合、これらの法律の適用は複雑になる可能性があります。
スコアリング基準に基づく差別に影響を受けた場合、どのような救済措置が考えられますか?
差別の被害者は、司法省や住宅当局などの適切な機関に苦情を申し立て、評価方法が適切でなかったことを争うために法的措置を検討することができます。
メアリー・ルイーズの事件とは何であり、その影響は何ですか?
メアリー・ルイーズは、AIのスコアのためにアパートの申し込みを拒否された後、SafeRentを訴えました。この事件は、スコアリングシステムの透明性と公平性に関する問題を提起しており、他の類似の訴訟に対する前例を確立する可能性があります。
ソーシャルワーカーや人権擁護者は、この現象にどのように反応していますか?
彼らは、アルゴリズムによる差別のリスクに注意を喚起し、これらのシステムによって不当に影響を受ける可能性がある脆弱な借り手を保護するための規制の整備を奨励しています。
住宅セクターにおけるアルゴリズムの使用には制限がありますか?
現時点では、住宅におけるアルゴリズム使用を規制する具体的な規制はほとんどありませんが、自動的な決定に対して借り手の権利を保護するための立法努力が進行中です。
家主は、借り手選定プロセスにおける差別を回避するために何ができますか?
家主は、評価の透明性と公平性を考慮した実践を採用し、文脈的な要因を考慮し、アルゴリズムスコアだけに依存して賃貸決定を下すことを避けるよう奨励されています。