המערכת של בינה מלאכותית שבה משתמשת הממשלה הבריטית לגילוי הונאות במערכות רווחה חושפת _הטיות מערכתיות מדאיגות_. ניתוח עדכני חושף כיצד התוכנית הזו _מעדיפה קבוצות גיל, לאומים ומעמדות_ על חשבון אחרים. ההשלכות האתיות הן רחבות ומטרידות גם יחד, מעלה שאלות לגבי הלגיטימיות של ההחלטות שמתקבלות על ידי אלגוריתמים שמופיעים יותר ויותר באורח חיים. ההשפעות על הפרטים הנבדקים בהליכי בדיקה בלתי מוצדקים מדגישות את הדחיפות למחשבה מעמיקה על השימוש בטכנולוגיות אלו.
גילוי הטיות במערכת הבינה המלאכותית
דו"ח עדכני בנוגע למערכת בינה מלאכותית המיועדת לגילוי הונאות במערכות רווחה בממלכה המאוחדת מגלה הטיה מדאיגה. טכנולוגיה זו הוקמה על ידי הממשלה הבריטית כדי לבדוק את הבקשות הקשורות להקצבה אוניברסלית. עם זאת, ניתוחים פנימיים מראים כי המערכת בוחרת באופן לא פרופורציונלי קבוצות מסוימות על סמך גילן, מצב משפחתי, לאום ונכות.
תוצאות ההערכה הפנימית
לגאות ניתוח למידת מכונה נערך כדי להעריך את פעולתה של תוכנית הבינה המלאכותית הזו. התוצאות מעידות על החלטה מוטה לגבי חקירות פוטנציאליות של הונאה, מה שמוביל להמלצות שמעוררות שאלות לגבי הוגנות התהליך. הערכה זו פורסמה במסמכים שהוצגו בהתאם לחוק חופש המידע.
תגובות הממשלה
למרות הגילויים הללו, משרד העבודה והפנסיות (DWP) טען כי המערכת אינה מהווה חשש מיידי לגבי אפליה או טיפול לא הוגן. ה-DWP הדגיש כי ההחלטות הסופיות בנוגע לתשלומים נותרות בידיהם של סוכנים אנושיים, דבר שלדבריהם מקטין את הסיכונים המתודרים עם הבינה המלאכותית.
קריאות לשקיפות
קבוצות זכויות מפורסמות ביקרו בחריפות את הממשלה על גישתה. הם מאשימים את הרשויות בקיום אסטרטגיה של "לפגוע קודם, לתקן אחר כך", ודורשים שקיפות רבה יותר בשימוש בבינה מלאכותית. פעילים אלה מדגישים את חוסר הניתוח לגבי קריטריונים אחרים, כמו גזע, מין או נטייה מינית.
השלכות פוטנציאליות של ההטיות
הכרת ההטיות הללו מעוררת חששות חמורים לגבי השימוש ההולך ומתרקם של מערכות AI על ידי המדינה. מומחים רבים טוענים כי יש לקבוע רגולציה מחמירה ולדרוש זיהוי ברור של הקבוצות שעלולות להיקלע ליעד לא מוצדק על ידי האלגוריתמים של המעקב.
המסגרת הרגולטורית החסרה
גופים ציבוריים בממלכה המאוחדת נראים כחמירים את הבעיה הזו עם חוסר רישום לגבי השימוש במערכות AI. לפי הערכות עצמאיות מסוימות, יש לפחות 55 כלים אוטומטיים שבהם משתמשות הרשויות, אך הממשלה חושפת רק תשע מתוך המערכות האלו. ההשמטה הזו מעוררת חששות עזים בקרב מומחים בתחום האתיקה.
השפעה על אוכלוסיות פגיעות
קבוצות מודרות חוששות מהמעקב המוגבר בעקבות ההטיות שכבר נמצאו. הנתונים לגבי קבוצות הגיל הממוקדות, כמו גם ההשפעה על אנשים עם נכות ולאומים שונים, לא פורסמו. דבר זה עלול ליצור אקלים של חוסר אמון בתוך אוכלוסיות שכבר פגיעות.
תגובות וביקורות מצד מומחים
קרולין סלמן, חוקרת בכירה בפרויקט המשפט הציבורי, מגנה את הניהול הנוכחי של ה-DWP. היא טוענת כי המשרד אינו מעריך את הסיכונים של ההרמונית שיכולים להיגרם כתוצאה מהתהליכים האוטומטיים הללו. דבר זה מעלה את הצורך בגישה יותר מחמירה ומדוקדקת לפיתוח הכלים הללו.
העתיד של מערכות בינה מלאכותית בממלכה המאוחדת
הגילויים האחרונים על ההטיה במערכות הבינה המלאכותית שבהן משתמשת הממשלה הם רק סנונית של אתגרים שהטכנולוגיה הזו המתרקמת מציבה. ההבטחה ליעילות גדולה יותר צריכה להיות מאוזנת עם ההשלכות האתיות של השימוש בהן. יש למצוא איזון עדין כדי להבטיח טיפול הוגן, שוויוני ושקוף במערכות החברתיות.
שאלות נפוצות לגבי ההטיה במערכת הבינה המלאכותית לגילוי הונאה בממלכה המאוחדת
מה הבעיה העיקרית המובהרת לגבי מערכת הבינה המלאכותית המשמשת לגילוי הונאה במערכות רווחה בממלכה המאוחדת?
הבעיה העיקרית היא שהמערכת מציגה הטיות המבוססות על קריטריונים כמו גיל, מצב נכות, מצב משפחתי ולאום של הפרטים, דבר שעשוי להוביל ל אפליה בטיפול בבקשות.
מדוע מערכת בינה מלאכותית עלולה להציג הטיות בהחלטותיה?
ההטיות אלגוריתמיות עלולות להופיע אם הנתונים שמשמשים לאימון המערכת אינם מייצגים את כל הקבוצות באוכלוסייה, דבר שיביא לייצוג יתר או תת-ייצוג של קטגוריות מסוימות.
איזו ניתוח נעשה על מנת לזהות את ההטיות במערכת הבינה המלאכותית?
בוצעה ניתוח של צדק שגילה אי-סדר משמעותי בדרך שבה המערכת בוחרת אנשים למטרת חקירות הונאה, ממש לפני שזוהו ההטיות הפוטנציאליות בזיהוי.
אילו קטגוריות של אנשים נפגעות מההטיות הללו ביותר?
לפי המידע הזמין, ישנן קטגוריות מודרות שעשויות להיות מיוצגות יתר על המידה בחקירות הונאה, אם כי פרטים ספציפיים לגבי הקבוצות הנפגעות לא פורסמו כדי למנוע מהמונו הונאה למניפולציה על המערכת.
מהי התגובה של הממשלה להטיות שגוללו?
הממשלה הכירה בנוכחות של הטיות והבטיחה להעריך את התהליכים, אך גם טוענת שההחלטה הסופית נתונה תמיד לאדם אנושי, כך שההטיות של הבינה המלאכותית לא בהכרח יובילו לטיפול לא הוגן.
איזו השפעה עשויות להיות להטיות הללו על מדדי ההונאה?
ההטיות עלולות לעוות את תוצאות החקירה, ובכך להוביל לבחינת יתר של פרטים או קבוצות הנמצאות על היעד לא מוצדק בזמן שאחרים עשויים לחמוק מבדיקות, דבר שמגביר את הסיכון לטעויות בזיהוי הונאים.
איך ניתן לשדרג את מערכת הבינה המלאכותית כדי לצמצם את ההטיות הללו?
יש לערוך ביקורות תקופתיות כדי להעריך את ההוגנות של המערכת, כמו גם לשלב נתונים מגוונים ומייצגים יותר כדי לוודא שכל הקטגוריות מוערכות בצורה נכונה ללא הטיות.
האם אנשים הנמצאים תחת חקירות לא הוגנות יכולים לערער על ההחלטות שהתקבלו על ידי הבינה המלאכותית?
כן, בדרך כלל אפשר לאנשים לערער על ההחלטות דרך הליכים של ערעור, אם כי הפרטים הספציפיים לכל מקרה עשויים להשתנות בהתאם למדיניות ה-DWP ולהקשר של החקירה.
אילו צעדים יכול הציבור לנקוט כדי להגביר את המודעות לבעיה הזו של ההטיות בבינה המלאכותית?
אזרחים יכולים לערוך קמפיינים למודעות, ללחוץ על שקיפות רבה יותר במערכות הבינה המלאכותית, ולעודד עיתונאים וחוקרים לבדוק את ההשפעות של ההטיות בשימוש בבינה מלאכותית על ידי הממשלה.