עלינו לדעת את האלגוריתמים שהממשלה משתמשת בהם כדי לקבל החלטות אודותינו

במערכות משפט פלילי, שווקי אשראי, זירות תעסוקה, תהליכי קבלה להשכלה גבוהה ואפילו רשתות מדיה חברתית, אלגוריתמים מונעי נתונים עכשיו תניע את קבלת ההחלטות בדרכים שנוגעות בחיינו הכלכליים, החברתיים והאזרחיים. מערכות תוכנה אלו מדרגות, מסווגות, משייכות או מסננות מידע, תוך שימוש בכללים מעשה ידי אדם או המושרה על ידי נתונים המאפשרים טיפול עקבי בקרב אוכלוסיות גדולות.

אך אמנם יכולות להיות רווחי יעילות מטכניקות אלה, אך הן יכולות גם כן מקנה הטיות נגד קבוצות מוחלשות or לחזק את האפליה המבנית. במונחים של משפט פלילי, למשל, האם זה הוגן לבצע פסקי דין על תנאי של יחיד על סמך נטיות סטטיסטיות שנמדדות על פני קבוצה רחבה של אנשים? האם האפליה יכולה לנבוע מיישום מודל סטטיסטי שפותחה עבור אוכלוסיית מדינה אחת לאחרת, אוכלוסייה שונה מבחינה דמוגרפית?

הציבור צריך להבין את ההטיה והעוצמה של אלגוריתמים המשמשים בתחום הציבורי, כולל גורמים ממשלתיים. מאמץ שאני מעורב בו, נקרא אליו אחריות אלגוריתמית, מבקש להפוך את ההשפעות של מערכות מסוג זה לברורות יותר ומובנות יותר.

טכניקות שקיפות קיימות, כאשר הן מוחלות על אלגוריתמים, עשויות לאפשר לאנשים לפקח, לבקר ולבקר כיצד מערכות אלו מתפקדות - או לא, לפי העניין. למרבה הצער נראה כי סוכנויות ממשלתיות אינן מוכנות לפניות אודות אלגוריתמים ושימושם בהחלטות המשפיעות באופן משמעותי על יחידים ועל הציבור בכלל.

פתיחת אלגוריתמים לביקורת ציבורית

בשנה שעברה ה הממשלה הפדרלית החלה ללמוד היתרונות והחסרונות של שימוש בניתוח נתונים ממוחשב בכדי לסייע בקביעת הסבירות של אסירים בכלא להיפגע מחדש לאחר השחרור. ציון אנשים כסיכון נמוך, בינוני או גבוה יכול לסייע בהחלטות דיור וטיפול, בזיהוי אנשים שניתן לשלוח אותם בבטחה לכלא ביטחוני מינימלי או אפילו ל"בית חצי הדרך ", או שייהנו מסוג מסוים של טיפול פסיכולוגי.


גרפיקת מנוי פנימית


מידע זה יכול להפוך את הליך המשפט ליעיל יותר ויקר פחות, ואף להפחית את צפיפות הכלא. הוכח התייחסות לעבריינים בסיכון נמוך כמו לעבריינים בסיכון גבוה בכמה מחקרים להוביל לכך שהם מפנימים להיות עבריין "חולה" וזקוק לטיפול בהתנהגותם הסוטה. הפרדה ביניהם יכולה אפוא להפחית התפתחות של התנהגויות שליליות שיובילו לרצידיביזם עם השחרור.

נתונים ואלגוריתמים לציון הסיכון לאסור של אסירים הם כבר נעשה שימוש נרחב על ידי מדינות לניהול מעצר לפני משפט, מאסר על תנאי, על תנאי ואף גזר דין. אבל קל להם להישאר מעיניהם - לעתים קרובות הם נראים כמו ניירת ביורוקרטית לא מתנשאת.

בדרך כלל האלגוריתמים מסתכמים בגיליונות ציון פשוטים שממלאים על ידי עובדי ציבור ללא הבנה מועטה של ​​החישובים הבסיסיים. למשל, עובד בתיק עשוי להעריך אסיר באמצעות טופס שבו העובד בתיק מסמן כי האסיר הורשע בפשע אלים, היה צעיר בזמן המעצר הראשון, ולא סיים את לימודיו בתיכון או קיבל תואר GED. גורמים אלה ומאפיינים אחרים לגבי האדם והפשע מביאים לציון המצביע על כך שהאסיר עשוי להיות כשיר לבדיקת תנאי.

הטופס עצמו, כמו גם מערכת הניקוד שלו, חושפים לעיתים תכונות מרכזיות לגבי האלגוריתם, כמו המשתנים הנבדקים וכיצד הם מתקבצים ליצירת ציון סיכון כולל. אך מה שחשוב גם לשקיפות אלגוריתמית הוא לדעת כיצד תוכננו, פותחו והוערכו צורות כאלה. רק אז יכול הציבור לדעת אם הגורמים והחישובים הכרוכים בהגעה לציון הם הוגנים וסבירים, או חסרי מידע ומוטים.

שימוש בחוק חופש המידע

הכלי העיקרי שלנו לשים את ידינו על טפסים אלה, והחומר התומך בהם, הוא החוק, ובמיוחד חוקי חופש המידע. הם בין המנגנונים החזקים ביותר העומדים לרשות הציבור להבטחת שקיפות בממשלה. ברמה הפדרלית, חוק חופש המידע (FOIA) מאפשר לציבור לבקש רשמית - ולצפות לקבל בתמורה - מסמכים מהממשל הפדרלי. חוקים אנלוגיים קיימים לכל מדינה.

נחקק בשנת 1966, FOIA נוצר לפני השימוש הנרחב במחשוב, והרבה לפני שגרות נתונים גדולות שימשו באופן שגרתי במערכות תוכנה לניהול אנשים ולחזות. חל קצת מחקר ראשוני לשאלה האם FOIA מסוגלת להקל על חשיפת קוד מקור התוכנה. אך נותרה שאלה האם החוקים הקיימים נענים לצרכי הציבור של המאה ה -21: האם אנו יכולים לאלגוריתמי FOIA?

מחקר מקרה בשקיפות אלגוריתמים

יצאתי לענות על שאלה זו ב מכללת פיליפ מריל לעיתונאות באוניברסיטת מרילנד, שם אני עוזר פרופסור. בסתיו 2015, בעבודה עם כיתת דיני התקשורת של עמיתי סנדי באניסקי, הדרכנו את התלמידים להגיש בקשות FOIA לכל אחת מ -50 המדינות. ביקשנו לקבל מסמכים, תיאורים מתמטיים, נתונים, הערכות אימות, חוזים וקוד מקור הקשורים לאלגוריתמים המשמשים במסגרת משפט פלילי, כמו למשל על תנאי ושיפוט, החלטות בערבות או גזר דין.

כפרויקט של סמסטר, המאמץ הוגבל בהכרח על ידי הזמן, עם הרבה משוכות ומעט הצלחות יחסית. כמו בחקירות רבות של עיתונאים, אפילו להבין את מי לשאול - ואיך - היה אתגר. סוכנויות שונות עשויות להיות אחראיות על אזורים שונים במערכת המשפט הפלילי (גזר הדין עשוי להיעשות על ידי בתי משפט, אך ניהול שחרור על תנאי נעשה על ידי מחלקת תיקונים).

גם לאחר שזיהו את האדם הנכון, סטודנטים מצאו שפקידי ממשל משתמשים במינוח שונה שהקשה על התקשורת איזה מידע הם רוצים. לעיתים, התלמידים נאלצו לעבוד קשה בכדי להסביר "אלגוריתמי משפט פלילי" לעובד ציבור לא כל כך מתמצא. בדיעבד, אולי היה יעיל יותר לבקש "כלי הערכת סיכונים", מכיוון שזה מונח שמשמש לעתים קרובות ממשלות המדינה.

טיפול בתשובות

מדינות מסוימות, כמו קולורדו, דחו את בקשתנו ואמרו כי האלגוריתמים כלולים בתוכנות, שלא נחשבות ל"מסמך "לפיו חוקים ממשלתיים פתוחים מחייבים את הפקידים לפרסם. במדינות שונות יש כללים שונים לגבי גילוי השימוש בתוכנה. לפעמים זה עלה בבתי המשפט, כמו 2004 תביעה נגד העיר דטרויט בשאלה האם יש לפרסם את הנוסחה לחישוב דמי המים הנדרשים לעיר סמוכה.

במאמץ שלנו קיבלנו רק תיאור מתמטי אחד של אלגוריתם של משפט פלילי: אורגון נחשף את 16 המשתנים ומשקלם במודל המשמש שם לחיזוי רצידיביזם. מדינת צפון דקוטה פרסמה גיליון אלקטרוני של אקסל המציג את המשוואה המשמשת לקביעת תאריכים שבהם אסירים יהיו זכאים להיחשב לתנאי. מאיידהו ומניו מקסיקו קיבלנו מסמכים עם כמה תיאורים של הערכות הסיכון לרדיטיביזם שהמדינות השתמשו בהן, אך ללא פרטים על אופן פיתוחן או אימותן.

תשע מדינות ביססו את סירובן לחשוף פרטים על אלגוריתמי המשפט הפלילי שלהן על הטענה שהמידע היה באמת בבעלות חברה. המשמעות הזו היא ששחרור האלגוריתם יפגע בחברה שפיתחה אותו. שאלון נפוץ לסיכון ברדיטיביזם, נקרא LSI-R, מתגלה כמוצר מסחרי, המוגן בזכויות יוצרים. מדינות כמו הוואי ומיין טענו שמונעות את חשיפתו לציבור.

מלואיזיאנה נמסר כי החוזה שלה עם מפתחת טכניקת הערכת סיכונים חדשה מנע את פרסום המידע המבוקש למשך חצי שנה. מדינת קנטקי ציינה את חוזה עם יסוד פילנתרופי כסיבה שהוא לא יכול היה לחשוף פרטים נוספים. דאגות לגבי מידע קנייני עשויות להיות לגיטימיות, אך בהתחשב בכך שהממשלה מתקשרת באופן שגרתי עם חברות פרטיות, כיצד ניתן לאזן בין החששות הללו לבין מערכת משפט מוסברת ואכן לגיטימית?

ביצוע שיפורים

רפורמת FOIA נחוצה מאוד היא נמצא כרגע בדיון על ידי הקונגרס. זה מהווה הזדמנות למודרניזציה של החוק, אך השינויים המוצעים עדיין אינם מספקים מעט שימוש בשימוש הגובר באלגוריתמים בממשלה. מידע על שקיפות אלגוריתמית עשוי להיות מקודד לדוחות שהממשלה מייצרת ומתפרסמת באופן קבוע, כחלק מהעסקים כרגיל.

כחברה עלינו לדרוש שקציני מידע ציבורי יוכשרו כך שהם קרוא וכתוב ואכן שולטים במינוחים שהם עשויים להיתקל בהם כאשר הציבור מבקש אלגוריתמים. הממשלה הפדראלית עשויה אפילו ליצור עמדה חדשה עבור "צאר אלגוריתמים", נציב תלונות הציבור שתפקידו יהיה לתקשר ולחקור שאלה בנושא אוטומציה ממשלתית.

אף אחד מהמסמכים שקיבלנו במחקר שלנו לא סיפר לנו כיצד פותחו או העריכו טפסים להערכת סיכונים פליליים. ככל שאלגוריתמים שולטים יותר ויותר מחיינו, אזרחים צריכים - וחייבים לדרוש - יותר שקיפות.

על המחבר

דיאקפולוס ניקולסניקולס דיאקופולוס, עמית הגרר, מרכז הגרר לעיתונאות דיגיטלית באוניברסיטת קולומביה; עוזר פרופסור לעיתונות, אוניברסיטת מרילנד. המחקר שלו עוסק בעיתונות חישובית ונתונה עם דגש על אחריות אלגוריתמית, הדמיה של נתונים נרטיביים ומחשוב חברתי בחדשות.

מאמר זה פורסם במקור ב שיחה. קרא את מאמר מקורי.

ספרים קשורים

at InnerSelf Market ואמזון