גזענית ושוביניסטית? האינטליגנציה המלאכותית לא עמדה במבחן

האלגוריתמים של מערכות הבינה המלאכותית אמורים להוציא את אלמנט הניחוש מקבלת ההחלטות, אבל האם הם מצליחים?

פורסם בתאריך: 06/11/2018, גיליון 1943

טכנולוגיית הבינה המלאכותית, המבטיחה לחסל את חוסר היעילות שמקורה בהערכות ובהנחות אנושיות סובייקטיביות, מעלה חשש כבד כי היא כוללת הטיות נסתרות. כך למשל, ענקית המסחר המקוון אמזון, הפסיקה לאחרונה להשתמש בתוכנה גיוס עובדים מבוססת אינטליגנציה מלאכותית, משום שהיא הייתה מוטה נגד נשים.

 

מאחר שחלק גדול מהעובדים שנשכרו באמצעות שימוש בתוכנה היו גברים, התוכנה נתנה עדיפות לגברים. גם לאחר שתוקנו הליקויים באלגוריתם, אמזון הפסיקה להשתמש בתוכנה משום שהיה חשש שהיא מוטה גם בנקודות אחרות.


הבינה המלאכותית. אלגוריתם מפלה נשים
הבינה המלאכותית. אלגוריתם מפלה נשים

מחקרים אחרים שנערכו בשנים האחרונות גילו הטיה דומה במנוע החיפוש של לינקדאין. לפני כמה שנים הואשמה גוגל בכך שמנוע החיפוש שלה זיהה אישה אפריקאית בתור "גורילה".

 

"האלגוריתמים אינם מוטים מטבעים", אמר ונקטס סליגרמה, פרופסור מהמחלקה להנדסת חשמל ומחשבים מאוניברסיטת בוסטון. אל לדבריו, הם  נוטים להתבסס על הנתונים הראשוניים שהוכנסו בהם. בנוסף, התוכנות עשויות להסתמך על ההטיות הראשוניות שהוכנסו אליהן על ידי המפתחים. כתוצאה מכך, נתונים של אינטליגנציה מלאכותית עשויים להיות מוטים אפילו יותר מנתונים שנאספו ונותחו על ידי בני אדם.


כתבות נוספות