דמיינו עולם שבו בינה מלאכותית קובעת מי יקבל עבודה, הלוואה או אפילו חירות – אבל רגע… היא לא ניטרלית! ההטיות שאנחנו מכירים בחיים האמיתיים? הן נכנסו ישר לאלגוריתמים! נשים נדחקות החוצה, גזעים מסוימים מופלים, והכל במספרים "אובייקטיביים". איך זה קורה, ואיך אפשר לשנות את זה? תגיבו – מה אתם חושבים, אפשר לתקן או שהעתיד כבר מקודד מראש?
בינה מלאכותית (AI) משפיעה על חיינו באופן חסר תקדים – מהחלטות על קבלה לעבודה ועד קביעת שיעורי ריבית על הלוואות. אך האם האלגוריתמים שמעצבים את עתידנו באמת ניטרליים? מחקרים מראים שהטיות חברתיות, מגדריות ואתניות משתקפות גם במערכות AI, ולעיתים אף מועצמות על ידן. כיצד זה קורה, ומה ניתן לעשות כדי למנוע זאת?
מקרי בוחן אמיתיים
- אלגוריתם מיון בעבודה (שם החברה שמור במערכת)
בשנת 2018 נחשף כי מערכת הבינה המלאכותית של חברה למיון מועמדים לעבודה הפלתה לרעה נשים. הסיבה לכך הייתה שהמערכת התבססה על נתוני עבר, בהם הרוב המוחלט של המועמדים שהתקבלו היו גברים. האלגוריתם "למד" שנשים פחות מתאימות לתפקידים טכנולוגיים והפחית את דירוג קורות החיים שלהן באופן אוטומטי.
- מערכת זיהוי פנים (שם החברות שמור במערכת)
נמצא כי מערכות לזיהוי פנים פועלות בצורה פחות מדויקת עבור נשים ואנשים בעלי צבע עור כהה. מחקר מ-2018 של MIT הראה כי אחוז הטעות בזיהוי גברים לבנים היה נמוך מאוד (כ-1%), בעוד שאצל נשים כהות עור, הטעות עלתה לכ-35%. טעויות כאלו עלולות לגרום להפליה במערכות אבטחה, אכיפת חוק ואף בזיהוי משתמשים ברשתות חברתיות.
- מערכת קביעת עונשים בארה"ב
אלגוריתם לחיזוי רמת סיכון בפשיעה (שם החברה שמור במערכת), שנועד לחזות את רמת הסיכון של עבריינים, נמצא כמפלה אנשים שחורים. המערכת נטתה להעריך חשודים שחורים כבעלי סיכון גבוה יותר לחזרה לפשיעה, בעוד שלבנים עם עבר פלילי דומה סווגו כבעלי סיכון נמוך.
למה זה קורה?
הטיות בבינה מלאכותית נובעות בעיקר משני גורמים:
- נתוני אימון מוטים – האלגוריתמים ניזונים מנתונים היסטוריים שכבר מכילים הטיות חברתיות, ולכן הם משמרים ואף מחזקים אותן.
- עיצוב אלגוריתמי בעייתי – לעיתים המודלים מתוכננים ללא הבנה מספקת של ההשלכות האתיות והחברתיות שלהם.
פתרונות אפשריים:
- גיוון בנתונים
אחד הפתרונות המרכזיים הוא שימוש במערכי נתונים מגוונים ומאוזנים יותר. לדוגמה, הכנסה יזומה של נתונים המשקפים קבוצות אוכלוסייה שונות תסייע למנוע הטיות.
- בקרה אנושית ורגולציה
יש צורך בפיקוח מתמיד על אלגוריתמים, הן מצד החברות המפתחות והן מצד רגולטורים. חוקים המחייבים שקיפות בתהליכי קבלת החלטות של AI יכולים להפחית אפליה.
- פיתוח אלגוריתמים מודעים להטיות
חוקרים עובדים על מודלים מתקדמים שיכולים לזהות ולהפחית הטיות באופן אוטומטי. למשל, אלגוריתמים שמנטרלים משתנים כמו מגדר או גזע בתהליך קבלת ההחלטות.
- יותר נשים ומיעוטים בפיתוח AI
שילוב מגוון רחב יותר של אוכלוסיות בצוותי הפיתוח של AI יכול להוביל ליצירת מערכות הוגנות ומאוזנות יותר.
השלכות חברתיות: ההטיות בבינה מלאכותית משפיעות על קבוצות שונות בדרכים מגוונות:
- נשים בשוק העבודה – מערכות מיון אוטומטיות עלולה להקטין את סיכוייהן של נשים להתקבל לתפקידים בתחומים מסוימים.
- קהילות מיעוטים – החלטות מוטות עשויות להקשות על קבוצות מסוימות לקבל אשראי, למצוא דיור או להימנע מאפליה באכיפת חוק.
- אנשים עם מוגבלויות – לעיתים קרובות מערכות AI אינן מתוכננות באופן נגיש ומפחיתות את השתתפותם בשוק העבודה ובמערכות השירות הציבורי.
דוגמאות לפתרונות מוצלחים:
חברות וארגונים ברחבי העולם מפתחים שיטות לצמצום ההטיות ב-AI, אבל הדרך עוד ארוכה וההטיה מתרחשת ממש ברגעים אלה. Fairness Indicators – כלי שפותח על ידי חוקרים המאפשר לנתח ולמדוד הטיות באלגוריתמים. AI Now Institute – ארגון מחקר שפועל להגברת מודעות ואתיקה בתחום ה-AI. מודלים להוגנות – חברות מסוימות משלבות אלגוריתמים שמנטרלים משתנים כמו מגדר וגזע כדי למנוע החלטות מוטות. כדי להבטיח עתיד הוגן יותר, עלינו לפעול לפחות בשלושה מישורים:
- לדרוש שקיפות – חברות וממשלות צריכות לפרסם כיצד האלגוריתמים פועלים.
- לקדם מחקר ופיקוח – על מוסדות אקדמיים ורגולטורים לפתח סטנדרטים ברורים לאתיקה בבינה מלאכותית.
- להעלות מודעות ציבורית – ככל שהנושא יזכה לחשיפה רחבה יותר, כך תגדל הדרישה ל-AI הוגן יותר.
איך אנשים ששולחים קורות חיים למשל יכולים לעקוף את ההטיות הללו ?
אנשים ששולחים קורות חיים יכולים לנקוט בכמה צעדים כדי לצמצם את ההשפעה של הטיות אלגוריתמיות:
שימוש בפורמט פשוט וקריא למכונה – מערכות סינון אוטומטיות (ATS) מתקשות לקרוא עיצובים מורכבים, ולכן כדאי להשתמש בקובץ טקסט פשוט עם מילות מפתח רלוונטיות.
הימנעות מאזכור מגדרי אם לא הכרחי – אם אפשר, ניתן להשמיט תארים כמו "מר"/"גברת" ולבחור ניסוחים ניטרליים.
התאמת קורות החיים למשרה ספציפית – שימוש במילות מפתח מתוך תיאור המשרה יכול לעזור לעבור את הסינון הראשוני של האלגוריתם.
בדיקה מראש עם כלי AI – ישנם כלים שיכולים לנתח קורות חיים ולתת חיווי על סיכויי המעבר דרך מערכת ATS.
פנייה ישירה למעסיק – במקום להסתמך רק על הגשת קורות חיים דרך פורטל, יצירת קשר ישיר עם החברה דרך לינקדאין או מייל יכולה להגדיל את הסיכוי שהמסמך יגיע לידיים אנושיות.
איך ההטיה מתבצעת בפועל? הכירו את ATS (Applicant Tracking System)
קיימות מערכות ATS רבות ושונות, וכל חברה יכולה לבחור במערכת שמתאימה לצרכים שלה. המערכת משתמשת באלגוריתמים כדי לנתח מסמכים, לזהות מילות מפתח רלוונטיות ולהחליט אילו מועמדים מתאימים להמשך התהליך. לעיתים, המערכת עלולה ליצור הטיות אם הנתונים עליהן היא מבוססת אינם מגוונים מספיק.
האם המערכת הזו פועלת גם במקרי הטיה נוספים?
כן, מערכת ATS (Applicant Tracking System) עלולה להנציח גם הטיות נוספות מלבד מגדר. הנה כמה דוגמאות:
הטיה גזעית ואתנית – אם בעבר מועמדים מקבוצות מסוימות לא התקבלו למשרות מסוימות, האלגוריתם עלול "ללמוד" שאותם מועמדים פחות מתאימים ולהוריד את דירוגם.
הטיה כלפי מוסדות לימוד – אם חברה גייסה בעיקר מועמדים מאוניברסיטאות יוקרתיות, ATS עשויה להעדיף קורות חיים של מועמדים מאותם מוסדות ולהפלות אחרים. למשל, העדפה למועמדים עם מילות מפתח מסוימות – מועמדים שלא משתמשים במונחים "נכונים" עשויים להיפסל, גם אם יש להם ניסיון מתאים, וגילנות (Ageism) – אם נתוני העבר מראים שהחברה קלטה עובדים צעירים יותר, המערכת עלולה להעדיף אותם על פני מועמדים מבוגרים.
מבולבלים? שואלים, "רגע, אבל זו מערכת מובנית. ההטיה קיימת גם ללא המערכת הזו, בעצם לפי ההסבר הכללי – שהמערכת לומדת מהחברה"?
אתם צודקים! ההטיות קיימות גם ללא מערכת ה-ATS, משום שהן משתקפות מתוך הנתונים שהחברה כבר משתמשת בהם. ATS אינו יוצר את ההטיה, אלא משכפל ומחזק אותה אם הוא מתבסס על נתונים היסטוריים מוטים.
כלומר, אם בעבר ארגון גייס בעיקר מועמדים מגדר מסוים, מקבוצת גיל מסוימת או מרקע אתני מסוים, מערכת ה-ATS תלמד שהמאפיינים האלה הם "רצויים" ותסנן אוטומטית מועמדים שאינם תואמים את הדפוסים הקודמים. לכן, ללא התאמות מתאימות, המערכת משמרת את חוסר השוויון במקום לשבור אותו.
זה אומר שמערכת ATS (Applicant Tracking System) ככל הנראה, אינה יוצרת את ההטיה, אלא משקפת ומחזקת הטיות קיימות בארגון. אם בעבר חברה העדיפה מועמדים מגדר מסוים, מגזע מסוים או מרקע אקדמי מסוים, ה-ATS ילמד שהתבנית הזו היא "נכונה" ויסנן באופן אוטומטי קורות חיים שאינם תואמים לדפוס ההיסטורי. לכן, במקום לשבור את המעגל, המערכת עלולה לשמר ולהעצים חוסר שוויון.
האם ניתן למנוע הטיות במערכות ATS?
מערכות ATS יכולות לצמצם הטיות באמצעות אלגוריתמים מותאמים, בדיקות תקופתיות ושילוב פיקוח אנושי. רגולציה ושקיפות מצד החברות המפתחות חיוניות ליצירת מערכות גיוס הוגנות יותר.
לסיכום ניתן לומר כי, הטיות מגדריות, גזעיות וחברתיות בבינה מלאכותית הן בעיה אמיתית שמשפיעה על חייהם של מיליונים. עם זאת, קיימים פתרונות שיכולים להפוך את האלגוריתמים שלנו להוגנים יותר. עלינו לדרוש שקיפות, לעודד מחקר מתקדם ולוודא ש-AI משרת את כלל החברה בצורה שוויונית. העתיד לא חייב להיות מקודד מראש – יש לנו את הכוח לשנות אותו.
————————————————
המאמר נכתב למטרות מידע בלבד ואין לראות בו ייעוץ מקצועי, ו/או המלצה ו/או ייעוץ משפטי מכל סוג שהוא. למרות המאמצים לספק מידע מדויק ועדכני, ייתכן וחלק מהפרטים ישתנו עם הזמן או יתעדכנו לאור פיתוחים טכנולוגיים חדשים. הקוראים מוזמנים לבצע מחקר נוסף או לפנות לאנשי מקצוע בתחום לצורך קבלת ייעוץ מותאם אישית. הכותב ו/או האתר אינם אחראים לשום נזק שייגרם כתוצאה מהסתמכות על התכנים במאמר זה.
ט.ל.ח